Pardonnez moi de vous asséner quelques données chiffrées et quelques courbes mais tout cela est indispensable pour se faire une opinion personnelle sur ce que vous racontent les médias, l'Ex vice-président Al Gore (surnommé autrefois Mr Ozone par Georges Bush père), l'économiste Sir Stern, le chantre de TF1 Nicolas Hulot, greenpeace et les autres écologistes. Et aussi, pour vous dire ce que l'on ne vous dit jamais : c'est à dire la thèse des (nombreux) opposants aux précédents mais qui ne fait pas l'affaire des médias ni des politiques. Je vous expose en simplifiant, les deux théories qui font débat actuellement, en essayant de les déformer le moins possible, ce qui n'est pas facile vue la complexité du problème.
Bon! La température au sol de notre planète se réchauffe progressivement depuis au moins un siècle. Typiquement +0,7°C en 100 ans.Cela semble être un fait, aux erreurs de mesure près. Cela s'est déjà produit à plusieurs reprises dans l'histoire de la Terre mais les tenants de l'effet de serre affirment que cela résulte, cette fois-ci, de l'effet de serre provoqué par le CO2 résultant de l'industrie humaine. Ils proposent de limiter ou d'arrêter les émissions de ce gaz à effet de serre avec les conséquences que l'on imagine.
Pour leur part, les opposants à la théorie de l'effet de serre affirment que l'homme n'y est pour rien et que le réchauffement provient de causes parfaitement naturelles (dont ils donnent une explication), que des phénomènes identiques se sont déjà produit plusieurs fois au cours des millénaires passés. Ils ajoutent que limiter la production de CO2 n'aura aucune conséquence positive sur le climat mais que celle-ci peut être négative en limitant la croissance des végétaux et en nuisant à l'environnement. Vous le voyez, ils sont irréconciliables. Seuls les avancées actuelles et futures de la recherche … (et le thermomètre !) pourront les mettre d'accord ! Regardez aussi à la fin de cette page : les thèses évoluent….
L'IOP, c'est à dire l'Institute of Physics anglais a organisé un séminaire le 7 Juin 2007 intitulé "Climate change prevision : a robust or flawed process", c'est à dire "Prévision du changement climatique : Démarche solide ou défaillante ?". Deux éminents scientifiques Richard Lindzen et T. Thorpe ont fait le point des connaissances actuelles, en défendant, respectivement, des thèses anti et pro-GIEC. Allez voir ce texte (en anglais) et faites vous une opinion ! Bravo les Anglais ! Il semble que nous soyons incapables d'organiser un tel débat en France …
2006- Il faut dire que tout est problématique dans cette histoire de réchauffement climatique... Entre autres :
|
|||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Tout d'abord : Qu'est ce que l'effet de serre ? Il existe de multiples descriptions plus ou moins compliquées et, surtout, plus ou moins exactes de l'effet de serre. C'est (en apparence) très facile à comprendre : (voir les détails dans cette page)
Quels sont les gaz à effet de serre : Le plus important, c'est l'eau (H20 vapeur ou H20 nuages) qui représente entre 60% et 95% de l'effet de serre (selon les auteurs). Ensuite vient le fameux CO2, le gaz carbonique qui contribue entre 3% et 30% (selon les auteurs) et qui absorbe les rayonnements infrarouges de longueurs d'onde d'environ 4,3 et 15 microns. Viennent ensuite une série de gaz très efficaces pour l'effet de serre mais moins abondants : Le méthane (CH4), l'oxyde nitreux (N20), l'ozone (03) et quelques autres plus rares encore. Ces gaz à effets de serre ont tous des molécules (au moins) triatomiques. Cela est utile pour qu'elles puissent vibrer et tourner sur elles mêmes, ce qui leur confère des bandes d'absorption infra-rouges propres à générer l'effet de serre.. Pour de multiples raisons scientifico-écologico-politiques, la vapeur d'eau qui pourtant est, de très loin, le principal responsable de l'effet de serre, a été considére, non pas comme un acteur direct, mais comme un acteur secondaire (par rétroactions) par les tenants de l'effet de serre anthropique (cad créé par l'homme). Seul le CO2 est dans le collimateur. Intéressons nous à lui, en particulier. |
|||||||||||||||||||
2007- La thèse des partisans de l'effet de serre (tels Al Gore, Hulot, Stern, les écologistes, de nombreux membres du GIEC etc…) affirme que le CO2 émis par l'activité industrielle de l'homme est le responsable du réchauffement climatique et que ce dernier sera mauvais. Les média font du psittacisme (=répètent comme des perroquets) et les politiques suivent. Ils ont presque réussi à faire croire qu'il n'y avait plus de débat. Sur quoi se base leur certitude ? Commençons par le début : D'où vient le CO2 ? Quelques chiffres (source, entre autres, ici) généralement admis sur les différentes sources de CO2 et les échanges qui se produisent entre elles :
C'est à dire près de 42000 (GtC) milliards de tonnes de Carbone. Les échanges entre les différentes sources, cette fois ci en GtC par an :
C'est à dire un échange permanent de quelques 300 (GtC) milliards de tonnes de carbone par an. Et l'activité humaine dans tout cela ? me demanderez vous. Eh bien … Soient quelques 3 GtC par an, avec une croissance de l'ordre de 0,3 pourcent par an, c'est à dire 0,009 GtC supplémentaire par an. Ainsi, voici où demeurent les incertitudes actuelles:
Au vu de ces difficultés et du très grand nombre d'inconnues qui restent à élucider, on comprend que les prévisions sur le futur de notre planète soient pour le moins hasardeuses (voir paroles de grands chercheurs). Les mathématiciens ou les physiciens sérieux diraient qu'il s'agit d'un énorme système d'équations différentielles à coefficients inconnus, non linéaires et couplées entre elles et donc très difficile à élucider (voir cette page sur les graves critiques de physiciens sur les modèles des climatologues). En plus, une partie est plus ou moins chaotique c'est à dire très sensible aux conditions initiales souvent inconnues. Il n'y a pas pire ! Pourtant, les programmeurs sur ordinateurs s'en donnent à coeur joie avec des milliers de paramètres inconnus et la forme des équations maîtresses qu'il faut essayer de deviner. Disons gentiment que, comme toujours, ils obtiennent des résultats mais le problème c'est que l'on peut faire évoluer a volo les résultats en changeant un seul des paramètres ou une seule des équations inconnues. Comment croire que les ordinateurs font une prédiction correcte alors que les mécanismes essentiels des échanges et des rétroactions (feedbacks) positives et négatives sont encore très mal comprises et font toujours l'objet d'âpres discussions entre les chimistes, les physiciens, les climatologues, les géophysiciens etc.?
Ceci étant bien compris, voyons maintenant quelques résultats de calculs sur ordinateur qui, selon les partisans de l'effet de serre du CO2, "prouvent" que l'homme est bien pour quelque chose dans le réchauffement climatique : Ci-contre un des multiples résultats de simulations numériques pour démontrer l'influence du CO2 introduit par l'homme dans l'atmosphère. (du NCAR/DOE parallel climate model). L'image ci-contre, à l'intention des politiques est à vocation pédagogique. Elle est facile à comprendre. En noir, la courbe représentant les températures mesurées en moyennant les résultats des mesures d'un grand nombre de thermomètres placés sur notre planète. En bleu (le flou représente les incertitudes), la courbe des températures calculées avec un modèle d'ordinateur qui introduit les effets du rayonnement solaire (le simple rayonnement ? voir plus bas) et de l'activité volcanique. En rose une courbe de variations de températures calculées en ajoutant à la précédente l'effet de l'augmentation du CO2 dans l'atmosphère (du fait des activités humaines pensent les auteurs) ainsi que les sulfates présents dans l'atmosphère. A noter que l'on néglige l'effet du méthane et des autres gaz à effet de serre (comme H20, le plus important de tous mais sur lequel on a peu ou pas de modèles). Comme vous allez le voir, les opposants à la théorie de l'effet de serre anthropogénique (produit par l'homme) donnent, eux, une explication basée sur la couverture nuageuse due à H20 et non pas sur l'effet de serre du CO2. Lorsque l'on voit le très bon accord de ces courbes, comme les participants du GIEC, les écologistes et les politiques et nombre de journalistes l'ont fait, on est prêt à jurer que cette explication est la bonne et qu'il n'y a pas à discuter." The debate is over" : Le débat est clos, comme dit Arnold Schwartzenegger le gouverneur de Californie qui n'est pas vraiment un connaisseur en simulations numériques. Malheureusement, ce faisant, les crédules ignorent totalement les grandes incertitudes de ces simulations numériques sur ordinateur qui peuvent prédire la même chose avec des jeux totalement différents de paramètres et d'équations. Autrement dit, et je suis très bien placé pour le savoir après 40 ans de pratique, le fait qu'une simulation numérique "marche", c'est à dire semble reproduire une courbe, ne donne absolument aucune garantie que cette solution soit la bonne et surtout qu'elle soit UNIQUE et qu'il n'y en ait pas d'autre. Et il peut y en avoir beaucoup d'autres, surtout avec autant d'inconnues et d'équations à la clef, qui donneraient des résultats tout aussi convaincants ! Bref, "comparaison n'est pas raison" dans ce domaine et, au cours de ma longue carrière, j'ai vu bien des simulations qui semblaient aussi convaincantes que celle-ci mais qui ne reflétaient absolument pas la vérité comme l'ont démontré les expériences réelles ultérieures ! Malgré toutes ces réticences que beaucoup connaissent mais dissimulent (il faut les comprendre, c'est leur gagne-pain !), certains (avec ou sans arrières-pensées), comme les membres politiques du GIEC (beaucoup moins pour les scientifiques !) font naïvement(?) confiance à ces calculs d'ordinateurs… Sans entrer dans les détails, on voit, du premier coup d'oeil que les différents modèles utilisés (A1B, A1T, B2 etc..) ne brillent pas pas leur cohérence. D'après eux, l'accroissement des températures peut ainsi aller de +1°C à +6°C ! Cela dépend, disent-ils du comportement humain imprévisible. Rien que cela devrait mettre la puce à l'oreille de nos crédules concitoyens. Si une telle fourchette d'erreur est possible, on se demande aussi comment il se fait que certains programmeurs n'aient pas aussi trouvé des abaissements de température ! Peut-être en ont-ils trouvés qu'ils n'ont pas publiés ? Ou alors, ils n'ont pas encore exploré toutes les différentes équations et les valeurs possibles des cinq millions de paramètres envisageables ? Il est vrai que s'ils avaient publiés des résultats indiquant une décroissance des températures leurs crédits de recherche auraient été immédiatement suspendus par les gouvernements. En effet et dans l'ambiance actuelle, pourquoi financer des recherches qui ne prévoient pas de catastrophes ? In cauda venenum, tous ces calculs sur ordinateurs sont extrêmement complexes, comme on s'en doute ! Ils ne peuvent être effectués que par des spécialistes de la programmation certes très qualifiés dans leur domaine mais qui ne sont pas, le plus souvent, des climatologues avertis.On touche ici à une difficulté récurrente en matière de simulation sur ordinateur : Il arrive le plus fréquemment (mais pas toujours, heureusement) et ne particulier pour des problèmes très complexes, que ceux qui mettent au point les programmes ne sont pas de spécialistes des sciences de l'observation. Il n'existe plus de Pic de la Mirandole (qui prétendait TOUT savoir). D'où un certains nombre de couacs ! Et pas seulement en matière de climatologie. C'est d'ailleurs une des explications que donnent les détracteurs de la crosse de hockey de Mann en rappelant que Mann n'était nullement un statisticien professionnel et qu'il a commis des erreurs de programmation, de ce fait. Pour vous faire toucher du doigt une des nombreuses et grandes difficultés auxquelles se heurtent les "projections" d'ordinateur, j'emprunte l' image suivante à A. Zichichi (le Président de la Fédération Mondiale des Scientifiques). Vous trouverez une citation de Zichichi ici dans laquelle il déclare que le climat est régi par un système d'équations différentielles couplées (couplage fort) insolubles. Ce en quoi, il rejoint exactement les conclusions du livre de Peixoto and Oort (Physics of climate, New York AIP, 1992) qui écrivaient " L'intégration d'un modèle fortement couplé incluant l'atmopshère, les océans, la Terre et la cryosphère avec des constantes de temps très différentes, présente des difficultés insurmontables même si on connaissait le détail des processus en interaction". C'est très précisément ce que disent Gerlich et Tscheuschner dans leur article de 2007. Antonio Zichichi se propose d'illustrer, très simplement, la grande sensibilité des modèles climatiques sur ordinateur aux rétroactions positives ou négatives de la planète vis à vis d'une variation de température telles que celle que nous connaissons actuellement et et comme celles qui se sonnt produite depuis la nuit des temps. Dans la formule ci-contre, très simple, qui nous indique que les variations de température sont extrêmement sensibles aux modèles de rétroactions choisis,
Si l'effet de serre du CO2 ne générait aucune rétroaction, l'élévation de température serait d'environ 1,2°C au maximum (dit-on). Si on considère les dernières projections du GIEC en matière d'élévation de température (entre 2,2 et 6°C), on observe, sur la courbe ci-contre, que cela indique que le GIEC a "supposé" qu'il existait une rétroaction positive comprise entre 0,45 et 0,8. Quand on connaît les immenses difficultés qui se présentent lorsque l'on cherche à comprendre le vaste et complexe système des rétroactions de la planète, on se dit qu'un tel choix de paramètres ne peut-être qu'au "doigt mouillé" comme disent les scientifiques, c'est à dire extrêmement incertain. D'ailleurs, il ne se passe pas de mois sans que l'on découvre que certaines rétroactions que l'on pensait positives se révèlent, en fait, négatives (autrement dit, refroidissent la planète et ne la réchauffent pas) , comme cela a été le cas, par exemple, pour les planctons ou pour l'effet des nuages cirrus (l'effet iris, à la fin ). _____________________________________________________________________________________________________________________ Mise à jour du 20 Juillet 2009 : Le Dr Roy Spencer est Directeur de Recherches sur les questions climatiques à l'Université de l'Alabama Comment Fonctionnent les Modèles du Climat ? Roy Spencer (13 Juillet 2009) (source) Puisque la peur du réchauffement climatique anthropique ainsi que la mise en œuvre de lois ou de limitations des émissions de dioxyde de carbone, repose essentiellement sur les résultats de modèles du climat, il est important que le grand public comprenne les bases de ces modèles, comment ils fonctionnent et quelles en sont les limites. Les modèles du Climat sont des Programmes De manière générale, un modèle climatique est un programme d’ordinateur essentiellement constitué d’équations mathématiques. Ces équations décrivent, de manière quantitative, comment la température de l’atmosphère, la pression de l’air, les vents, la vapeur d’eau, les nuages et les précipitations répondent au réchauffement de la surface de la Terre et de l’atmosphère par le soleil. On y inclue aussi les équations qui décrivent comment les éléments de l’atmosphère dénommés à ‘effet de serre’ (essentiellement la vapeur d’eau, les nuages, le dioxyde de carbone et le méthane) conservent la chaleur de la basse atmosphère en constituant une ‘couverture’ radiative qui contrôle, en partie, la vitesse de refroidissement de la Terre par échappement de ses infrarouges vers l’espace lointain…. (Texte complet en pdf, ici) ____________________________________________________________________________________________________ En résumé, les projections par ordinateurs peuvent sans doute convaincre un profane, politique ou écologiste déjà convaincu mais certainement pas un scientifique expérimenté et sans parti pris : il n'est absolument pas prouvé par ces prévisions sur ordinateur que l'effet de serre donne la bonne explication. Même si le contraire n'est pas prouvé non plus, c'est évidemment le point faible N°1 des tenants de l'effet de serre anthropogénique sur lequel insistent les "climate skeptics" comme disent les américains….A ces doutes sérieux liés au fait qu'il ne s'agit pas de preuves mais des modèles d'ordinateurs peu fiables, s'ajoutent encore d'autres points faibles sur lesquels insistent aussi les opposants à l'effet de serre du CO2 :
|
|||||||||||||||||||
La thèse dominante de ceux qui ne croient pas à l'effet de serre dû au CO2 rejeté par l'homme Ne faisons pas durer le suspense. Disons le tout de suite : pour les opposants à la théorie de l'effet de serre, le grand responsable du réchauffement actuel (et aussi des réchauffements et des refroidissements passés), c'est tout simplement… le SOLEIL ! Et je vais vous expliquer pourquoi. Pour eux encore, le CO2 émis par l'homme n'a qu'une influence négligeable dans cette affaire ! Tout est de la faute aux éruptions solaires que vous voyez nettement sur l'image de droite comme des taches plus brillantes que le reste de l'astre. Vous ne pouvez évidemment les voir à l'oeil nu car cela vous brûlerait la rétine. Pour ce qui est du SOLEIL, l'explosion permanente et continue qui nous réchauffe n'est pas parfaitement constante. Elle subit des variations cycliques (tous les onze ans environ) au cours desquelles le soleil semble "pulser", c'est à dire que le soleil rentre périodiquement en éruption puis se calme peu à peu jusqu'aux éruptions suivantes. L'amplitude de ces suites d'éruptions n'est pas constante d'un cycle à l'autre, pas plus que leur durée (autour de 11 ans) et, justement, notre soleil est l'objet, depuis quelques dizaines d'années, d'une série de pulsations particulièrement énergiques…assez rares dans l'histoire récente de notre système solaire . D'ailleurs, d'autres planètes de notre système solaire en subissent les contrecoups comme vous le verrez plus bas.
Vous pouvez actualiser ce graphe (mis à jour chaque fin de mois) en cliquant sur ce lien. Bien entendu et comme vous l'avez vu dans les paragraphes précédents, les tenants de l'effet de serre et des prévisions sur ordinateur n'ont pas oublié le rayonnement solaire. Ils ne le pourraient d'ailleurs pas, car le SOLEIL est pratiquement l'unique source de chaleur ! Et quand on veut faire des prévisions sur ordinateur, n'est-ce pas, on ne peut pas oublier la source des températures. Cependant, et d'après les modélisateurs précédents, les éruptions solaires que vous voyez sur l'image ci-contre et qui évoluent au cours des années ne peuvent expliquer, à elles seules et par simple variation de luminance, les variations de température que nous observons sur notre planète. Tout au plus, les tenants de l'effet de serre du CO2 anthropogénique, accordent-ils à leurs opposants un maigre effet de 0,3 Watt/m2 , à comparer avec les 2,4 Watts/m2 qui seraient dus à l'effet de serre de notre CO2, pensent-ils. Pour ce qui est de la luminance du SOLEIL, ce doit être exact si on s'en tient à la simple mesure des variations d'éclairement produit par notre astre qui respire comme je l'ai dit, tous les onze ans. Rien à objecter à cela et si les opposants n'avaient que cet argument dans leur besace, je ne me serais sûrement pas donné le mal d'écrire cet article pour vous ! Mais (bien sûr), il y a autre chose: Les chercheurs qui travaillent sur le rayonnement solaire (les astrophysiciens) ont fait bien d'autres observations que l'étude de la simple variation de l'ensoleillement de l'astre solaire et là, je dois dire qu'en tant que scientifique, les résultats m'ont impressionné, d'autant plus qu'il ne s'agit, cette fois-ci, aucunement de prévisions d'ordinateurs, mais bien d'observations expérimentales et de mesures incontestables et incontestées ! Plus moyen de critiquer de multiples jeux de paramètres ou d'équations. Cette fois-ci, ce sont de vraies preuves ! Comme vous allez le voir, le processus d'analyse à partir de faits, et uniquement de faits, et non point de résolutions d'équations alambiquées, ressemble tout à fait à une enquête de Sherlock Holmes. Le scénario est en trois étapes. Pour vous expliquer tout cela de manière aussi pédagogique que possible, je vais vous faire suivre pas à pas l'histoire des découvertes telles qu'elles ont été faites au cours de cette dernière dizaine d'années, jusqu'à maintenant. N'ayez pas peur, le raisonnement est facile à suivre et les évidences crèvent les yeux ! Allons-y ! Première étape : Observation de corrélation entre la durée des cycles solaires et la température du globe
A moins d'être aveugle, on voit que cela a bien l'air d'être le cas. A noter que l'échelle de droite est graduée en durée des cycles solaires magnétiques et l'échelle est inversée par rapport à la convention habituelle. La moyenne de ces cyles tourne autour de 22 ans qui est la durée classique des cycles de Hale. Cette durée est égale au double de celle des cycles bien connus de Schwabe qui, elle, est de 11 ans environ. Cela tient au fait que le soleil renverse sa polarité magnétique lors du passage d'un cycle solaire au suivant (voir, par exemple, ici) et que la polarité magnétique du soleil (et de la Terre) joue un rôle important, comme nous le verrons plus bas.
Addendum du 5 Mai 2010 : Des images, du même type que la précédente, de corrélation [température/durée des cycles solaires] ou de corrélation [extension des glaces/durée des cycles solaires] tirées d'une présentation Poster à la "Final ACSYS Science Conference, Arctic and Antarctic Research Institute, St. Petersburg," 11-14 November 2003. (merci au lecteur qui m'a communiqué cette référence)
Ligne rouge : anomalie de température par rapport à moyenne (1961-1990) au Nord du 62N (selon Polyakov 2001). les températures avant 1880 ne sont pas repérsentatives d'une moyenne circumpolaire. Ligne bleue : deviations par rapport à la durée moyenne du cyle solaire pendant la période 1961-1990 (10,6 années) lissées selon la méthode L121 indiquée dans http://web.dmi.dk. La correlation entre les deux lignes est de 0.93. Les échelles sont inversées comme dans le graphique précédent.
Fig. 6. Echelle de gauche et courbe bleue: Anomalie normalisée par rapport à la moyenne de l'extension de la glace de la Mer de Barents en août (1750-2000). Echelle de gauche et courbe rouge :
De fait,il ne s'agit pas, cette fois-ci, de corréler une seule montée de température avec une seule montée de concentration de CO2 comme l'ont fait les tenants de l'effet de serre, mais bien, plusieurs montées et descentes de température avec plusieurs augmentations et diminutions de la durée des cycles solaires en fonction du temps. Le test est beaucoup plus discriminant puisque la température à beaucoup varié en montées et en descentes durant ces périodes. Disons pour l'instant et pour rester prudent (Corrélation n'est pas raison !) que la coïncidence entre les températures et la durée des cycles solaire est impressionnante et n'est sans doute pas le fait du hasard. C'est très bien, mais comment expliquer cela ? se sont demandés les chercheurs qui travaillent dans ce domaine. A noter que ces observations sont totalement ignorées dans les rapport finaux du GIEC jusqu'à nos jours. Mais comme les évidences se sont affinées et les preuves accumulées depuis, ils doivent se faire bien du souci à l'ONU (qui est le responsable du GIEC) les partisans de l'effet de serre du CO2! Et cette relation profonde entre le rayonnement cosmique ionisant ne date pas d'aujourd'hui, loin de là. Mis à jour : Juillet 2011. Les résultats de Friis-Christensen et Lassen qui datent de 1991 ont été abondamment critiqués; jusqu'à être prétendus erronés, par les tenants de l'effet de serre. Ils ont pourtant été confirmés, quelques années plus tard, par deux chercheurs irlandais qui ont utilisé les données du Armagh Observatory, lequel présente la particularité de posséder une des bases de données de température les plus longues existantes à ce jour. Ces deux chercheurs ont publié leurs résultats en 1996 dans le JASTP : Journal of Atmospheric and Terrestrial Physics, Vol. 58, No. 15, pp. 1657-1672, 1996 A provisional long mean air temperature series for Armagh Observatory Résumé : Deux longues séries de température moyenne de l'air à la surface sont présentées pour le l'Oervatoire de Armagh. L'une est basée sur la mesure "spot" de deux températures quotidiennes ( de 1796 à 1882) et l'autre sur les mesures des maximas et minima de températures quotidiennes de 1844 à 1992. Nos données confirment la corrélation de température avec la durée des cycles solaires suggérées, en premier; par Friis-Christensen et Lassen (Science 254, 698, 1991). Pour ce site (NdT : Armagh), on prolonge leurs résultats de 65 années en allant vers la fin du XVIIIème siècle.
Ci-contre les résultats absolument confondants de l'étude de Jan Veizer (réf : Veizer J. (2005), Celestial climate driver: A perspective from four billion years of the carbon cycle, Geoscience Canada, 32, 1, 13-28.) A voir l'excellente concordance des variations de le température terrestre avec l'irradiation ionisante, on comprend que Jan Veizer soit devenu très sceptique sur le rôle du CO2 dans le réchauffement climatique. Alors quoi ? Ce qui était vrai pendant 500 millions d'années ne serait plus vrai pendant notre petit siècle ? Les éruptions solaires ne concerneraient plus notre vieille Terre ?
Ci contre, à droite, voici comment on observait les taches solaires au début du XVIIème siècle. En bref, Herschel pensait que les éruptions solaires jouent un rôle important pour déterminer la température terrestre. Le prix du blé n'est rien d'autre qu'un marqueur (un proxy comme disent les américains et, à l'époque, il n'y en avait pas d'autre). En matière de science, c'est ce que nous appelons un indice. Sans plus, car nous ne connaissions pas le détail des mécanismes et la bonne question c'était : Par quel processus ? Comment les taches solaires que Herschel observait pouvaient-elles bien influencer le climat de notre planète ? Tout le monde l'ignorait, bien entendu, et il fallut attendre 202 ans pour que les observations de Herschel soient vérifiées en détail et que des tentatives d'explications de la physique du phénomène apparaissent enfin et, aussi, que Lord Brougham "mange du corbeau" (toujours comme disent les américains, pour "reconnaître ses torts"). Plus près de nous mais toujours dans la série de grands précurseurs ou visionnaires, je ne peux manquer de vous citer une phrase particulièrement prophétique due à l'Abbé Théophile Moreux (photo ci-contre crédit). Elle figure à la page 64 de son oeuvre maîtresse, "Le Ciel et l'Univers" ( Gaston Doin et "…Tous ces phénomènes ( NDLR : résultant de l'activité solaire) ont une répercussion sur l'état d'ionisation de la haute atmosphère et retentissent sur notre climatologie. Les détails de cette action puissante nous échappent encore, mais les physiciens, n'en doutons pas, sauront un jour ou l'autre en démêler les lois, malgré quelques météorologistes attardés qui cherchent toujours en bas alors qu'il faut regarder plus haut." Théophile Moreux, 1928.
Un autre grand savant surtout connu parce qu'il est le premier à avoir mesuré la charge de l'électron, le Professeur Millikan de CalTech (Prix Nobel de Physique 1923), a lui aussi pensé que les rayons cosmiques pouvaient influer sur le climat comme nous le rappellent cette image et le texte ci-contre, extraits de "Popular Science" en Mars 1931.Le titre (journalistique) était " Les rayons cosmiques peuvent permettre de prévoir le climat". (Merci au lecteur érudit)
Pour leur part, plus récemment et en relation avec les observations de William Herschel … Plus extraordinaire encore, ils ont analysés les variations du prix du blé aux Etats Unis entre 1900 et 2000 et ils ont encore trouvé une excellente corrélation avec les cycles solaires (référence accessible) et les hausses et les baisses du marché du blé. Cet aspect de la phénologie (cad l'étude de l'influence du climat sur la croissance des végétaux, mise en vedette par Emmanuel Leroy Ladurie, en particulier) est très intéressant. Une aussi éclatante corrélation (qui n'est pas raison !) ne peut être due au hasard. Elle devrait convaincre les partisans de l'effet de serre du CO2, que les éruptions solaires ont probablement une influence importante sur le climat par le biais de la couverture nuageuse, comme je vais vous l'expliquer ci-dessous.
Deuxième étape : La durée des cycles solaires influence la trajectoire des particules ionisantes émises de l'espace et atteignant la Terre. Tout d'abord, il nous faut comprendre ce qui se passe quand le soleil rentre en éruption, approximativement tous les onze ans, avec un variation lente de l'amplitude au cours des siècles. Je rappelle que nous sommes actuellement rentré dans une période de très intense activité des éruptions solaires.
Les deux courbes du haut de cette figure représentent le nombre des particules ionisantes qui parviennent sur Terre mesurées dans deux chambres de détection aux États Unis entre 1937 et 2000. Ces courbes ont été compilées par le Professeur Svensmark et son équipe de l'Institut de recherches spatiales danois à Copenhague. Les travaux que je vous expose ont été rapporté dans les meilleures revues internationales comme Physical Review Letters ( le gotha des physiciens !) et ne sont pas sujettes à caution. Ainsi cette courbe, d'origine expérimentale, ne peut être contestée. Le professeur Svensmark et son équipe confirment ainsi ce que l'on pensait déjà et qui résulte du phénomène suivant : Les éruptions solaires induisent des orages magnétiques qui dévient les particules ionisantes qui devraient normalement atteindre notre planète : Lorsque les éruptions sont brutales (cad de courte durée), le nombre des particules ionisantes qui atteignent notre planète est minimal : C'est tout simple et nul ne conteste ces faits ! Bon, c'est très bien tout cela, se disent les chercheurs. Mais que font donc ces particules ionisantes lorsqu'elles arrivent sur Terre et comment cela peut-il influencer la température de notre planète ? Pour être honnête, disons que de nombreux physiciens et astrophysiciens avaient déjà pressentis, comme le professeur Svensmark, ce que je vais vous raconter. Travaillant indépendamment aux quatre coins de la planète (au moins, aux USA en Israèl, au Japon et en Russie), ils étaient parvenus à la même conclusion : Les particules ionisantes doivent influencer la basse couverture nuageuse de la Terre et ainsi son ensoleillement et donc sa température. Encore fallait-il le prouver et expliquer par quel processus physique! Nous arrivons à la troisième étape : Troisième (et dernière) étape : Les particules ionisantes venues de l'espace, plus ou moins déviées par les éruptions solaires influencent grandement la couverture nuageuse de la Terre et donc sa température ! Le professeur Svensmark et son équipe Danoise ont alors lancé un projet de programme d'expériences auprès du CERN (Centre d'Etude et de Recherche Nucléaire de Genève). Ce programme appelé "Programme CLOUD" (cloud= nuage en anglais).Il s'agit d'une collaboration internationale impliquant pas moins de 60 scientifiques appartenant à 17 grandes institutions de la science provenant de 10 pays. L'investissement est évalué à 9 millions d'Euros : Ce n'est pas rien ! Le but de ce programme est d'établir le lien physique entre les radiations ionisantes venues de l'espace et la formation des nuages dans la troposphère de notre planète. Autrement dit, d'essayer de comprendre si et comment les particules ionisantes peuvent changer la couverture nuageuse de la Terre et donc modifier son ensoleillement et donc… sa température, ce que beaucoup persistent à nier…comme Lord Brougham en 1801 et le rapport du GIEC en 2007 ! Voici un exemple des résultats étonnants obtenu par l'équipe de Svensmark et rapporté en 2000 dans Physical Rev. Letters (une revue au dessus de tout soupçon). La courbe ci-dessous présentée par Henrik Svensmark lors d'une connférence en 2005 a été implémentée par les résultats obtenus entre 2000 et 2005 : Avouez que le recouvrement de la courbe rouge ( intensité des rayons cosmiques) et de la courbe bleue (taux de couverture nuageuse à basse altitude) est pour le moins confondante… D'autre part, et plus récemment et pour en savoir plus, le professeur Svensmark et ses collaborateurs ont construit une grande chambre d'ionisation (une sorte de grande boite transparente) entourée d'une multitude d'instruments d'observation et remplie avec les gaz qui constituent la partie inférieure de l'atmosphère terrestre, avec les compositions variables des différents constituants (Azote, oxygène, H20, CO2, SO2, sulfates etc.). C'est le projet SKY (nuages en Danois). Ils ont ainsi réalisé, dans cette chambre d'ionisation, une petite atmosphère terrestre. Puis ils ont irradié l'ensemble avec des rayons lumineux identiques à ceux du soleil et avec des particules ionisantes identiques à celles qui sont générées par les rayons cosmiques et qui proviennent généralement des étoiles qui explosent en permanence et essentiellement dans la voie lactée. A la grande surprise des expérimentateurs et du professeur Svensmark lui-même, les résultats ont été d'une efficacité stupéfiante.Ils ont parus, sans tambour ni trompette, le 4 octobre 2006 dans les Proceedings of the Royal Society A, publiés par la Royal Society et l'Académie des Sciences Britannique qui est, bien entendu, une revue au dessus de tout soupçon. Les média, (s'ils sont au courant ?) n'en ont soufflé mot. Ils ont eu tort, car, de l'avis général, cette découverte représente une vraie nouveauté dans la connaissance du climat de la Terre, même si elle ne leur fait pas plaisir, parce qu'à elle seule, et dans la mesure où elle est confirmée, elle pourrait permettre d'expliquer en grande partie, si ce n'est la totalité des variations de température de la Terre, passée, présentes et futures ! …sans l'effet de serre du CO2.
Voici une autre version de la superposition précédente parue dans Science (298, 1732 (2002)) ( KS Carslaw, RG Harrison et J. Kirkby). Notez que l'échelle des irradiances solaires est inversée, comme de bien entendu. RG Harrison est bien le même Regis Harrison de Reading qui est cité ci-dessous.
Les idées du professeur Svensmark, du Dr Shaviv en Israel et de quelques autres sur la planète, dont de nombreux chercheurs Russes sont finalement très simples : Lorsque l'activité solaire est très intense comme cela a été le cas à la findu siècle dernier, les orages magnétiques qui lui sont associés, dévient efficacement les particules qui normalement fabriqueraient des nuages à partir de la vapeur d'H2O présente dans l'atmosphère. Par un processus qui n'est pas encore totalement éclairci et sur lequel les débats vont bon train, l'ensoleillement résultant sur la Terre est plus intense et la Terre s'échauffe. En revanche, lorsque l'activité solaire est plus faible (comme en 2007-2008, voir ici), l'héliosphère devient plus transparente et les rayons ionisants parviennent, en plus grand nombre, jusqu'à l'atmosphère de notre planète provoquant ainsi un refroidissement qui résulte de l'augmentation de l'albedo des nuages.. D'ailleurs des mesures satellitaires ont confirmé ce point de vue, malheureusement pour une période assez courte (il n'y avait pas de satellites autrefois !). Bref, c'est simple à comprendre mais c'est révolutionnaire en matière de science des climats et… ce n'est évidemment pas inclus dans les simulations numériques des partisans de l'effet de serre anthropogénique ni dans les rapports du GIEC dont je vous ai parlé plus haut qui ne font intervenir que les faibles variations de luminance du soleil bien insuffisantes pour expliquer les variations actuelles. C'est vrai. Le temps (dans tous les sens du mot) nous dira qui a raison ! Il s'écoulera sûrement beaucoup de temps avant que les choses se clarifient et soient admises par tout le monde comme une évidence. C'est comme cela en Science : plus une découverte est révolutionnaire donc importante et va contre la Pensée Unique, plus elle met du temps à s'imposer. Par exemple, Alexander Fleming, le découvreur de la pénicilline (le premier antibiotique qui a sauvé des millions de vies humaines), a mis plus de 10 ans avant de faire admettre et produire sa découverte. Et encore, nous étions au début de la seconde guerre mondiale : la pénicilline devenait indispensable ! Vous trouverez ici un superbe petit film (40Mo) de l'équipe Svensmark, qui montre ce que l'on voit dans la chambre d'ionisation et vous explique le processus qui conduit de l'arrivée des rayons cosmiques générés par l'explosion d'une étoile à la formation des nuages sur notre Terre. J'en ai extrait quelques photos, que je vous livre avec quelques explications :
Ces expériences sur l'effet de radiations cosmiques en sont encore à leur début. Le projet CLOUD du CERN devrait voir son achèvement en 2010. Comme dans le projet SKY réalisé à petite échelle, Il s'agit de mettre en place une vaste chambre d'expérience remplie avec des gaz identiques à ceux de l'atmosphère et de l'irradier avec des particules de haute énergie identiques à celles qui nous viennent de l'espace. Il reste bien entendu à déterminer l'efficacité réelle en terme de variations de températures dû à cet effet encore que beaucoup pensent que cet effet des rayons cosmiques pourrait suffire, à lui seul, à expliquer les variations de températures présentes et passées (telles que celles du petit âge glaciaire et de l'optimum médiéval). Pour donner un ordre de grandeur, disons qu'un chercheur russe affirme (sans que je puisse le certifier) qu'une variation de 1% de l'ennuagement sur la planète induirait une variation de 4°C sur la surface de la planète. Comme nous en sommes actuellement à +0,6°C d'après l'OMM, il aurait donc suffi que l'ennuagement ait varié de 1,5 pour 1000 pour expliquer le fameux réchauffement climatique. De tout cela, Les médias n'ont jamais parlé ! Vous le voyez, comme c'est souvent le cas en matière scientifique et surtout pour un sujet aussi chaud que le réchauffement planétaire, cette histoire n'est pas terminée. Même si certains disent que "les sceptiques sur l'effet de serre nous font perdre du temps" comme Kofi Anann, les recherches se poursuivent quoiqu'il arrive et au grand dam de ceux qui nous disent que l'affaire est entendue. Il existe aussi d'autres théories pour expliquer le réchauffement climatique ou plutôt les variations (plus ou moins naturelles ?) de la température de notre planète au cours des âges. Je ne vous ai décrit que les deux théories qui tiennent le haut du pavé en ce moment : celle des tenants de l'effet de serre due au CO2 généré par l'homme (endossée de manière exclusive par le GIEC et largement médiatisée) et celle (encore dans l'ombre) liée aux éruptions solaires particulièrement actives en ce moment….Mais pourquoi nous cache t-on tout cela ? Pour que nous fassions des économies d'énergie fossile ? Nous sommes assez intelligents pour bien agir sans que l'on nous dissimule les débats scientifiques, non ? Notes added in proof (comme disent les chercheurs à la fin d'un article. Cad "notes qui confirment l'article" ) sur cette hypothèse d'effet des rayons ionisants sur les climat terrestre : Tout récemment (en 2006), deux chercheurs de l'Université de Reading ( Regis G. Harrison et David .B. Stephenson, UK) ont eu une idée intéressante. Ils ont rassemblé toutes les données disponibles sur les taux d'ennuagement (en fait, ils ont utilisé le facteur de diffusion de la lumière solaire par les nuages) présents au dessus de l'Angleterre depuis 1947 jusqu'en 2004. Ces données sont soigneusement conservées dans les archives des stations météorologiques et ceci, jour après jour. Le résultat de cette confrontation, analysée avec beaucoup de soin, montre que l'intensité des rayons cosmiques est indubitablement corrélée au taux d'ennuagement, exactement comme l'avaient prévu Svensmark et d'autres avant lui, comme William Herschel et Edward Ney. Les résultats, très encourageants pour les tenants de la théorie du réchauffement de la planète par les éruptions solaires, ont été publiés en avril 2006 (Proc. Royal Society series A, issue 2068, p1221-1223, 04/2006) et …ils ont évidemment été superbement ignorés par les médias et les "experts" du GIEC (dans leur rapport de février 2007)…qui ne croient pas aux preuves expérimentales et qui préfèrent faire confiance aux prophéties d'ordinateur … Car il s'agit ici d'évidences expérimentales indiscutables qui ne dépendent ni des hypothèses ni des paramètres inconnus, ni des méthodes de calcul. Ce sont des faits, purs et simples. Dans le même esprit, deux chercheurs Indiens, Subarna Bhattacharyya et Roddam Narasimha (Journal of Geophysical Research, vol. 112, D24103, doi:10.1029/2006JD008353, 2007) ont étudié les possibles corrélations entre la mousson indienne et l'activité solaire et ceci au plan régional c'est à dire avec une grille de pas assez fin. La corrélation est extraordinairement nette (99,5% de confiance), ce qui démontre une fois de plus le lien direct entre l'activité solaire et l'ennuagement conformément à la théorie de Svensmark et al, et qui corrobore les observations précédentes de Regis Harrison et David Stephenson. Et enfin, dans le même ordre d'idée, une étude récente (parue le 2 Juin 2007, dans le Journal of South African Intitution of Civil Engineering) sur la corrélation absolument frappante qui existe entre les quantités de pluies en Afrique du Sud et les éruptions solaires. Les auteurs ( WJR Alexander, F. Bailey, DB Bredenkamp, A van der Merwe et N Willemse) ont rassemblé les données hydrométéorologiques collectées en Afrique du Sud, jour après jour, par les quelques 500000 stations réparties dans le pays et ceci pendant les 150 dernières années. En noir, le niveau naturel du lac Victoria. En rouge, la courbe qui donne le nombre de taches solaires (autrement dit le nombre d'éruptions solaires) pendant la même période. Le moins que l'on puisse dire, c'est que cette corrélation ne peut être le fruit du hasard ! Cela rejoint, en plus clair encore, les résultats précédents des mesures que Harrison et Stephenson ont récemment effectuées pour le Royaume Uni. Vous trouverez l'article ici (en pdf et en anglais, bien sûr). Avouons que comme corrélation, c'est tout autre chose que de voir deux courbes croître de manière monotone comme le fait le GIEC avec le taux de CO2 et la température et d'en déduire une corrélation! Les auteurs de cet article, tous experts dans ce domaine, recommandent d'ailleurs aux autorités de leur pays de prendre en compte ces résultats pour la gestion de l'eau qui est un problème crucial en Afrique du Sud. Ils ajoutent, mi-figue mi-raisin qu'ils n'ont trouvé aucune corrélation avec le taux de CO2 présent dans l'atmosphère ! A noter que ces auteurs ne semblent pas connaître les travaux récents de Svensmark et Nir Shaviv sur ce sujet, puisqu'ils ne les citent pas dans leur bibliographie. Non plus que les résultats de Harrison (UK)ou Hiremath (Inde), ni ceux des chercheurs du CALTECH sur le niveau du Nil, ce qui n'enlève rien au mérite de leur découverte. Bien au contraire. A noter, pour être équitable, qu'Edward Ney avait suggéré, lui aussi, en 1959 et après une série d'expériences qu'un tel mécanisme devait exister. En cela, il reprenait fidèlement les idées du brave William Herschel en 1801. Comme c'est souvent le cas en Science, une idée émerge quelque part, puis elle est délaissée jusqu'à ce qu'elle soit reprise par quelqu'un d'autre. Elle peut être délaissée là encore et ainsi de suite jusqu'à que les choses arrivent à maturité… Cela peut prendre plusieurs siècles ! La Science est comme la Justice : Elle avance très lentement et pas à pas, pour éviter de se tromper ! Et puis, il faut souvent attendre que les progrès techniques aient permis la mise au point de méthodes plus sophistiquées pour résoudre les problèmes… Et voici encore un résultat récent montrant une corrélation manifeste sur près de 1000 ans d'histoire entre l'intensité des rayons cosmiques et la température terrestre.Il s'agit d'une étude menée par deux chercheurs japonais (Kasaba et Tokashima, Congrès de l'American Geophysical Union) qui ont prélevé des carottes sur de très vieux arbres (certains avaient 1400 ans !) pour en étudier la proportion de carbone 14. Il se trouve que le C14 qui est un isotope du carbone naturel (C12) est uniquement produit par les radiations cosmiques. Nos deux chercheurs japonais ont donc tracé une courbe donnant l'intensité des radiations cosmiques (mesurée par la concentration de En effet, on retrouve parfaitement, de l'an 900 à nos jours, la courbe des températures bien connue avec l'optimum médiéval ( la période chaude, vers 1200, donc pauvre en rayons cosmiques arrivant sur la Terre), la période froide correspondant aux minimas de Wolf, Sporer et Maunder (vers 1700), donc riches en rayons cosmiques impactant la Terre etc. La partie droite de la courbe correspond au relâchement du C14 par suite de la combustion des énergies fossiles dès le début de l'ère industrielle. Tout cela est parfaitement cohérent avec les idées de William Hershell, de Ney, de Svensmark, de Shaviv, etc… et ne peut pas être nié. Il apparaît donc bien que la température terrestre, du moins pour les mille ans qui ont précédé l'année 1900, ait été totalement déterminée par la proportion des radiations cosmiques venant de l'univers interstellaire et modulée par les éruptions solaires…Or nous vivons une période particulièrement riche en éruptions solaires qui dévient et donc atténuent le rayonnement cosmique parvenant sur notre planète provoquant sans doute une diminution de son ennuagement et donc son réchauffement….Alors, pourquoi le GIEC s'obstine t'il à nier cette possibilité ??? En quoi est-il naïf et irresponsable (ce sont les mot qu'avaient utilisé son président) de se fier à des découvertes aussi frappantes ? Est ce une "grand absurdity" comme avait dit lord Brougham en 1801, qui, bien entendu, ignorait tout cela ? 07/06/08. Voulez-vous encore une démonstration de cette belle corrélation entre les cycles solaires et la température terrestre ? Dirigeons nous vers l'observatoire d'Armagh en Irlande (Ulster) qui a conservé des archives qui remontent très loin dans le temps, depuis un peu avant 1800 pour être précis. Les gens d'Armagh ont réutilisé la technique de Labitzke-Pekarek citée plus haut. Voici ce qu'ils ont trouvé, à partir de leur base de données locales. En ordonnée la durée des cycles solaires (en années). Notez que l'échelle est représentée avec les cycles longs vers le bas. En abscisse, les dates. Les points représentent les données de températures relevées à Armagh depuis 1800.
Ici encore, il faut être aveugle pour ne pas voir que la température a augmenté nettement lorsque les cycles solaires étaient courts ce qui correspond à une activité éruptive d'intensité accrue et donc, à un ensoleillement plus important sans doute parce qu'il y a moins de nuages si l'on en croit la théorie de Svensmark. (Source)
J'en connais certains, adeptes de Real-Climate, qui persistent à penser, qu'il n'y a là rien d'autre que de simples coïncidences.. Alors, tout spécialement pour eux, permettez-moi d'insister… Voici la courbe en question : Ce graphe rapporte le taux d'isotope C14 que l'on trouvait dans l'atmosphère au cours des années indiquées en abscisse. Ce travail est donc très proche mais indépendant de celui des deux Japonais cités ci-dessus. A noter que celui-ci commence en 800, les données des Japonais en 1000. Les courbes sont remarquablement proches. Comme dans le cas précédent, il faut se souvenir que l'optimum médiéval (800-1300) était une époque remarquablement chaude tandis que le petit âge glaciaire (1400-1800) était, lui, remarquablement froid. Et comme d'habitude, la période chaude (médiévale) correspond à une chute considérable du rayonnement cosmique sur le planète, tandis qu'on observe l'inverse pour le petit âge glaciaire (Je vous le rappelle : plus de rayons cosmiques = moins d'ensoleillement = plus froid) et il est prouvé (pas seulement à 90% !) que les rayons cosmiques sont moins déviés de leur trajectoire pendant les périodes calmes du soleil… Enfin, l'article très récent (2008) suivant : Raspopov, O.M., Dergachev, V.A., Esper, J., Kozyreva, O.V., Frank, D., Ogurtsov, M., Kolstrom, T. and Shao, X. (2008. The influence of the de Vries (~200-year) solar cycle on climate variations: Results from the Central Asian Mountains and their global link. Palaeogeography, Palaeoclimatology, Palaeoecology 259: 6-16.) trouve encore la même chose. Quelle coïncidence ! De même l'article de , A. V. Dergachev, T. Kolström, A. V. Kuzmin, E. V. Lopatin, and O. V. Lisitsyna (2007), Long-term solar activity variations as a stimulator of abrupt climate change, Russ. J. Earth Sci., 9, ES3002, doi:10.2205/2007ES000250. traduction accessible ici, trouve des corrélations nettes entre les changements climatiques et les cycles solaires durant l'holocène (- 9000 ans à nos jours) ________________________________________________________________________________________________________________ Et voici encore un clou dans le cercueil de la théorie de ceux qui ne veulent pas croire à la corrélation manifeste entre les cycles solaires et le climat de la planète : Il s'agit du résultat du travail de cinq chercheurs suisses et allemands U. Neff, S. J. Burns, A. Mangini, M. Mudelsee, D. Fleitmann et A. Matterqui, en 2001, ont publié une lettre dans Nature (411:290-293), sous le titre "Forte corrélation entre la variabilité solaire et la mousson d'Oman d'il ya 6000 à 9000 ans." les résultats de ses recherches sur une stalagmite prélevée dans une grotte en Oman (Arabie). Le C14, présent sur notre planète est un isotope du carbone ordinaire (le C12). Le C14 présente la particularité de n'être produit que par le rayonnement cosmique qui atteint notre planète. Le C14 est donc le marqueur favori de ceux qui cherchent à connaître les fluctuations liés aux cycles éruptifs de notre astre solaire au cours des âges, sans que nous ayons accès aux observations directes des taches solaires de ces époques reculées… Voici, ci-contre, les courbes obtenues par Neff et al . Elle sont absolument confondantes, comme les précédentes. La corrélation est évidente et se trouve d'autant plus méritoire que les conditions climatiques (température et humidité) et l'irradiation cosmique ont beaucoup fluctué pendant cette longue période de notre histoire. La figure du haut récapitule l'ensemble du spectre (en bas l'O18, en haut le C14) obtenu pour la période étudiée. En abscisse sont reportées les années en kyr BP, ce qui signifie en unités de 1000 ans avant notre époque (kiloyear before present) Le graphique du bas est obtenu avec une meilleure résolution pour la période 7900 à 8350 années avant notre époque. On peut, sur ce diagramme, observer, presque année après année, l'excellente corrélation qui a existé entre le flux cosmique du soleil et les données climatiques qui régnaient alors sur la Terre… Certains continuent encore à nier toutes ces évidences expérimentales en prétendant qu'il ne s'agit que de "coïncidences" fortuites …et continuent à prétendre que les fluctuations du soleil n'influent pas sur le climat. Je pense que ce seul graphique,( mais aussi tous les autres qui sont pourtant d'origines très diverses), montre à quel point, la foi exagérée dans les modèles informatiques de l'effet de serre du GIEC , peuvent conduire certains de nos contemporains jusqu'à l'aveuglement le plus total. C'est le cas des responsables du GIEC. A mon avis, ils ne pourront pas continuer encore longtemps à "oublier" l'effet des radiations cosmiques sur le climat. Les scientifiques disent "les faits sont têtus". On en peut pas se tromper très longtemps…
Pour conclure (provisoirement) cette longue litanie des effets des fluctuations de l'astre solaire sur le climat de la planète, voici le résultat d'un travail tout à fait étonnant, publié par quatre chercheurs américains White W.B., Lean J., Cayan D.R. et Dettiger M.D. en 1997 (Journal of Geophysical research 102; 3255). En bas, l'irradiance solaire ( en Watt/m2) mesurée et lissée pour la période 1955-1996.. Les quatre courbes supérieures indiquent la température des quatre principaux océans de la planète pendant la même période. Les fluctuations des températures de ces océans ont été moyennées et ceci est indiqué par les courbes continues en noir sur ce graphique. Si vous ne retrouvez pas l'image des fluctuations solaires dans les quatre courbes des températures des océans, c'est que vous avez mal regardé : La corrélation est évidente ! Il est difficile de la nier. Cela montre indubitablement que le flux issu de l'astre solaire joue un rôle essentiel pour déterminer la température des océans, même si ses variations sont extrêmement faibles, elles sont pourtant tout à fait efficaces ! Pour enfoncer le clou, s'il en était encore besoin, voici une figure extraite d'un article récent( source) de Willie W.H. Soon de l'Harvard-Smithsonian Center for Astrophysics, Cambridge Massachusetts, USA). La référence de cet article est : Geophys. Research Letters, vol 32, L16712, 2005 :
Les courbes en pointillé représentent les anomalies de la température de l'air à la surface du cercle Arctique depuis 1880 jusqu'en 2000. Sur la figure du haut, la courbe en trait noir épais représente les variations de la TSI, c'est à dire de l'irradiance solaire totale (Total Solar Irradiance) (voir la page des grands indicateurs du climat) pendant la même période. Comme je viens de vous le dire dans les paragraphes précédents, on sait que les variations de cette irradiance, bien que faibles, sont étroitement corrélées aux cycles solaires. La superposition de ces deux courbes est étonnante. Elle représente une autre vision de celle qu'avait trouvé Pekarek en 2001 et que je cite plus haut.
Pour la même période, les courbes du bas montrent la mauvaise corrélation qui existe entre le taux de CO2 ( courbe en trait épais noir) dans l'atmosphère et la même courbe de température que la précédente. Willie Soon a étudié en détail la statistique de la corrélation entre ces courbes en utilisant la méthode des ondelettes. Ses résultats ne font que confirmer ce que nous voyons : Les variations solaires se corrèlent beaucoup mieux avec les températures que le taux de CO2 dans l'atmopshère…
Est-il encore nécessaire d'insister en citant les résultats publiés récemment dans Phys. Rev. Letters (la plus prestigieuse revue des physiciens, publiée par l'American Physical Society) 101, 168501 (2008) par trois chercheurs argentins (Pablo Mauas, E. Flamenco et A. Buccino, PB et AB sont chercheurs de l'Institut d'Astronomie et de Physique Spatiale de Buenos Aires) le 17 octobre 2008 ? Cet article concerne une étude détaillée de la corrélation entre le flux ( d'eau) d'un des plus grands fleuves du monde et l'activité solaire de 1920 à 2000. Il s'agit du fleuve Parana qui se trouve dans la partie Sud-Est de l'Amérique du Sud. La courbe en traits pleins noirs représente le flux du fleuve Parana. La courbe en tiretés représente la nombre de taches solaires. La courbe en pointillés représente la courbe de la TSI (Total solar irradiance qui, comme on le sait, est assez proche de celle des taches solaires) Les unités en ordonnées sont évidemment arbitraires. Ces courbe sont été obtenues en faisant une moyenne glissante de 11 ans pour lisser les cycles solaires individuels. Le coefficient de corrélation de Pearson entre le flux du fleuve et l'activité solaire est de r=0,78 ce qui est remarquable et confirme l'excellente corrélation déjà perceptible à l'oeil. A noter que les auteurs ont aussi observé des corrélations remarquables avec les variations du champ magnétique terrestre qui est lui-même corrélé au vent solaire et donc aux effets des rayons cosmiques galactiques (GCR), dans l'esprit des travaux récents (2007) de Vincent Courtillot et al. Et en effet, la corrélation est (une fois de plus) stupéfiante… Il est important de remarquer que le signe de la corrélation (augmentation de l'activité solaire -> augmentation du flux du fleuve) est conforme à celui trouvé par trois groupes d'auteurs, pour les moussons asiatiques. Dans la revue Science du 7 Nov. 2008 ( Vol 322, N°5903, pp 940-942) est paru un article intitulé " Test de la relation Climat-Soleil-Culture à partir des données sur 1810 années provenant d'une grotte Chinoise". Il est de Pingzhong Zhang et al. Les auteurs viennent de diverses universités et centres de recherches chinois et américain. Cette étude est financée par la NSF et diverses institutions chinoises,. Les chercheurs ont analysé les isotopes contenus dans un morceau de stalagmite d'un mètre cinquante de longueur provenant d'une grotte de Wanxiang (Nord de la Chine). Cette stalagmite a enregistré au cours des années, des informations sur la mousson asiatique (AM). Les collègues de cette équipe ne cachent pas leur admiration pour cette découverte qui, selon Richard Kerr, le chroniqueur de Science (source), "fournit la preuve la plus décisive, à ce jour, pour un lien entre le climat, le soleil et la Culture " (NDLR : Il n'a pas dû lire les articles précédents mais c'est un grand pas en avant pour cette revue et pour Richard Kerr) . La technique utilisée est classique. Une proportion notable de sels d'Uranium et de Thorium ont permis une datation précise ( à 2,5 ans près !) des couches déposées. Comme a l'accoutumée pour les stalagmites, c'est l'isotope 18 de l'oxygène qui a servi analyser les quantités de pluie en fonction du temps. A ce sujet, Gerald Hau, paléoclimatologue Suisse qui ne tarit pas d'éloge dit " Je pense que c'est un des plus beaux articles que j'ai vu depuis longtemps". Il ajoute " Ils ont littéralement enregistré l'histoire de la pluie sur le Nord de la Chine depuis 1800 ans".
Voici les courbes maîtresses de l'article en question qui concerne la période allant de l'an 200 de notre ère à l'année 2000. Les trois courbes en vert (identiques) résultent des mesures exposées dans cet article. Les coïncidences avec d'autres mesures (avance-recul des glaciers et soleil) sont indiquées par les courbes superposées et de couleurs différentes. On relève : Courbe A) En rouge, L'indice des périodes de sécheresses et d'inondations plus anciennes, relevées à 150 km au nord de la grotte de Wanxiang (à LongXi). Les sécheresses pointent vers le haut. Les zones jaunes résultent d'autres mesures identiques faites à LongXi. Courbe B) Avance et recul des glaciers alpins suisses (Gorner (bleu foncé) et Grindelwald (bleu clair)) Courbe C) Irradiance solaire à partir des analyses des isotopes 10 du Béryllium et du carbone 14 (Musheler 2007)
Comme on peut le voir, ces graphiques obtenus à partir de mesures effectuées en Chine et dans les Alpes suisses, mettent en évidence aussi bien l'Optimum médiéval ( vers l'an 1000) que le petit âge glaciaire (1300-1700). Autant dire, comme on le sait déjà, que le graphique en crosse de hockey de Michael Mann est carrément démenti par ces résultats, tout comme son argument qui consistait à dire que l'optimum médiéval n'avait concerné que la zone Nord-Atlantique (ce qu'il ne pouvait démentir à cause de l'histoire bien documentée de cette région). Ceci est confirmé par la Fig 3 de l'article qui établit une comparaison entre les différentes reconstructions des températures, par modèles et dendrochronologie. La figure 3 montre que la crosse de hockey surestime grandement ( d'un facteur 2, au moins) les températures du 20ème siècle et atténue l'optimum médiéval. Il montre aussi, contrairement aux affirmations de Mann et al, que les températures actuelles n'excèdent pas celles de l'optimum médiéval. Ces graphiques montrent aussi de manière frappante, et une fois de plus, la corrélation étroite qui existe entre l'irradiance solaire (et donc les cycles solaires) avec le climat et ceci, jusqu'en l'an 2000, bien que les auteurs complètent leur article par la fameuse "petite phrase magique" (comme signalé par Lindzen et illustré par 3 exemples ici) qui déclare que cela ne marcherait que jusqu'en 1960 (parce que ça diverge des modèles informatiques (!)… et c'est assez étonnant : en général on dit 1980)… parce que l'effet du CO2 pourrait avoir pris le dessus sur le forçage solaire. Parbleu, il faut bien parvenir à se faire publier dans Sciences et ne pas se couper des crédits de la National Science Foundation qui a financé cette étude…Dans cet esprit, je me demande comment ils vont faire pour écrire une "petite phrase magique" pour justifier la période 1998-2008 où la température globale est restée stable ou a diminué alors que le taux de CO2 augmentait à grande vitesse… Tandis que l'activité solaire, elle, diminuait,… comme il se doit. (voir indicateurs); ça va être dur ! _____________________________________________________________________________________________________________________ 27 Déc. 2008 : Robert V. Baker est professeur associé à la Division de Géographie de l'Université de Nouvelle Angleterre en Australie. Il vient de L'indice quasi-périodique SOI mesure le différentiel de pression atmosphérique au niveau de la mer entre Tahiti et Darwin. Cet indice est déterminant pour les sécheresses et les fortes pluies qui affectent périodiquement l'Australie, l'Inde, l'Amérique du Sud ainsi que l'Afrique. Il concerne dont essentiellement l'hémisphère Sud de notre planète. L'analyse de Robert V. Baker est basée sur les différents cycles du soleil construits autour du cycle bien connu de Schwabe (périodicité 11 ans, environ). Baker envisage les interactions entre le champ magnétique lié aux éruptions solaires et le champ magnétique terrestre. Comme on le sait, le champ magnétique solaire résultant des éruptions solaires s'inverse lors du passage d'un cycle solaire au suivant. Ainsi, tous les 22 ans environ, le champ magnétique solaire se trouve être de même sens que le champ magnétique terrestre ou de sens opposé à celui-ci pour le cycle de schwabe suivant. Cette périodicité de 22 ans, déjà mentionnée par Alexander (voir ci-dessus) et d'autres, est connue sous le nom de cycle de Hale. Elle fait Robert Baker étudie en détail les corrélations SOI-(croissances ou décroissances des cycles), lors des différentes phases des éruptions solaires connues sous les noms alpha, beta, khappa, gamma et omega et plus spécifiquement les phases dites SPP (Sun's south pole positive) qui se reproduisent tous les 22 ans, selon les cycles de Hale. Les données SOI sont connues avec précision depuis 1876 ce qui permet une analyse fine des corrélations sur une assez longue durée. Baker étudie également l'influence des cycles de Gleissberg. Compte tenu de la complexité de cet article, il est impossible d'en donner un compte rendu détaillé ici, mais ce qu'il faut retenir c'est la règle simple énoncée par Baker pour la prévision du SOI (et donc des périodes de sécheresses ou de fortes pluies) en conclusion de cette étude extensive. Le texte anglais de Baker est assez obscur : " An underlying ‘rule of thumb’ for SOI prediction is that the greater the positive (or negative) rate of change in sunspots and associated field activity, the more likely there will be positive (or negative) SOI fluctuations (and similarly for negative changes)". Baker affirme qu'il a entrepris ces recherches dans un but prévisionnel. Cependant, il n'ignore pas les implications de ses résultats sur le débat actuel sur le réchauffement climatique. Voici ce qu'il a déclaré à ce sujet (source) : "Nous devons mettre au banc d'essai le système naturel ( c'est à dire avec le soleil) avant de chercher l'effet des additions ( par exemple avec le CO2)" déclare Baker "Comparer les données actuelles avec les celles du siècle précédent peut nous donner une idée de l'effet de l'ajout des gaz à effet de serre. Mais enfouir sa tête dans le sable en affirmant que le soleil n'a aucun effet sur le changement climatique représente un déni virtuel de la réalité historique." (caractères gras du traducteur). On en peut mieux dire ! Le 22 décembre 2008, (source) Robert Baker ajoute aussi quelques commentaires intéressants sur l'arrêt prolongé de l'activité solaire en cette fin du cycle 23 : "La période du minimum des taches solaires qui marque la fin du cycle 23, dont la fin était prévue pour octobre 2007, se poursuit. En fait, nous pourrions entrer dans une période prolongée d'activité solaire minimale comme celle qui a conduit aux "sécheresses de la Fédération" ( NDT de l'Australie) au tournant du XXème siècle, avec un abaissement à venir des températures pour une décennie. " (conformément à cette page) Note : Les lecteurs attentifs auront certainement remarqué que le graphique de Al Pekarek (ci-dessus) qui établit une corrélation entre les températures de l'hémisphère Nord et les durées des cycles solaires, montre que la température augmente quand les cycles sont de courte durée. Alexander et Baker trouvent que ces cycles intenses et de courtes durées entraînent des périodes pluvieuse, ce qui peut paraître troublant si on se souvient du modèle de Svensmark. En réalité, il est patent que les périodes de refroidissement des océans conduisent plus souvent à des sécheresses (tout comme avec l'ENSO et les Etats Unis). En effet et comme le montrent les variations du SOI, un refroidissement des océans entraîne généralement une modification des vents dominants qui affecte la pluviométrie sur les continents. Autrement dit, si la quantité de nuages générés par les rayons cosmiques change en fonction des cycles solaires, ce qui modifie la température terrestre, (d'après Svensmark), ce sont les vents dominants qui déterminent la pluviométrie. Il s'agit de deux phénomènes distincts mais interdépendants, qui se révèlent corrélés aux cycles solaires. De fait, les températures des océans (White et al), la température globale ( Labitzke, Pekarek et les nombreux auteurs cités ci-dessus) et la pluviométrie (Alexander, Baker) sont tous dépendants des cycles du soleil. Mais ils progressent : Mise à jour 25 Nov 2009 : En réalité, Lockwood et Frohlich ont utilisé les données solaires dites PMOD TSI (modifiées par eux-mêmes) défaillantes, au contraire des données ACRIM (confimées) qui s'avèrent donner un résultat satisfaisant jusqu'à nos jours. Nicola Scafetta a donné un comparatif très détaillé des données PMOD TSI versus ACRIM (et NIMBUS) devant l'EPA américain ( avec des témoignages écrits de responsables des missions qui incriminent les modification de Lockwood et Frohlich) dans lequel il montre que les données PMOD sont invalides et les données ACRIM correctes… ______________________________________________________________________________________________________________________ 19 Janvier 2009 : Champ magnétique terrestre, activité solaire et climats : D'après une étude récente, il existe un lien évident entre le champ magnétique terrestre et la pluviométrie tropicale. Dans le même esprit que les articles précédents et en ce mois de Janvier 2009, est paru dans la revue Internationale Geology sous le titre "Is there a link between Earth's magnetic field and low-latitude precipitation? ". Soit : "Existe-t-il un lien entre le champ magnétique terrestre et les précipitations aux basses latitudes") un article remarquable de deux chercheurs Danois (Mads Faurschou Knudsen and Peter Riisager) du Geological survey de Copenhague, et des Universités d'Aarhus et de l'Université d'Oxford (Référence : Geology 2009;37;71-74, doi:10.1130/G25238A.1) (article complet en pdf).( article de revue de l'AFP ici, contenant deux erreurs grossières : l'une sur l'explication de la méthodologie employée : la mémoire du champ magnétique terrestre ne provient pas des stalagmites et stalactites Chinois et en Oman. C'est la pluviométrie ! Et l'autre, assez amusante, sur les rayons cosmiques qui sont carrément rebaptisés " rayons cosmétiques" dans la dépêche de l'AFP. Les résultats de l'étude de ces deux chercheurs méritants, qui n'ont pas craint de braver les foudres du GIEC et de ses affidés, ont ainsi apporté de l'eau au moulin de la théorie de Svensmark (connue sous le nom de Cosmoclimatologie) qui, comme vous le savez si vous avez lu ce préambule, prévoit que les champs magnétiques solaire et terrestre combinés, contribuent à dévier les particules ionisées (rayons cosmiques) en provenance du cosmos et qui, normalement impacteraient la Terre et son atmosphère. Le rôle de ces GCR (Galactic Cosmic Rays) selon Svensmark et ses collègues résulterait en une variation de la couverture nuageuse (et donc de la pluviométrie et de l'ensoleillement) qui règne sur la planète selon un processus qui s'apparente à celui qui est utilisé dans les chambres à brouillard de Wilson. Ce processus est en cours d'étude au CERN de Genève comme je le raconte plus bas, avec quelques détails. Comment ont procédé nos deux chercheurs Danois ? Leur étude couvre la période allant de -150 ans à -5000 ans, avant la période actuelle. C'est à dire pendant l'Holocène.
La confrontation de ces deux courbes obtenues avec des données d'origines totalement différentes est assez remarquable comme on peut le voir sur la figure ci-contre. Les données reportées sur les figures A et B ont été obtenues avec des lissages différents. Les coefficients de corrélations r sont très bons ( 0,89 et 0,71). Les exemplaires prélevés dans les grottes de Qunf en Oman montrent aussi des corrélations identiques mais moins complètes que celles des données chinoises. Il serait étonnant que de telles corrélation soient fortuites, d'autant plus qu'elles viennent à l'appui des résultats publiés par Courtillot et al en 2007. Courtillot et ses collègues avaient trouvé une corrélation remarquable entre les données géomagnétiques et les températures terrestres sur une longue période. Comme on le sait, la publication des résultats de Courtillot et al, a donné naissance à une violente polémique portant sur l'utilisation des bases de données. De façon tout à fait inhabituelle en matière de sciences où rien n'est jamais définitivement prouvé, cette polémique a été rendue publique au moyen d'articles venimeux publiés par les grands quotidiens français Le Monde, Libération et Le Figaro. On y reprenait les termes d'une violente attaque issue du site RealClimate (le site fondé par Michael Mann, l'homme de la crosse de hockey) qualifiant Courtillot de "chevalier de la Terre plate". En 2008, Courtillot et ses collègues ont publié un article plus complet et plus détaillé montrant, de nouveau, les corrélations frappantes qui existent entre les variations solaires et les températures du globe. Tout ceci vient, bien sûr, à l'appui de la théorie de Svensmark. En effet, c'est la combinaison du champ magnétique terrestre et du champ magnétique solaire (généré pendant les périodes d'activité éruptive) qui peut dévier les rayons ionisants responsables de l'ensemencement des nuages de la planète. La fin du texte de l'AFP (qui a beaucoup forcé sur l'alarmisme au réchauffement climatique anthropogénique, ces dernières années), est amusante : " Les deux chercheurs reconnaissent que le CO2 joue un rôle important dans le changement climatique." affirme l'AFP. Je doute fortement que Riisager et Knudsen soient des supporters de la théorie anthropique, ne serait-ce que parce que leur article ne fait jamais et à aucun endroit, mention du CO2. Je l'ai relu plusieurs fois et je peux vous affirmer que ni le CO2, ni les gaz à effets de serre ne sont jamais cités dans cet article ! Il fallait bien que quelqu'un la sorte, la petite phrase magique (voir ici dans le bonnet d'âne) . Mais, dans ce cas présent, c'est l'AFP qui l'a écrite..( entre autres âneries qui lui ont valu un bonnet d'âne bien mérité)….et non pas les chercheurs. ______________________________________________________________________________________________________________________ 23 Janv.2009 : Rayons cosmiques et atmosphère : Observation directe de l'effet de la température de la stratosphère sur les rayons cosmiques. Bien que cette découverte ne prétende absolument pas confirmer la théorie de Svensmark et al (qui concerne plutôt la basse atmosphère), je ne résiste pas au plaisir de vous la faire partager car elle est très révélatrice de la manière dont fonctionne la Science. Ici, ce sont les physiciens des particules qui font progresser la climatologie et la météorologie. Alors quand on vous dit que vous n'êtes pas climatologue… Comme tous les chercheurs le savent, une étude entreprise avec un but précis, conduit très souvent à l'observation d'un phénomène inattendu qui se révèle plus intéressant que l'objectif initial. C'est pour cela que, comme la grande majorité de mes collègues, je professe les plus grands doutes sur l'intérêt de la recherche "pilotée" (par les projets gouvernementaux, entre autres). Ce qui est réellement important pour la science n'est, en général, jamais prévu à l'avance… La découverte importante que je vais vous décrire ici en quelques mots est un exemple frappant de découverte inattendue effectuée au sein d'une démarche totalement différente. Cela porte un nom : La sérendipité (mot tiré d'une légende du royaume de Serendip en Indes). Ceci est enseigné aux étudiants américains.. mais pas aux français, sans doute trop cartésiens. Dommage ! C'est pourtant comme cela qu'ont été découverts le tirage des fibres, la rayonne (un assistant de Pasteur), la pénicilline, le nylon et des milliers d'autres choses.. Cette découverte remarquable résulte d'une collaboration fructueuse (notamment dans le projet MINOS, avec les américains) entre le National Centre for Atmospheric Sciences et le Science and Technology Facilities Council, tous deux du Royaume-Uni.. L'article de presse du NCAS est ici. L'article est publié au Geophys. Res. Lett., doi:10.1029/2008GL036359, sa version pdf est ici (en ligne, mais payant). Ci-contre, à droite, une vue du puits de l'expérience MINOS. Les auteurs ont analysé un enregistrement de 4 années de données sur les rayons cosmiques enregistrés au fond d'une mine désaffectée dans l'Etat du Minesota (USA). Ils ont observé une corrélation quasi-parfaite entre les rayons cosmiques détectés et la température stratosphérique, ce qui est compréhensible de la manière suivante : Les rayons cosmiques aussi appelés muons résultent de la dégradation spontanée d'autres rayonnements cosmiques, connus sous le nom de mesons. L'augmentation de la température de l'atmosphère résulte en une dilatation de celle-ci de telle manière que moins de mesons sont détruit par impact sur des molécules d'air (O2, N2 etc…), ce qui laisse un plus grand nombre de ces derniers qui ont échappé aux impacts, subir la dégradation naturelle en muons. Ainsi, si la température de l'atmosphère augmente, on s'attend à observer plus de muons. C'est bien ce que l'on voit. Mais ce qui a surpris les chercheurs c'est la brusque et intermittente augmentation du nombre de muons observés pendant les mois d'hiver.Ils ont vérifié que ces bouffées de muons, plus ou moins localisées, correspondent à des augmentations brutales de température de la stratosphère de quelques 40°C. Ce qui est connu (pour l'hémisphère Nord) mais difficile à observer par ballons et satellites, sous le nom de "Réchauffements Stratosphérique Soudains". Ces événements se produisent à peu près tous les ans et sont réputés imprévisibles. Le mieux est d'écouter ce qu'ont à nous dire les auteurs de cette découverte. S'agissant d'un communiqué de presse du NSAS, on peut penser, sans risque, que l'on ne souffrira pas de distorsions de déclarations comme celles qui affectent assez systématiquement les communiqués des agences de presse (l'AFP comme Reuters). le DR. Giles Barr ( Univ. Oxford) : "C'est marrant de se retrouver (NDT : au fond d'un puits de mine désaffectée) à 800 m de profondeur en train de faire de la physique des particules. C'est encore mieux de savoir que de là, on est capable de suivre ce qu'il se passe dans une partie de l'atmosphère et qu'il est très difficile de mesurer autrement". Le responsable de l'équipe, le Dr Scott Osprey dit : "Jusqu'à maintenant nous avons dépendu des mesures satellites et des ballons pour nous donner des informations sur ces événements météorologiques importants. Maintenant, nous avons la possibilité d'utiliser les enregistrements sur les rayons cosmiques datant de 50 ans pour avoir une idée assez précise de ce qui s'est produit en matière de température de la stratosphère en fonction du temps…." Le Professeur Jenny Thomas, porte-parole de la mission MINOS du University College of London déclare que " Le problème que nous envisagions d'étudier avec la mission MINOS concernait les propriétés de particules fondamentales que sont les neutrinos qui est un ingrédient crucial de notre modèle de l'Univers; mais ainsi que c'est souvent le cas, en gardant un esprit ouvert vis à vis des données collectées, l'équipe de recherche a été en mesure de révéler une découverte inattendue qui va aider notre compréhension des phénomènes
Je vous propose de visionner ce petit film réalisé par cette équipe anglaise à partir de cette nouvelle technique. Pour la voir, cliquez sur l'image. (source) On y observe très bien l'évolution des températures de la stratosphère, avec de brusques bouffées de chaleur (zones rouges sur le film) et des refroidissements fluctuants. La première partie du film est prise au pôle Sud. On distingue très bien l'antarctique et le trou de l'ozone au dessus, ainsi que son évolution. La fin du film montre quelques images prises au dessus du pôle Nord.
Que peut-on en penser ? -Tout d'abord que la science climatique et (ou) météorologique fait des progrès considérables, souvent par des voies détournées et imprévues. Vous noterez que les avancées, ici rapportés, ne sont pas dus à des climatologues ou à des modèles informatiques mais à des physiciens des particules. Alors quand les modèles du GIEC disent avoir tout compris … on a quelques doutes… 1er Mars 2009 : A 37 ans, l'astrophysicien Nir Shaviv (son site prof. et son remarquable site personnel Sciencebits), actuellement professeur au prestigieux Racah Institute de Jerusalem est sans aucun doute un des plus brillants physiciens de sa génération. Son nom, Tout récemment (le 4 Nov. 2008), Nir Shaviv a publié un article dans la revue (révisée par les pairs) Journal of Geophysical Research Vol. 113, A11101, doi: 10.1029/2007JA012989, 2008, intitulé " Using the oceans as a calorimeter to quantify the solar radiative forcing". Soit :" L'utilisation des océans comme calorimètre pour mesurer le forçage radiatif du soleil" Si vous avez lu attentivement cette page, vous savez déjà que le GIEC de l'ONU et ses affidés négligent systématiquement, dans leurs calculs, la prise en compte des variations de l'irradiance solaire (qui est le flux lumineux émis par ce dernier), pour la simple raison que ces variations sont très faibles. Et de fait, l'irradiance solaire appelée aussi 'la constante solaire" dont la valeur est d'environ 1366 W/m2 (TSI en anglais, Total Solar Irradiance) ne fluctue que de moins de 1 W/m2 ce qui correspond à une variation très faible de l'ordre de 0,17W/m2 sur les 240 W/m2 qui sont absorbés par notre planète. "Une paille" disent-ils par rapport au forçage terrestre d'environ 1 W/m2 dû à l'effet direct du CO2 anthropique (et plus avec les rétroactions supposées). Cet argument constitue l'essentiel de la défense des tenants du réchauffement anthropique dû au CO2, face aux solaristes comme Nir Shaviv et beaucoup d'autres, tels que ceux qui sont cités dans son article ou dans cette chronique. Le contre-argument des solaristes s'appuie sur un raisonnement à double détente :
Pour bien comprendre l'intérêt et la nouveauté de cet article du Professeur Shaviv, il est fondamental de se souvenir que les éruptions solaires qui se répètent, entre autres, avec une périodicité de 11 ans environ (cycles de Schwabe) sont parfaitement synchrones et en parfaite corrélation avec les petites variations de l'irradiance solaire (de 1 W/m2 cités plus haut). Autrement dit, l'activité éruptive solaire est la cause des petites variations de l'irradiance solaire. Nul ne le conteste. Mesurer les variations de la TSI, c'est mesurer l'activité solaire et vice-versa. Puisque les tenants du réchauffement anthropique contestent le mécanisme (dont le détail est encore non prouvé – c'est à cela que sert le projet CLOUD du CERN de Genève décrit ci-dessous) proposé par Svensmark et ses collègues, Nir Shaviv a astucieusement abordé le problème sous un angle différent. On peut expliquer son raisonnement de la façon suivante : " Puisque, selon le GIEC, les variations d'irradiance solaires (TSI) provoquées par les éruptions solaires sont trop petites pour intervenir efficacement dans les bilans du forçage radiatif et que nous en voyons pourtant de très nombreuses manifestations, il doit exister, quelque part un mécanisme d'amplification, qui fait que les variations de TSI (et donc les éruptions solaires) sont plus efficaces que ne le pensent les affidés du GIEC. Cette amplification (ou ce chaînon manquant tel que, par exemple, l'hypothèse de Svensmark) doit être directement perceptible dans la multitude des données dont nous disposons maintenant et notamment sur les fluctuations du bilan thermique des océans qui représentent 70% de la surface de la planète. " D'où l'idée d'utiliser un calorimètre (comme l'indique le titre de l'article) qui est, comme chacun sait, un instrument qui permet de faire le bilan thermique de ce qui est reçu et de ce qui est perdu (ou renvoyé). Et quel meilleur calorimètre avons nous à notre disposition que la masse d'eau contenue dans les océans ? Nir Shaviv a donc choisi d'examiner quantitativement les variations de trois observables océaniques :
en fonction des variations de l'irradiance totale du soleil (TSI). A noter que ces quatre observables font l'objet de mesures indépendantes, même si elles sont, à l'évidence, reliées par la physique. La considération de l'OHC est évidemment primordiale mais l'étude complémentaire du SLR et de la SST permettent d'améliorer le rapport signal/bruit de l'analyse et de mettre en évidence la cohérence de l'ensemble. Le graphe ci-contre vous montre qu'à l'évidence, la TSI, l'OHC et le SLR sont bien corrélées sur les cinq dernières décennies (1950-2000). La corrélation de la SST est moins évidente. Un calcul de coefficient de Pearson permet de l'évaluer.. Dans le graphe supérieur, la courbe en traits gras représente l'activité solaire mesurée par les détecteurs de neutrons (courbe inversée sur le graphique). Celle en trait fin représente les variation de la TSI (échelle de droite). Le deuxième graphe à partir du haut représente le flux de chaleur océanique F. En trait fin, celui de la totalité des océans. Celui en trait gras, le flux de l'Océan Atlantique Nord, seul. Les deux graphes suivants représentent les variations du SLR et de la SST.
La question posée est donc celle-ci : Les variations de l'irradiance solaire permettent-elles d'expliquer quantitativement les variations du contenu thermique des océans (OHC) ainsi que les variations de la hausse du niveau des mers (SLR) ou encore les variations de la température de surface des océans (SST)? Nir Shaviv utilise un certain nombre d'équations qu'il m'est impossible d'expliquer en détail dans ce billet. Les lecteurs intéressés et experts pourront se référer à l'article initial (dans le JGR, malheureusement accessible seulement par abonnement). L'analyse montre que la réponse à la question posée est NON : Les variations des observables tels que l'OHC, le SLR et la SST, sont plus grandes, de près d'un ordre de grandeur (selon les hypothèses de départ), que celles qui seraient produites par la faible variation de l'irradiance du soleil. Nir Shaviv résume les résultats de son analyse par le tableau ci-contre. L'échelle des ordonnées représente un facteur caractéristique utilisé par Shaviv qui est le quotient du Forçage (F) radiatif global divisé par la variation de TSI. Le trait rouge horizontal représente la valeur de ce coefficient si les variations des différents forçages correspondaient exactement à ce que l'on peut calculer d'après les variations de TSI. Autrement dit, le trait horizontal rouge représente ce qui est attendu par le GIEC. Le tableau indique ensuite les écarts entre les valeurs réellement observées et le trait rouge (valeurs attendues s'il n'y avait pas d'amplification), successivement pour l'OHC ( le contenu thermique des océans, la température de surface (SST), le niveau des mers (SLR = Tide gauge). Sur la partie droite du tableau, séparées par une ligne pointillée verticale, on voit "l'expectation", c'est à dire ce que l'on attend dans le cas où on inclue l'effet des nuages de basse altitude (observés) (Low Clouds + TSI) conformément à l'hypothèse de Svensmark. . Bien entendu, la mesure de la TSI tombe sur la ligne rouge, comme cela est indiqué par un rond rouge que j'ai tracé autour de ce point pour le rendre plus visible que sur le graphique original. Les mesures calorimétriques indiquées en trait plein avec leurs barres d'erreurs sont calculées en supposant que le forçage radiatif global est le même sur les océans et sur les parties émergées. Celles en pointillé sont calculées en supposant que le forçage radiatif concerne seulement les océans. Nir Shaviv déclare qu' "En résumé nous trouvons que le flux total qui pénètre dans les océans est environ d'un ordre de grandeur plus grand que celui indiqué par la moyenne globale de l'irradiance de 0,17W/m2. La donnée brute du flux mesuré, ainsi que le fait qu'il n'existe aucun retard entre ce flux et la cause des variations, montrent que ces observations ne peuvent résulter d'une rétroaction atmosphérique de même qu'il est très improbable que cela puisse provenir d'un mode d'oscillation couplé atmosphère-océan. Ainsi, ces résultats doivent-ils obligatoirement être la manifestation de variations réelles du forçage radiatif global". Comme je l'ai précisé plus haut, on sait que les fluctuations de l'irradiance solaire sont parfaitement synchrones et d'amplitude proportionnelle à celles du taux de rayons cosmiques impactant notre planète. Les effets de l'un ou de l'autre ne peuvent donc pas être distingués par une telle étude. C'est ce que reconnaît Nir Shaviv qui précise qu'"étant donné que le lien (Climat/Rayons cosmiques) prédit correctement le déséquilibre radiatif (NDLR, voir la partie droite du tableau "low clouds+TSI") observé dans le cas des nuages de basse altitude, celui-ci est le candidat le plus plausible" En résumé : Nir Shaviv montre qu'il existe nécessairement un mécanisme qui amplifie notablement les effets du soleil sur notre planète, ce qui est conforme au très grand nombres d'observations qui ont été effectués et dont certaines ont été rapportées dans cette chronique. La théorie de Svensmark est un exemple et un bon candidat pour expliquer ce mécanisme d'amplification. Inutile d'ajouter que les conclusions de cet article portent un rude coup aux tenants du réchauffement climatique anthropique version GIEC, puisqu'il met le doigt sur les très importants effets du soleil qui ont été superbement négligés jusqu'à maintenant, au profit du forçage radiatif du CO2 anthropique. D'ailleurs Shaviv a dû batailler pendant près de 11 mois pour que cet article voit enfin le jour. C'est un signe qui ne trompe pas… ********************************************************************************************************************** Alors que conclure de cette longue suite d'articles ? Eh bien, comme l'on fait de nombreux chercheurs et notamment ceux qui sont impliqués dans les projets CLOUD ou ISAC qu'il existe probablement un mécanisme qui amplifie l'effet des faibles fluctuations solaires pour leur conférer des conséquences cruciales que l'on n'aurait pas attendu de la part de fluctuations aussi faibles. C'est très exactement ce que prévoient les théories de Svensmark, Nir Shaviv et les autres, en nous expliquant que les éruptions solaires (les fluctuations de l'irradiance solaire n'en sont qu'une conséquence), tout comme les variations du champ géomagnétique, jouent un rôle déterminant en déviant les particules ionisantes qui impactent la Terre et l'atmosphère et en modifiant la couverture nuageuse. A noter que cette théorie permet aussi d'expliquer facilement le fait que le pôle sud se refroidit quand le pôle nord se réchauffe (comme en ce moment) et vice versa, c'est à dire l'effet de bascule polaire. Allez voir ici. Inutile de vous rappeler, une fois de plus, que les experts du GIEC et les rapports subséquents ne s'intéressent qu'à l'irradiance solaire dont ils trouvent les variations trop petites, en oubliant (?) ce qui provoque ces fluctuations et en prétendant que toutes ces observations faites dans de multiples situations des deux hémisphères et sur des paramètres très divers, ne seraient que pures coïncidences ! ________________________________________________________________________________________________________________________ Ceci étant dit, je crois qu'il est utile de faire une petite chronologie pour remettre en perspective les progrès dans ce domaine qui en connaîtra probablement d'autres dans les années à venir : CHRONOLOGIE (rayons cosmiques et climat de la Terre) : 1801 : Sir William Herschel, grand physicien anglais, observe que le cours du blé (et donc l'abondance du blé), varie en fonction du nombre 1875 et 1878 : William Stanley Jevons, un économiste statisticien anglais publie deux articles dans Nature (Jevons, William Stanley (14 November 1878). "Commercial crises and sun-spots", Nature, xix, pp. 33–37) sur ses observations que le cycle des éruptions solaires (entre 10,5 ans et 11 ans) se retrouve dans l'analyse des crises économiques engendrées, selon lui, par les variations du prix des céréales, elles-mêmes engendrées par les variations du climat provoquées par les éruptions solaires. Son travail, très critiqué lui aussi, tombe dans l'oubli.
1933 : A.E. Douglass, le fondateur de la dendrochronologie (analyse des cercles anneaux de croissance des arbres), étudie, en particulier les séquoias géants. Il découvre des corrélations remarquables entre les épaisseurs des anneaux de croissance des arbres et les cycles des éruptions solaires, tous les onze ans Il en déduit, tout simplement, que les éruptions solaires affectent notablement le climat de la Terre.
1974 : Pendant la période "froide" quatre chercheurs J. W. King, E. Hurst, A. J. Slater et B. Tamkin suggèrent dans Nature (252, 2-3 01 Nov 1974) que l'agriculture déficiente de cette époque serait liée au minimum de taches solaires concomitant. Ils notent aussi que des modulations de 10 à 50% des revenus de l'agriculture de la Chine, l'Union Soviétique et des Etats-Unis semblent corrélés avec les cycles solaires de 11 et 22 ans. Voilà qui nous rappelle les observations de ce cher William Herschel en 1801 ! 1976 : Dans un volumineux article publié dans la revue Science, (vol 192, page 1189), John A. Eddy, astronome de Boulder (Colorado US), démontre que le règne très froid de Louis XIV correspond à une faiblesse unique et très marquée des éruptions solaire (minimum dit de Maunder) pendant une cinquantaine d'années. 1986-1993 : Elizabeth Nesme-Ribes était (elle est décédée en 1996) Directrice de Recherche au CNRS et Astronome à l'Institut d'Astrophysique de Paris. Elle a consacré l'essentiel de son activité à l'étude du soleil et notamment à l'influence des éruptions solaires sur le climat, en particulier pendant le minimum de Maunders. Entre autres publications importantes (un exemple) elle a laissé un livre passionnant "Histoire solaire et climatique" ( ici) écrit avec Gérard Thuillier, sur ces questions. Elle a largement contribué à susciter l'intérêt croissant apporté à l'étude du soleil, à ses variations et à ses conséquences.
1994 : Des astronomes américains, John Butler et ses collègues sont parvenus à démontrer une corrélation nette entre les cycles solaires et les températures terrestres durant les deux derniers siècles, c'est à dire depuis 1795. Ils ont utilisés des relevés de températures très anciens trouvés dans la littérature astronomique (Science News, 23 avril 94). 1997 : Henri Svensmark et Eigil Friis-Christensen montrent qu'il existe une remarquable corrélation entre rayons cosmiques et couverture nuageuse de la Terre à partir de mesures satellitaires. Ils avancent une théorie pour expliquer ces faits. 1997 : Quatre chercheurs américains, White et ses collaborateurs, publient (dans le Journal of Geophysical Research) une série de courbes montrant la modulation (de 1955 à 1997) des températures des différents océans de la planète par les faibles variations de l'irradiance solaire. La concordance est évidente. Cela ne peut s'expliquer que par un "facteur d'amplification" tel que, par exemple, celui évoqué par Svensmark qui implique l'influence des éruptions solaires. Graphe de White et al. ici. 2001 et suivantes : Tim Patterson, un professeur paléo-géologue canadien qui extrait, avec son équipe, des sédiments très anciens des boues des fjords profonds de l'Est du Canada, remarque une frappante corrélation entre les variations du climat sur de très longues périodes avec les différents cycles d'éruptions solaires dont le cycle de Schwabe de onze ans. Après avoir longtemps cru à l'influence du CO2, il est devenu "sceptique du CO2 " et pense que l'influence des taches solaires est primordiale. Description ici. 2001 : Cinq chercheurs allemands et suisses, Neff et ses collaborateurs, analysent les concentrations de C14 et de O18 dans des stalagmites trouvés dans une grotte d'Oman. (source Nature) Ils trouvent une très bonne corrélation, s'étendant sur plus de 3500 ans avant notre époque, entre l'occurence et l'amplitude des moussons de cette région et les taux de radiations cosmiques. 2002 : Michael Stolz, Michael Ram et John Doranummo de l'Université de Buffalo (USA) ont étudié les relevés climatiques sur 100.000 ans obtenus à partir des carottages glaciaires (15 mai 2002, Geophysical Research Letters). Ils retrouvent systématiquement le fameux cycle de onze ans des éruptions solaires mais ils notent que les périodes d'intenses éruptions volcaniques provoquent un renversement temporaire des effets sur le climat ce qui a probablement induit en erreur de nombreuses recherches précédentes. Leurs conclusions rejoignent celles de Svensmark et al. sur l'effet des radiations cosmiques. 2003-2004 : Deux chercheurs Israéliens, Lev A. Pustilnik et Gregory Yom Din, opérant avec des moyens modernes, confirment et étendent les observations de W. Herschel et de S. Jevons. 2003 : Jan Veizer et Nir Shaviv utilisent une cinquantaine de météorites tombée sur la Terre pour reconstruire les flux cosmiques sur 520 millions d'années (!) Ils démontrent une corrélation nette avec les températures des surfaces de l'océan, pendant cette période, mesurées en analysant la proportion d'un isotope de l'oxygène (O18) dans des fossiles marins. 2004 : Deux chercheurs russes (0.G. Gladysheva et G.A. Kovaltsov du Ioffe Institut), un chercheur danois (N. Marsh) et deux chercheurs finlandais (K. Mursula et I.G. Usoskin) effectuent une étude détaillée de la couverture nuageuse en fonction de l'intensité des rayons cosmiques selon la latitude. Ils montrent clairement que la couverture nuageuse obéit au cycle de 11 ans des éruptions solaires et confirment l'hypothèse de Svensmark que les radiations cosmiques fabriquent des nuages par ionisation. Publication accessible ici . 2004 : Trois chercheurs chinois (J. Zhao, Y-B Han et Z-A Li) démontre une corrélation évidente entre l'activité éruptive solaire (nombre de taches solaires) et le volume des pluies dans la région de Pékin entre 1870 et 2002. Publication accessible ici. 2004 : L'European Space Agency (ESA) lance un programme appelé ISAC (Influence of Solar Activity Cycles on Earth's Climate), regroupant des chercheurs Danois, Suédois et Anglais (Imperial College), destiné à mettre en évidence les effets de l'activité solaire sur le climat. Vous trouverez ici une présentation faite en Nov. 2005 lors de la "Second European Space Weather Week". Rapport final en 2007 ici. 2005 : Deux chercheurs japonais, Kasaba et Tokashima, démontrent que les variations de températures de la planète depuis au moins un millénaire sont directement corrélées à l'intensité des rayons cosmiques. Juin 2006 : Regis Harrison et David Stephenson (Reading UK) démontrent une corrélation probante entre les flux ionisants (rayons cosmiques) et l'ennuagement au dessus de l'angleterre entre 1950 et 2004. 2006 : Trois chercheurs américains du célèbre institut CALTECH et de la NASA (JPL) ( Alexander Ruzmaikin, Joan Feynman et Yuk Yung) observent une corrélation nette entre les niveaux du Nil ( de l'année 622 à 1470) et les éruptions solaires. Ils expliquent que la pluviométrie qui alimente les eaux du Nil doit être liée aux taches solaires conformément à la théorie de H. Svensmark. A mettre en relation avec l'article de Juin 2007 des cinq chercheurs Sud Africains sur le niveau du lac Victoria. Septembre 2006 : K. M. Hiremath, chercheur Indien du Indian Institute of Astrophysics démontre une corrélation nette entre les cycles des éruptions solaires et l'intensité des pluies en Inde (étude sur 130 ans). Il observe, comme les autres chercheurs, qu'aux minima d'activité du soleil ( soit des minima d'intensité des rayons cosmiques) correspondent des pluies plus intenses. Article ici. Octobre 2006 : Henri Svensmark et ses collaborateurs réalisent une chambre d'expérience ( projet SKY) qui met en évidence l'étonnante efficacité des rayons cosmiques pour produire des noyaux de condensation de la vapeur d'eau en nuages, dans l'atmosphère. Juin 2007 : Cinq chercheurs Sud Africains ( Alexander, Bailey, Brendekamp, Van der Merwe et Willense) démontrent la corrélation absolument frappante qui existe en l'intensité des pluies en Afrique du Sud, le niveau du lac Victoria et l'activité éruptive solaire (Article ici) 2007 : Cinq chercheurs brésiliens, Rigozo, N.R., Nordemann, D.J.R., Silva, H.E., Souza Echer, M.P. and Echer, E. retrouvent très nettement les cycles des taches solaires de 11 ans dans les cernes de croissance d'arbres chiliens couvrant la période 1587 à 1994. Planetary and Space Science 55: 158-164. Ils avaient rapportés des résultats analogues en 2006 ( Trend Appl. Sci. Res. 1: 73-78.) Ils recoupent ainsi les découvertes du pionnier en la matière A.E. Douglass qui avait trouvé la même chose dans les séquoias en… 1933. Janvier 2007 : Vincent Courtillot (directeur de l'Institut de Physique du globe de Paris et trois collègues découvrent une corrélation nette entre la température du globe et les variations de champ magnétique terrestre (dont on sait quelles résultent des éruptions solaires, via le vent solaire) (Earth and Planetary Science Letters, 253, (2007), 328-339). Cet article ( notamment la base de donnée utilisée) est violemment critiqué par les tenants du GIEC (RealClimate etc., jusqu'aux journaux français comme le Monde et Libération). Courtillot y est accusé de malhonnêteté… Pourtant l'article de Knudsen et al va dans le même sens. Août 2007 : Des chercheurs de cinq institutions britanniques et américaines, placés sous la direction du paléoclimatologue Curt Stager ont observé une nette corrélation entre les cycles des éruptions solaires de 11 ans et les pluies intenses qui sont tombées sur l'Afrique de l'Est durant le XXème siècle. Ils ne parlent pas du réchauffement climatique mais pensent que cela devrait servir à prévenir les maladies véhiculées par les insectes (fréquentes en période humide). Cette découverte rejoint tout à fait les observations en Afrique du Sud de l'article précédent (Alexander). Article paru dans le Journal of Geophysical Research du 7 août. Analyse ici, source NSF. 3 novembre 2007 : Deux chercheurs américains, N. Scaffetta et B. J. West font paraître un article dans le Journal of Geophysical Research ( vol 112, D24S03, DOI : 10.1029/2007JD008437, 2007) qui analye l'influence de la signature solaire dans les enregistrements de température depuis 1600. Ils trouvent qu'au moins 50% du réchauffement constaté depuis 1900 est attribuable au variations du soleil. 25 décembre 2007 : Deux chercheurs Indiens, Subarna Bhattacharyya et Roddam Narasimha font paraître un article dans le Journal of Geophysical Research, vol. 112, D24103, doi:10.1029/2006JD008353, 2007 (résumé ici) , dans lequel ils expliquent avoir trouvé une corrélation très nette entre l'activité solaire et l'intensité des pluies de mousson. C'est un grand progrès quand on sait que, jusqu'à présent, les modélisations numériques ne connaissaient que des échecs répétés. Février 2008 : Deux chercheurs finlandais (Ilya G. Usoskin et Gennady A. Kovaltsov) confirment, à partir d'une étude exhaustive qu'il existe bien un lien possible entre les rayons cosmiques et le climat de la Terre. Ils font le point sur les modes d'action possibles. Cet article paraîtra dans les comptes rendus de Geoscience en 2008. Un tiré à part est accessible ici. Mars 2008 : Les deux chercheurs américains N. Scaffetta et B. J. West, cités ci-dessus ( 3 Nov 2007) ont repris leur travail pour évaluer l'influence des cycles solaires sur le climat. Cette fois-ci, en raffinant encore, ils trouvent que la part du soleil est d'au moins 69% dans le réchauffement total. (Repris dans Physics today mars 2008). Octobre 2008 : Trois chercheurs Argentins (Pablo Mauas, Eduardo Flamenco et Andrea Buccino) on étudié les variations du flux du Parana (un des plus grands fleuves du monde) pendant le XXème siècle. Ils trouvent une forte corrélation multidécennale avec l'activité solaire, une intense activité solaire donnant des flux plus importants et ceci avec un coefficient de corrélation de 0,78 valable à 99%. (Phys. Rev. Letters, 17 oct. 2008, DOI 101, 168501 (2008), " solar forcing of the stream flow of a continental south american river"). Cet article est à rapprocher de celui des deux cherchers Indiens ci-dessus ( décembre 2007 – les moussons dépendent de l'activité solaire) ou encore de ceux d'Alexander et al pour l'Afrique du sud (juin 2007). Nov. 2008 : Un groupe chercheurs chinois et américains étudient une stalagmite prélevée dans une grotte du le nord de la Chine. Ils trouvent une corrélation remarquable entre l'insolation, les moussons aisatiques et.. les changements d'ère chinoises sur 1800 ans. (Sciences, 17 nov. 2008, Zhang et al vol 322, N° 5903, pp 940-942). A rapprocher des précédentes études sur les corrélations entre le soleil avec les pluies et les fleuves effectuées au Mexique, en Inde, en Afrique du Sud et en Afrique de l'Est. Nov 2008 : Le Prof. Nir Shaviv du Racah Institute publie un article montrant que les fluctuations du contenu thermique des océans, du niveau des mers et de la température de surface de océans sont d'un ordre de grandeur plus grandes que celles qui seraient attribuées aux simples variations de l'irradiance solaire. Il en déduit qu'il existe certainement un mécanisme d'amplification tel que, par exemple, celui proposé par le Professeur Svensmark et al. (Ref : JGR vol 113, A11101, doi: 10.1029/2007JA012989,2008) Déc. 2008 : Dans le même esprit que l'article de Zhang et al de Nov. 2008, ci-dessus, , un chercheur Australien, Robert Baker, analyse en détail les corrélations frappantes qui existent entre les cycles solaires de Hale et Gleissberg et le SOI (Southern Oscillation Index) qui détermine la pluviométrie en Australie du Sud-Est. (Geographial Research Déc. 2008, 46(4), 380-398) Jan. 2009 : Deux chercheurs Danois, Knudsen et Riisager, (Oxford, Aarhus, Copenhague et Geological Survey of Denmark and Greenland) trouvent une remarquable corrélation entre les variations du champ magnétique terrestre et la pluviométrie des régions tropicales. Ces découvertes viennent à l'appui de la théorie de Svensmark et des observations de Courtillot et al. (cité plus haut). Sept. 2009 : Trois chercheurs (Sigrid Dengel, Dominik Aeby et John Grace) de l'Institut des Géosciences d'Endinburgh (UK) ont trouvé une "Relation entre les rayons cosmiques galactiques et les cernes des arbres". ' 'New Phytologist Vol 184, 3, Page 545-55. Ceci corrobore les découvertes de A.E. Douglass ci-dessus. (analyse ci-dessous) Pour un vieux routier de la science comme moi et pour beaucoup d'autres, la chronologie précédente rappelle de nombreux autres processus qui ont conduit à des découvertes importantes dans le passé : Une simple observation effectuée par un chercheur clairvoyant dort dans les tiroirs pendant des dizaines d'années. Elle est reprise par un autre, tout aussi clairvoyant mais qui, le plus souvent, ignorait la première. Tout cela reste encore en sommeil, jusqu'à ce que d'autres chercheurs remettent la question sur la sellette, dans les temps modernes, poussés par l'actualité. Dès lors le processus s'accélère nettement et les progrès dans la connaissance avancent à pas de géants, grâce aux méthodes modernes, jusqu'à ce que le problème soit élucidé. Car s'il y a un mérite à trouver dans le "réchauffement climatique" et surtout médiatique actuel, c'est bien celui d'avoir suscité de nombreux travaux pour améliorer notre compréhension du climat de la planète. Souhaitons que les résultats soient bien utilisés et non détournés, ce dont (hélas !) l'homme s'est fait une spécialité dans le passé ! 2007-2010 : A venir : Résultats des expériences menées au CERN de Genève pour étudier en détail les processus de création de nuages par les rayons cosmiques (projet CLOUD): Premiers résultats prévus pour l'été 2009. Résultats complets en 2010. Voici la liste des institutions participant à cette expérience internationale :
.(Vous trouverez des détails récents (financement, schéma d'expérience, soutiens etc. sur ce projet ici.) Mise à jour 9 Juin 2009 : En ce début Juin 2009, la cellule de 3m de diamètre destinée à l'expérience CLOUD est enfin arrivée au CERN de Genève. Comme vous pourrez le constater en visionnant ce petit film, il ne s'agit pas d'une petite expérience de "coin de table" comme disent les physiciens mais d'un projet très consistant. Les deux collaborateurs à droite de l'image donnent l'échelle de cette chambre d'expérience.
Un peu à l'image de l'expérience SKY, à plus petite échelle, réalisée par l'équipe de Svensmark, cette chambre sera remplie d'une atmosphère contrôlée avec le plus grand soin qui sera irradiée avec des rayonnements (cette fois-ci, produits au CERN) proches de ceux qui résultent du rayonnement cosmique (plus ou moins déviés par l'héliosphère et le champ magnétique terrestre) conformément à ce qui est expliqué ci-dessus. Comme vous le savez, le but de cette expérience consiste à mettre en évidence et à quantifier les processus qui pourraient présider à la génération des nuages de basse altitude sous l'action des rayons cosmiques. Quand on sait que la couverture nuageuse de basse altitude réfléchit quelques 30W/m 2 soit environ 25 fois plus que le forçage direct du CO2 , on réalise que le moindre changement naturel de cette couverture nuageuse peut avoir des conséquences cruciales sur le climat de la planète. C'est ce qui va être étudié dans le courant de cette année 2009 et en 2010, grâce à cet appareillage. Vous pourrez voir ici une vidéo d'une présentation du projet par le responsable de cette opération au CERN, Jasper Kirkby. Voici le poster de la présentation de Kirkby (le 04/06/09) que je vous invite à lire si vous voulez en savoir un peu plus sur cette expérience passionnante dont nous sommes nombreux à attendre les résultats… ____________________________________________________________________________________________________________________ A peine 6 mois après avoir reçu la "casserole" comme on appelle l'énorme chambre d'expérience que j'ai décrite ci-dessus, il semble que la majeure partie de l'instrumentation ait été installée et que les premiers essais ont lieu en ce moment même. Voici ce que nous dit le bulletin (en français) du CERN à ce sujet : "À l’heure où les expériences LHC procèdent aux derniers réglages dans l’attente des prestigieux faisceaux, l’expérience CLOUD vient de terminer sa phase d’assemblage et commence l’acquisition de données grâce à un faisceau de protons issu d’un accélérateur vieux de 50 ans, le Synchrotron à protons (PS)." Lire la suite ici. Le CERN nous donne aussi quelques photos intéressantes. En voici deux :
Ci-dessus, à droite, la chambre d'expérience CLOUD installée dans le Hall Est du PS (Synchrotron à protons).
Jasper Kirkby, Directeur du projet, dans la chambre d'expérience de CLOUD. Pour ceux qui n'auraient pas lu les explications précédentes sur le projet CLOUD du CERN, je rappelle que cette expérience est basée sur un principe proche de celui de la chambre à bulles de Wilson.Dans la chambre à bulles classique, on détecte les trajectoires des particules ionisantes venant du cosmos en les faisant passer dans une chambre contenant de la vapeur d'eau sursaturée. Les trajectoires des particules, plus ou moins incurvées à l'aide de champ magnétiques ce qui permet de calculer leur vitesse, sont visualisées grâce aux gouttelettes d'eau qui se forment le long de trajectoires. L'expérience CLOUD repose exactement sur le même principe sauf que, cette fois-ci, la vapeur d'eau n'est pas sursaturée. C'est tout simplement celle qui est contenue dans l'atmosphère. Il est remarquable que C.T.R. Wilson qui a reçu le prix Nobel en 1927 pour l'invention de la "chambre à bulles" ait pensé, dans les années 1900-1920, que les rayons cosmiques pouvaient produire des effets analogues dans l'atmosphère et ainsi induire la formation des nuages, comme je l'ai raconté plus haut. C'est l'objectif de l'expérience CLOUD. Si les particules ionisantes sont capables de produire des noyaux de condensation propres à fabriquer des nuages, un lien direct entre les éruptions solaires et la température terrestre aura été trouvé. Il restera, bien entendu, à mettre tout cela en équation, puis vérifier etc…. Nous attendons les premiers résultats avec impatience mais l'expérience pourrait s'étendre sur plusieurs années : Keep your fingers crossed and wait and see !
Mise à jour 2007 : Si vous lisez l'anglais et que vous avez une bonne formation scientifique, vous pourrez trouver à cette adresse un document d'archive (malheureusement sans les images) qui était un cours pour les étudiants du département des sciences de l'environnement de l'Université de Leeds, UK, remarquablement honnête, avec encore plus de détails techniques, sur tout ce qui concerne le débat actuel sur le réchauffement climatique. Vous trouverez ici une troisième analyse (en anglais) récente et assez complète sur les effets des cycles solaires sur les températures terrestres. _ Les "tenants de l'effet de serre" contre les "solaristes" : En Juin 2007, deux articles viennent de paraître coup sur coup dans les Proc. Royal Society et dans Nature ( "No solar hiding place for greenhouse sceptics" = "Pas de refuge derrrière le soleil pour les sceptiques de l'effet de serre" de Quirin Shiermeier ) qui, selon les auteurs (Lockwood et Fröhlich), enfonceraient "the last nail in the coffin" comme disent les américains ( "le dernier clou dans le cercueil"), des tenants de la thèse des effets des cycles solaires sur la température terrestre. Leur argumentation repose que sur le fait que la température de la planète continue à augmenter lentement depuis 1985 (disent-ils) alors que le cycle solaire 23 (où nous trouvons actuellement) se trouve sur la fin de son activité. D'après la théorie des éruptions solaires, pensent les auteurs, nous devrions assister, au contraire, à une décroissance des températures. CQFD ! Compte tenu de la convergence d'un très grand nombre d'observations expérimentales (voir ci-dessus) accumulées au cours d'un grand nombre d'années années en divers points de la planète, qui militent en faveur de l'importance des cycles solaires, il n'est pas prudent de prendre les arguments des "réchauffistes de l'effet de serre" comme argent comptant même s'il exact de dire que la Terre devrait se refroidir incessamment si la théorie des cycles solaires s'avère confirmée. Voici quelques remarques qui devraient tempérer l'optimisme des alarmistes de l'effet de serre :
En conclusion sur cette affaire des 10 (et non pas 20 dernières années), il est encore trop tôt pour se prononcer. Comme je l'ai dit plusieurs fois, attendons encore un peu et nous saurons qui a raison ! Mais il serait bien étonnant que cette frappante corrélation température-durée des cycles solaires ait brutalement décidé d'abandonner la partie après alors qu'elle existait déjà au temps des pharaons (voir ci-dessus). Et ceci se produirait justement ces 10 ou 20 dernières années ?.. Un peu difficile à croire, vous ne trouvez pas ? Certains ont parié (et beaucoup d'argent ! voir par exemple ici cet intéressant témoignage d'un "repenti" de l'effet de serre) que les températures allaient diminuer dans les prochaines années… Allons, encore un peu de patience ! Nous verrons bientôt qui va gagner ! Octobre 2007 : Les solaristes Svensmark et Friis-Christensen répondent à l'article de Lockwood et Fröhlich en prolongeant les corrélations entre la courbe des température et celle des rayons cosmiques jusqu'en 2006 : On ne dispose actuellement que du preprint de l'article de Svensmark et Friis-Christensen. Nous ignorons encore dans quelle revue il sera publié, mais vous le trouverez ici en pdf. Son titre : "Sun still appears to be the main forcing agent" i.e. "le soleil est toujours le principal facteur (ndlr: du réchauffement climatique"). Cette étude couvre la période 1958-2006 En bleu, les courbes des températures globales de la basse troposphère telle qu'elle est donnée par les multiples études de radio-sondages. Cette courbe est réputée plus fiable que la courbe des températures terrestres qui est souvent "cannulée" par les problèmes de mesures et d'îlots urbains. En rouge : les courbes qui donne la variation du taux de rayons cosmiques tels que mesurés, en continu, par les stations terrestres. Le graphe du haut donne la superposition directe des courbes brutes de températures et d'intensité du rayonnement cosmique. On peut déjà apercevoir une excellente corrélation. Le graphe du bas est obtenu en corrigeant les courbes de températures des effets liés aux aérosols éjectés par les volcans (par exemple pinatubo en 91), les effets des oscillations océaniques nord-atlantiques et El ninõ (par exemple en 98). Svensmark a aussi retranché une montée continue de 0,14°C/ décennie qui semble donc être un paramètre différent et indépendant des effets solaires. Ceci pourrait évidemment être lié à l'effet de serre de H2O et des autres gaz comme le CO2. N'oublions pas que les derniers cycles solaires étaient particulièrement intenses et que les océans se sont réchauffés. Bref, cette légère montée de la température, plus faible et sous-jacente aux effets solaires, représente sans doute l'énorme capacité calorifique de la masse (Terre+atmosphère avec ou sans effet de serre) face à la montée de l'intensité des cycles solaires, tels que nous avons pu les observer depuis quelques décennies. Mais je vous rappelle que les océans ont déjà commencé à se refroidir… Attendons nous donc à un refroidissement net du climat dans les années à venir… Et si vous regardez bien la courbe des températures, vous observerez que celles-ci n'augmentent plus depuis environ 10 ans. Nous sommes donc actuellement sur un plateau. Avant une descente ? Probablement, prévoient de nombreux climatologues. Mais patience !, l'avenir nous le dira… En résumé : En l'absence de corrections (courbes du haut) , la corrélation (rayons cosmiques-soleil) est déjà évidente. Mais après correction des effets ponctuels,( courbes du bas) la corrélation devient absolument stupéfiante et ceci bien après 1980, contrairement à ce qu'affirmaient Lockwood et Fröhlich dans leur dernier article tant médiatisé …
|
|||||||||||||||||||
Mise à jour du 8 Juillet 2009 : Henrik Svensmark et son équipe, imperturbables, poursuivent sur leur lancée. En ce mois de juillet 2009, ils publient un nouvel article (actuellement sous presse dans GRL- Geophysical Research Letters) intitulé " Les décroissances des rayons cosmiques modifient les aérosols atmosphériques et les nuages". ("Cosmic rays decreases affect atmospheric aerosols and clouds"). "Les éjections de masse de la couronne solaire sont détectées sur la Terre par les décroissances de Forbush des rayons cosmiques. Ci-dessous, la figure 1, très parlante, de leur article. En tiretés épais sont représentées les courbes indiquant la décroissance marquées des rayons cosmiques impactant notre planète, correspondant à la moyenne de cinq événements de Forbush qui sont survenus en 2003, 1/2005, 9/2005,2000, 1991. Pour chacune des différentes mesures (AERONET, SSM.I etc.), la ligne horizontale en pointillés représente la valeur moyenne enregistrée avant l'événement de Forbush. Les courbes en trait continu noir représentent les mesures disponibles dans les bases de données AERONET (aérosols) SSM/I (contenu en eau liquide des nuages), MODIS (fraction en eau liquide des nuages) et ISCCP (quantité de nuages détectés en IR) .
Quelques précisions semblent nécessaires pour pouvoir apprécier pleinement l'importance des résultats décrits par Svensmark et son équipe : Comme le savent les lecteurs qui ont lu avec attention les textes précédents sur cette page, Henrik Svensmark et son équipe cherchent à établir un lien direct entre la variabilité solaire (résultant essentiellement des éruptions solaires), et la couverture nuageuse de la planète qui, à son tour, modifie le climat. Eruptions (taches) solaires -> Modification de la quantité de rayons ionisants impactant la planète -> Modification de la couverture nuageuse -> modification du climat. Cette fois-ci, Svensmark et ses collègues se sont intéressés à une forme particulière d'éruption solaire (que je n'avais pas encore évoquée) qui s'appelle la CME (Coronal Mass Ejection). En gros, de tels événements qui se reproduisent une ou deux fois par an, autour du maximum d'activité solaire de chaque cycle de Schwabe, consistent en une sorte de synchronisation d'éruptions qui apparaissent simultanément sur la couronne solaire, à l'image de ce qui est visible Cette sorte d'éruption géante qui équivaut à l'éjection par le soleil d'une masse de matière considérable, provoque une décroissance rapide et intense de la quantité de rayons cosmiques impactant notre planète, comme on le voit (courbes en tiretés gris) sur les figures précédentes.. Cette décroissance rapide qui apparaît comme un pic négatif pour les détecteurs de rayons cosmiques, est connue sous le nom d'événements (ou de décroissance) de Forbush du nom du chercheur (Scott E. Forbush) qui identifia le phénomène en 1937. L'explication de cette décroissance n'a pu être donnée qu'en 2000. Il s'agirait d'un nuage plasmatique fugitif, résultant du CME, qui écranterait brièvement la Terre vis à vis des rayons cosmiques galactiques. Les événements de Forbush qui marquent une décroissance intense et rapide de la quantité de rayons ionisants incidents sur notre planète constituent un élément de test très précieux pour quiconque, comme H. Svensmark et ses collègues, veut observer directement les effets des rayons cosmiques sur l'ennuagement de la Terre. Du coté de l'observation directe des taux d'ennuagement, des propriétés des nuages et des noyaux de condensation (aérosols), la recherche à fait beaucoup de progrès ces dernières années. Les chercheurs disposent maintenant de plusieurs systèmes d'observations, quasi permanents et qui sont, en général, gérés par des coopérations internationales. AERONET : "Aerosol Robotic Network" est un réseau basé à Terre résultant d'une coopération internationale (NASA-CNR) rejoints par un grand nombre d'observateurs dépendant de multiples institutions réparties sur la planète. Le réseau se charge essentiellement de l'harmonisation des étalonnages, du traitement des données et de la distribution. AERONET mesure essentiellement l'AOD, c'est à dire la profondeur (ou la densité) optique des couches atmosphériques à différentes longueurs d'onde. MODIS : Le " Moderate Resolution Imaging Spectrometer" équipe les satellites de la NASA, AQUA et TERRA. Ce système est essentiellement un système d'observation. Dans le cas présent et outre de nombreuses autres informations, MODIS indique la fraction d'eau liquide contenue dans les nuages (LWCF : Liquid Water Content Fraction) et ceci aussi bien au dessus des continents que des océans. SSM/I : (de RSS) "The Special Sounder Microwave Imager" donne le contenu en eau liquide des nuages au dessus des océans. (CWC : cloud water content). ISCCP : "The International Satellite Cloud Climate Project" fournit, des informations sur les caractéristiques de nuages à basse altitude (<3,2km) au dessus des océans, à l'aide de détecteurs infra-rouge installés sur des satellites. Comme on le voit très bien sur la figure 1 de l'article de Svensmark et al reportée ci-dessus, les événements de Forbush les plus intenses sont suivis, à brève échéance (après quelques jours) d'un décrochement quasi homologue des quatre observables recensés dans cet article : MODIS, AERONET, SSM/I et ISCCP. La corrélation (Événements de Forbush/ aérosols et nuages) est évidente et le lien de cause à effet est, sans doute, très difficilement discutable. A noter également, comme le font remarquer Svensmark et al que les mesures AERONET indique que le taux de fines particules diminue en proportion de l'intensité des événements de Forbush et que le minimum est atteint au bout de 4 à 5 jours. Cette diminution du taux de particules fines précède donc de quelques heures à quelques jours les diminutions des taux et des quantités d'eau liquides mesurées par les autres sondes. Tout ceci ainsi que des observations complémentaires mentionnées dans cet article sont cohérents avec les modèles avancés par Svensmark et plusieurs autres groupes sur les mécanismes fondamentaux d'ennuagement. Cet article constitue un progrès important dans notre compréhension des mécanismes (encore inconnus) qui président à la formation des nuages. Au vu de ces résultats, le rôle des rayons ionisants sur la formation des nuages et donc des éruptions solaires sur le climat, est difficilement contestable. C'est pourtant, cette hypothèse, avancée par Svensmark et al. dans les années 90, que R. Pachauri, le président du GIEC en 2007, avait qualifiée d' "extrêmement naïve et irresponsable"… Il fallait pouvoir le dire. Hélas, comme à l'accoutumée, vous n'entendrez jamais parler de cet article et de ses conclusions dans la grande presse ni dans aucun des autres médias, non plus que dans les sites WEB ou les revues dont certains se prétendent cependant scientifiques…Pourquoi donc ? Mais, vous l'avez compris : Voilà qui constitue un élément de très bonne augure pour le projet CLOUD en cours d'installation au CERN de Genève que j'ai évoqué ci-dessus. Note added in proof : Cet article de Svensmark et al fait écho à une observation résultant d'une coopération Russo-Brésilienne en 1995 (Institut Lebedev de Moscou et Université de Campinas). Cet article, publié dans le Nuovo Cimento ( 18, 3, Mai 1995) est intitulé : Voici le résumé (source) :" Nous avons étudié les variations des quantités de pluies pendant les grandes décroissances de Forbush données par le détecteur de neutrons à basse latitude de Huancayo (47 événements entre 1956 et 1992). Les données de pluviométrie on été prises dans l'état de Sao Paulo et dans la région de l'Amazone au Brésil. De manière générale, les données provenant de plus de 50 stations météorologiques ont été utilisées pour chaque événement. Le principal résultat est le suivant : Durant les fortes décroissances du flux de rayons cosmiques dans l'atmosphère (grande décroissance de Forbush), la pluviométrie a diminué. Les variations de pluviométrie sont encore plus nettes pendant les saisons humides." (NDT (caractères engraissés du traducteur)) … ce qui est parfaitement conforme aux observations récentes de l'équipe Danoise.
|
|||||||||||||||||||
12 Janvier 2011 : Encore une mise en évidence de la corrélation existant entre la couverture nuageuse terrestre et le flux des rayons cosmiques galactiques (GCR). Alors que les climatologues proches du GIEC et leurs relais journalistiques orientés ne cessent de nous expliquer, urbi et orbi, que les faibles variations de l'irradiance solaire (0,1%) ne permettent pas d'expliquer le réchauffement climatique actuel, des articles fort documentés sur les interactions nettement plus subtiles qui existent entre l'activité solaire et le climat terrestre ne cessent de paraître dans les bonnes revues scientifiques. En voici encore un, parmi beaucoup d'autres. Cet article est dans la lignée de celui qui précède. Il apporte de l'eau au moulin du projet International CLOUD mené au CERN de Genève, par des représentants de 17 institutions de tous les grands pays développés (sauf la France). Cet article est intitulé : "Lien entre les rayons cosmiques et les variations rapides de la couverture nuageuse aux latitudes moyennes." Les auteurs sont des chercheurs du Royaume Uni Article publié le 24 Novembre 2010 dans Atmos. Chem. Phys., 10, 10941–10948, 2010 (Atmospheric Chemistry and Physics) Voici le résumé original en anglais suivi d'une traduction en français : Abstract:. The effect of the Galactic Cosmic Ray (GCR) flux on Earth’s climate is highly uncertain. Using a novel sampling approach based around observing periods of significant cloud changes, a statistically robust relationship is identified between short-term GCR flux changes and the most rapid mid-latitude (60°–30° N/S) cloud decreases operating over daily timescales; this signal is verified in surface level air temperature (SLAT) reanalysis data. A General Circulation Model (GCM) experiment is used to test the causal relationship of the observed cloud changes to the detected SLAT anomalies. Results indicate that the anomalous cloud changes were responsible for producing the observed SLAT changes, implying that if there is a causal relationship between significant decreases in the rate of GCR flux (0.79 GU, where GU denotes a change of 1% of the 11- year solar cycle amplitude in four days) and decreases in cloud cover (1.9 CU, where CU denotes a change of 1% cloud cover in four days), an increase in SLAT (0.05 KU, where KU denotes a temperature change of 1K in four days) can be expected. The influence of GCRs is clearly distinguishable from changes in solar irradiance and the interplanetary magnetic field. However, the results of the GCM experiment are found to be somewhat limited by the ability of the model to successfully reproduce observed cloud cover. These results provide perhaps the most compelling evidence presented thus far of a GCR-climate relationship. From this analysis we conclude that a GCR-climate relationship is governed by both short-term GCR changes and internal atmospheric precursor conditions. Résumé : L'effet des rayons galactiques cosmiques (GCR) sur le climat de la Terre est très incertain. Une relation statistiquement robuste est identifiée, en utilisant une nouvelle technique d'échantillonnage autour de périodes où se sont produites des variations significatives de l'ennuagement. Elle compare les variations à court terme de flux de GCR avec les décroissances les plus rapides de l'ennuagement aux latitudes moyennes, sur des périodes journalières : Ce signal est vérifié à partir des réanalyses des températures de l'air près de la surface (SLAT). Une expérience de modèle GCM (Modèle de circulation générale) est utilisée pour tester la relation causale entre les variations d'ennuagement observées et les anomalies de SLAT. Les résultats indiquent que les anomalies d'ennuagement étaient responsables des variations de températures SLAT, ce qui implique une relation de causalité entre une décroissance significative du taux de variation du flux GCR (0,97GU où GU indique un changement de 1% de l'amplitude du cycle solaire de 11 ans, en 4 jours) avec la décroissance de l'ennuagement (1,9CU, ou CU indique une variation de 1% de la couverture nuageuse en 4 jours); et une augmentation de la SLAT (0,05KU ou KU indique le changement de température de 1K en 4 jours) qui peut en résulter. L'influence des GCR est clairement distincte des variations d'irradiance solaire et du champ magnétique interplanétaire. Cependant, il est constaté que les résultats des expériences utilisant les modèles GCM sont quelque peu limités par leur capacité à reproduire correctement la couverture nuageuse observée. Il est possible que ces résultats constituent la preuve la plus convaincante présentée jusqu'à ce jour de la relation entre le climat et les rayons cosmiques galactiques (GCR). A partir de cette analyse, nous concluons que la relation climat-GCR est déterminée par les variations à court terme des GCR et par la situation de précurseur, interne à l'atmosphère. Le résumé est relativement clair. L'examen des principales figures de l'article de Laken et al, l'est encore plus.
Comme on le constate, la période choisie montre une variation conséquente du flux GCR en une dizaine de jour, seulement. Il est évident, que s'agissant d'attributions et de corrélations, il est beaucoup plus probant de s'intéresser aux variations rapides plutôt qu'aux variations lentes.
Comme on peut le constater, il existe une corrélation évidente entre les variations de flux cosmique et les variations d'ennuagement, moyennées dans toute la zone (des latitudes moyennes et de la troposphère) considérée. De même, comme on s'y attend et conformément aux multiples observations antérieures rapportées dans cette page, une augmentation du flux de neutrons (résultant d'une activité solaire moins importante), résulte en une augmentation de l'ennuagement.
Laken et ses coauteurs se posent alors la question de savoir si d'autres phénomènes résultants l'activité solaire (UV, phénomènes électriques) déjà évoqués dans cette page, pourraient expliquer les observations précédentes. Ils écrivent : "However, only the rate of GCR flux undergoes correlated and statistically significant co-temporal variations to cloud changes over the composite period. These results suggest that the effects we observe are independent of other solar phenomena and that we can therefore discount the possibility that an alternative solarterrestrial mechanism is operating (such as those detailed by: Tinsley, 2008; Douglas and Clader, 2002; Haigh, 1996; Kniveton et al., 2003)." Traduction : "Cependant, seules les variations du flux de Rayons Cosmiques Galactiques montrent une corrélation statistiquement significative des variations co-temporelles avec les variations de l'ennuagement tout au long de la période étudiée. Ces résultats suggèrent que les effets que nous observons sont indépendants des autres phénomènes solaires et que nous pouvons donc exclure la possibilité qu'un autre mécanisme d'interaction solaire-Terre soit en action (tels que ceux expliqués en détail par Tinsley, 2008; Douglas and Clader, 2002; Haigh, 1996; Kniveton et al., 2003" Rappelons que Tinsley (soutenu par Harrison) est le promoteur de la théorie des effets électriques (Jz ). Douglas et Clader mettait en avant la simple variation de l'irradiance solaire durant les cycles. Joanna Haig évoquait l'effet de l'activité solaire UV sur l'ozone stratosphérique (c'est aussi le point de vue de Lockwood). Kniveton (qui est coauteur du présent article) et al évoquaient la variation du taux de dimethylsulfide au dessus de l'océan Indien, liée au variations des UV émis pendant les cycles solaires. A noter que les effets des GCR sur l'ennuagement ne sont pas exclusifs des autres effets suggérés par ces différents auteurs. Tous ces effets pourraient également contribuer de manière indépendante ou concertée à la modification du climat. Cependant, les observations de Laken et al, rapportées ici, ne concernent que les modifications de l'ennuagement par les GCR et les variations de températures terrestres résultantes.
Le bases de données observationnelles se sont beaucoup enrichies au cours des ces dernières années, notamment celles de l'ISCCP (International Satellite Cloud Climatology Project) qui ont permis à Laken et al de donner des informations détaillées sur les anomalies d'ennuagement qui se sont produites en concomittance avec les variations de flux cosmiques. Voici la Figure 2 de l'article accompagnée de sa légende :
"Diagramme latitude/altitude des anomalies de la couverture nuageuse se produisant à la date exacte des composites (Ndt : des détecteurs de rayons cosmiques).
Comme on le constate, les variations d'ennuagement significatives (encadrées d'un trait continu) corrélées avec les variations de GCR, se trouvent essentiellement au dessus des latitudes moyennes, soit de (15°S à 60°S) et de (20°N à 62°N). A noter que la région équatoriale (latitude 0) est le plus souvent encombrée de nuages, ce qui empêche d'effectuer ce genre de travail dans de bonnes conditions Conformément avec ce qui avait été avancé auparavant, ce sont les nuages à basse et moyenne altitude qui présentent le taux de corrélation le plus élevé avec les variations enregistrées du flux des rayons cosmiques galactiques.
"Anomalies observées aux latitudes moyennes (de 60°N à 30°S) de la couverture nuageuse moyenne (de 30 à 1000mb) (ligne en trait plein) et variations de la température de l'air à la surface (courbe en tireté)." Une augmentation de la couverture nuageuse à basse et moyenne altitude s'accompagne d'une diminution de la température de surface. La durée des événements est de l'ordre de quelques jours et la réponse de la température semble quasi instantanée.
"Based on the relationships observed in this study, and assuming that there is no linear trend in the short-term GCR change, we speculate that little (0.088 °C/decade) systematic change in temperature at mid-latitudes has occurred over the last 50 years. However, at shorter time-scales this phenomenon may contribute to natural variability, potentially reducing detectability of an anthropogenic signal." "Si on se base sur les relations observées dans cette étude et en supposant qu'il n'existe pas de tendance linéaire dans les variations à court terme du rayonnement cosmique galactique (GCR), nous spéculons que de faibles variations (0,088°C/décennie) (Ndt : Ce qui représente quand même une grosse proportion de la hausse de température SLAT observée depuis un siècle (0,12°C par décennie pour le globe) se sont produites aux latitudes moyennes depuis 50 ans. Cependant, pour des échelles de temps plus courtes, ce phénomène peut contribuer à la variabilité naturelle réduisant ainsi la possibilité de détecter le signal dû à l'activité humaine." Ce langage, riche en litotes et un peu alambiqué, est tout à fait caractéristique de la littérature climatologique actuelle, notamment de la part des chercheurs qui, malgré les oppositions, persistent à vouloir publier des observations qui s'écartent du dogme en vigueur. On peut supposer que ce genre de précautions oratoires constitue le sésame qui permet d'obtenir l'imprimatur de la part des relecteurs… C'est vraiment le moins que l'on puisse dire, sans risquer de se voir écarter des juteux contrats attribués à la science climatique (post)moderne. La conclusion fait preuve d'une grande retenue tout en étant légèrement plus affirmative. Conclusions Conclusions : La dernière phrase ("Les forçages climatiques résultant de telles relations Soleil-Terre peuvent avoir eu un impact significatif sur le climat avant le déclenchement du réchauffement anthropique") est étonnante . Selon les auteurs, l'influence solaire aurait eu un impact significatif "avant" le déclenchement du réchauffement anthropique. Outre le fait que cette phrase contredit directement la fin du paragraphe précédant la conclusion qui affirmait que " Ce phénomène peut contribuer à la variabilité naturelle réduisant ainsi la possibilité de détecter le signal dû à l'activité humaine" (qui est réputé significatif depuis 50 ans), elle nous explique que depuis que l'homme rejette du CO2 dans l'atmosphère, l'activité solaire aurait brusquement cessé d'avoir une influence significative sur le climat. En réalité, cette phrase est quelques autres du même genre que l'on retrouve dans nombre d'articles signés par les adhérents au GIEC et que j'ai épinglés à de nombreuses reprises, montre, une fois de plus, que "la petite phrase magique" d'allégeance aux affirmations du GIEC, est restée quasi-obligatoire dans la littérature climatologique, comme l'avait expliqué Richard Lindzen. Il faut dire que le "pal review" (comme disent les sceptiques américains, au lieu du peer-review), c'est à dire la relecture par "les copains", ne contribue certainement pas à la liberté d'expression… Il est évident que ni l'Université du Sussex, ni l'Institut d'Astrophysique des Canaries qui sont les maisons mères des auteurs de cet article, ne peuvent se permettre de publier, sans de subtiles précautions oratoires, un article qui va manifestement à l'encontre du dogme en vigueur et dans le sens de ce qu'ont expliqué et affirmé (voir l'expérience Internationale (sauf la France) CLOUD), depuis longtemps, les solaristes tels que Henrik Svensmark, parmi beaucoup d'autres. Malheureusement pour les adhérents de la thèse anthropique en vigueur, les observations de l'influence de l'activité solaire sur le climat sont, une fois encore, là et bien là. Peu à peu, les variations climatiques naturelles deviennent apparentes, affaiblissant d'autant la portion anthropique. Hélas pour certains, les bases de données observationnelles ne cessent de croître et d'embellir. Rappelons, à ce propos, que la micro-section correspondant à l'étude de l'influence solaire sur le climat du dernier rapport du GIEC (AR4 2007) ne faisait appel qu'à un seul auteur (Judith Lean) qui ne citait d'ailleurs que son propre travail, lequel écartait cette possibilité en évoquant, comme d'habitude, les variations (0,1%) A noter que les auteurs de l'article mentionné ici, remercient, entre autres, Arnold Wolfendale (Univ de Durham UK) avec lequel Laken a déjà plusieurs fois publié, pour ses conseils avisés. Wolfendale doit être plutôt mécontent de cet article qu'il a probablement refusé de cosigner. En effet, il faut savoir que Wolfendale est l'un des contradicteurs les plus acharnés de la théorie de Svensmark et al qui, comme vous le savez, implique l'effet du rayonnement galactique ionisant (GCR) sur le climat. Il serait intéressant de savoir comment Sir Wolfendale explique les innombrables empreintes des cycles solaires relevées dans une kyrielle de situations géographiques, recouvrant des espaces de temps allant des époques reculées jusqu'à nos jours, et sur non moins d'indicateurs climatiques (proxys) variés, telles que celles que j'ai rapportées dans cette page… Cet article de Laken et al va très précisément dans le sens des idées de Svensmark et al et du projet CLOUD du CERN de Genève. A suivre, donc. Stay tuned ! (restez à l'écoute !) comme disent les américains (du Nord)… Inutile d'ajouter que l'article de Laken et al ne sera pas mentionné par les journaux francophones, à moins que l'AFP ne nous gratifie, une fois encore, d'un article délirant sur ses délicieux "rayons cosmétiques"… A noter que Laken et al ne sont ni les seuls, ni les premiers à avoir observé des corrélations significatives entre les variations rapides de flux GCR et les propriétés de l'atmosphère. Tels, parmi d'autres : –Irina Artamonova et Svetlana Veretenenko "Influence des variations des GCR sur la dynamique des systèmes de pression atmosphérique aux latitudes moyennes" JASTP (2010 / doi:10.1016/j.jastp.2010.05.004 …et le billet suivant de Septembre 2011 :
|
|||||||||||||||||||
27 Septembre 2011 : Encore des observations de l'effet des rayons cosmiques sur les nuages qui vont dans le sens de la cosmoclimatologie de Svensmark. Ce billet est directement lié aux deux billets précédents : Svensmark et al (2009) d'une part, et Laken et al (2010) , d'autre part. Il est évidemment en relation avec le projet CLOUD. Cet article est intitulé : "Relation entre les Décroissances de Forbush et les nuages à l'ère des détecteurs de neutrons." Tout comme Svensmark et ses collègues, une équipe de physiciens Serbes se sont intéressés aux événements (ou décroissances) de Forbush qui résultent d'une forme particulière d'éruption solaire qui s'appelle la CME (Coronal Mass Ejection). En gros, de tels événements qui se reproduisent une ou deux fois par an, autour du maximum d'activité solaire de chaque cycle de Schwabe, consistent en une sorte de synchronisation d'éruptions qui apparaissent simultanément sur la couronne solaire. C'est un phénomène d'une grande intensité, bien connu des radio-amateurs et des gestionnaires de satellites. Il faut savoir que le climat est extrêmement sensible à la nébulosité. De faibles variations de la couverture nuageuse de l'ordre de quelques pour cent suffiraient à expliquer la totalité des variations de température que nous avons connues au siècle dernier. Ainsi, et si l'on veut montrer que les rayons cosmiques sont un des moteurs de cette variation (ou ne le sont pas), faudrait-il être en mesure de mesurer les variations de couverture nuageuse, très fluctuante et résultant de nombreuses causes, avec une précision (et une fidélité) meilleure que un pour-cent, ce qui est encore problématique même pour l'ISSCP (The International Satellite Cloud Climatology Project) qui a dû faire face à un certain nombre de problèmes de mise au point (notamment changement des détecteurs) au cours des années passées. Sans oublier que les rôles respectifs des nuages à haute, moyenne et basse altitude sont différents et techniquement difficiles à discerner. Tout cela est donc passablement délicat. La Version originale de l'article est en accès libre.
L'équipe de physiciens de Belgrade s'est posé la question fondamentale qui est à la base de la théorie de Svensmark et al. A savoir, le flux de rayonnement cosmique qui nous vient de l'espace et qui est plus ou moins dévié par les éruptions solaires, a-t-il un impact sur la nébulosité ou la couverture nuageuse terrestre ? Si c'est le cas, comme il le semble au vu d'un grand nombre d'empreintes plus ou moins fossiles, l'influence du soleil ne se fait pas seulement ressentir par la TSI (l'irradiance solaire totale, c'est à dire le flux lumineux qui impacte et réchauffe notre planète) mais aussi par des effets indirects très importants tels que la variation de couverture nuageuse comme le prévoit la théorie de Svensmark actuellement en cours de test au CERN de Genève. Cette théorie permettrait, entre autres, d'expliquer la multitude d'empreintes des cycles solaires sur le climat tels que celles qui sont mentionnées tout au long de cette (longue) page. L'objectif de ce travail des physiciens serbes est donc de chercher des variations de nébulosité durant les (plus ou moins) fortes variations du flux des rayons cosmiques telles que celles que l'on peut observer durant les Décroissances de Forbush. Ce travail qui émane de chercheurs jusqu'alors peu impliqués dans les recherches de climatologie, repose essentiellement sur deux constatations intéressantes : 1) S'agissant de suivre l'évolution de la couverture nuageuse, et plutôt que d'utiliser les bases de données satellitaires globales telles que AERONET (aérosols) SSM/I (contenu en eau liquide des nuages), MODIS (fraction en eau liquide des nuages) et ISCCP (quantité de nuages détectés en IR), comme Svensmark, Dragic et ses collègues font la remarque suivante : Les nuages de basse altitude (l'effet est différent pour les nuages de haute altitude comme les cirrus) provoquent une baisse de température pendant la journée, en augmentant l'albedo de l'atmosphère, c'est à dire en réfléchissant une partie du flux incident vers la haute atmosphère, puis vers l'espace. Par contre, durant la nuit, les nuages limitent le refroidissement de la planète comme il est aisé de le constater. Ainsi, c'est un fait d'observation courante que les nuages refroidissent pendant les journées et réchauffent durant les nuits. A noter que cette idée est triplement astucieuse. D'une part, elle présente l'avantage de posséder une résolution temporelle très courte, égale à une journée, ce qui est indispensable s'agissant de comparer le DTR aux brefs événements de Forbush. D'autre part, elle est exempte des nombreuses difficultés liées aux mesures satellitaires globales de la nébulosité. Ces données DTR sont disponibles pour des zones parfaitement localisées et délimitées. Enfin, ces mesures DTR, tabulées par les offices météorologiques, s'affranchissent dans une grande mesure des nombreux problèmes qui affectent la mesure des températures moyennes (Emplacement et état des détecteurs etc.). Le différentiel de température jour-nuit est certainement moins sensible aux imperfections des instrumentations que la mesure absolue de la température moyenne. 2) La seconde "astuce" des chercheurs Serbes repose sur un constat dont, en tant que spécialistes des rayonnements cosmiques, ils sont très familiers : Du point de vue statistique, les événements (les décroissances) de Forbush interviennent de la manière suivante : Les événements de faible amplitude sont beaucoup plus nombreux que les événements de Forbush de grande amplitude, comme le montre la distribution statistique représentée sur le graphe suivant extrait de l'article en question. Fig. 1." La distribution des amplitudes des Décroissances de Forbush. Les événements de faible amplitude se produisent plus fréquemment." Cette simple observation n'est pas sans conséquence lorsque l'on veut savoir s'il existe une corrélation éventuelle entre les décroissances de Forbush et les variations de nébulosité ou de la couverture nuageuse. En effet, si l'on prend en compte la totalité des Décroissances de Forbush, les très nombreuses petites et les rares grandes, comme l'on fait les équipes qui affirmaient contredire les résultats de Svensmark décrits ci-dessus, on superpose au signal significatif résultant des grandes Décroissances de Forbush, une grande quantité de signaux qui sont noyés dans les fluctuations naturelles de la nébulosité…et le signal utile disparaît, noyé dans le bruit. Ainsi, si le but poursuivi est de déterminer si les rayons cosmiques influent (ou n'influent pas) sur la formation de la couverture nuageuse, il est fondamental de ne considérer que les Décroissances de Forbush suffisamment intenses pour avoir des chances de conduire à un rapport signal/bruit acceptable, tout en s'assurant, bien entendu, que les résultats seront statistiquement significatifs. En langage commun, on dirait que cela équivaut à chercher une marguerite dans un champ d'herbes rases plutôt que dans un terrain d'herbes hautes. Le travail des chercheurs Serbes a donc consisté à tracer une série de courbes indiquant les variations du différentiel de température jour-nuit, en fonction du temps, durant les quelques jours précédant et suivant les Décroissance de Forbush tabulées à l'Observatoire du Mont Washington. Et cette opération est répétée en prenant en compte une série d'événements de Forbush suffisamment intenses (au dessus d'un certain seuil et de fait au moins supérieurs à une décroissance de 7%) et ceci pour le nombre disponible (c'est à dire tabulé) des événements de Forbush. Voici donc trois graphes significatifs, extraits de l'article en question. Le temps 0 correspond à l'époque de l'événement de Forbush. Les barres d'erreurs représentent les erreurs standards par rapport à la moyenne. Comme l'ont fait les auteurs de l'article nous allons tout d'abord prendre en compte une grande partie des événements de Forbush, les nombreux petits et les rares grands.
"Fig. 4. Analyse de la superposition temporelle pour toutes les Décroissances de Forbush dont l'amplitude est supérieure à 5% (81 événements). " Comme on peut le constater, le DTR, le différentiel de température jour-nuit ne montre aucune variation significative suite aux décroissances de Forbush.
Les physiciens Serbes ont alors exclu tous les événements de Forbush dont l'amplitude était inférieure à 7%, ce qui d'après le diagramme de distribution montrée plus haut, exclut un nombre important d'événements peu actifs.
Fig. 5 : "Le graphe du haut montre une analyse temporelle de la superposition de toutes les décroissances de Forbush dont l'amplitude est comprise entre 7 et 10% (22 événements)
Le graphe du bas montre la même chose que le graphe du haut mais pour des événements d'amplitude plus grande que 10% (13 événements)."
Comme on le constate, la marge d'erreur a encore augmenté, mais la variation de DTR (différentiel de température jour-nuit) est nettement visible et atteint son maximum environ 4 jours après les événements de Forbush. Conclusion : Il semble donc bien que le différentiel de température jour-nuit qui est lié à la couverture nuageuse varie notablement en fonction de l'intensité des rayons cosmiques qui impactent l'atmosphère de notre planète. Ces observations sont évidemment en faveur de la théorie de Svensmark et al et sont en accord avec leur publication de 2009. Cependant, comme le font remarquer les chercheurs de Belgrade, ces résultats demandent à être confirmés notamment en étendant ces observations à l'ensemble du globe. Seules quelques 189 stations Européennes (choisies au hasard mais qui couvrent toute l'Europe) ont servi à élaborer les graphes présentés dans cet article. Compte-tenu du fait que la démarche des chercheurs serbes s'appuie sur des bases de données aisément accessibles, il serait étonnant que ces résultats ne soient pas rapidement dupliqués et confirmés …ou démentis, par d'autres équipes. A suivre, donc. ______________________________________________________________________________________________________ Note : Anthony Watts évoque aussi cet article de Dragic et al sur WUWT, en collationnant les billets de Nigel Calder et de Lubos Motl. En anglais-américain, bien sûr.
|
|||||||||||||||||||
2 Novembre 2009 : Anneaux de croissance des arbres et rayons cosmiques : De nouvelles observations après celles de A.E. Douglass.. Toujours dans la longue série des publications qui montrent un lien possible entre l'activité éruptive solaire (et non pas seulement son irradiance) et le climat de la planète, voici deux articles très récents qui apportent de l'eau au moulin de la théorie de Svensmark et al. J'ai mentionné, plus haut, les découvertes de A. E. Douglass qui est considéré comme le fondateur de la dendrochronologie. Dès 1909, A.E. Douglass affirmait avoir observé qu'on retrouvait le cycle de 11 ans dans les anneaux de croissance des arbres et que ceux-ci étaient reliés aux éruptions solaires. Il écrivit un livre à ce sujet, en 1919, qui était intitulé : " Cycles du climat et croissance des arbres : Une étude des anneaux de croissance des arbres en relation avec l'activité solaire." Douglass publia divers articles à ce sujet dont un dans Science en 1927, intitulé "Enregistrements du soleil dans la croissance des arbres." (Science, vol 65, 1679, page 220-221) qu'il est assez facile de retrouver. Depuis cette époque et comme c'est souvent le cas lorsque les découvertes semblent étranges et inexpliquées, ces observations tombèrent dans l'oubli. Près d'un siècle plus tard, en cet automne 2009, trois chercheurs de l'Université d'Edinburgh viennent de publier un article qui corrobore les découvertes de A.E. Douglass. Voici les références : New Phytologist. 2009 (Rapid report) Vol. 184, page 545-551. (14 sept 2009). Le titre et le résumé de cet article nous disent tout. Je vous les traduis ci-dessous : "Relation entre les radiations cosmiques galactiques et le anneaux de croissance des arbres" Sigrid Dengel, Dominik Aeby and John Grace, Institute of Atmospheric and Environmental Science, School of GeoSciences, Crew Building, University of Edinburgh, EH9 3JN, UK Résumé : (photo d'une coupe d'épicéa Sitka, ci-contre, crédit Sigrid Dengel) "Nous avons étudié la variation inter-annuelle des anneaux de croissance des épicéas Sitka (Picea Sitchensis) dans le nord des îles britanniques (55°N, 3°W) pendant la période 1961-2005 dans le but de discerner l'influence des variables atmosphériques actives pendant différentes époques de l'année. La croissance annuelle des anneaux, mesurée le long d'un rayon dirigé vers le Nord, d'arbres fraîchement coupés et congelés ainsi que les données climatologiques recueillies dans un site proche, ont été l'objet de cette étude. L'étude des corrélations, faite en utilisant le coefficient de Pearson (NDT c'est une mesure classique de la qualité d'une corrélation) a porté sur l'analyse de l'anomalie de croissance des arbres et des observations climatiques et atmosphériques. Des corrélations plutôt faibles entre ces variables ont été observées. Cependant, il existait une relation consistante et statistiquement significative entre la croissance des arbres et la densité du flux de radiation cosmique galactique. De plus, on a observé une périodicité sous-jacente dans la croissance des arbres avec 4 minimas depuis 1960, qui se rapproche des cycles de radiation cosmique galactique. Nous discutons des hypothèses qui pourraient expliquer cette corrélation : la tendance des radiations cosmiques galactiques à produire des noyaux de condensation (NDT: en accord avec Svensmark et al) conduit à une augmentation de la composante diffuse de la lumière solaire et, ainsi, augmente la photosynthèse de la canopée de la forêt. " Deux mois après la publication de cet article paraissait, dans ce même journal (New Phytologist, Volume 184 Issue 3 (November 2009)) (Markku Kulmala, Pertti Hari, Ilona Riipinen et Veli-Matti Kerminen) un commentaire sur la publication précédente. Les quatre chercheurs Finlandais ne remettent pas en question les découvertes du précédent article mais les étendent à une autre espèce (L'épicéa Norvégien : Picea abies) prélevés en Finlande et discutent sur l'hypothèse proposée dans le premier article. Ils indiquent que " Our analysis demonstrated that the association between the cosmic ray flux and tree growth might be a common phenomenon an not just a specificfeature of a single location." "Notre analyse montre que l'association entre le flux cosmique et la croissance des arbres pourrait être un phénomène courant et non pas un fait spécifique à une seule situation gégraphique." Ces chercheurs finlandais discutent l'hypothèse de l'augmentation de la lumière diffuse à la lueur d'observations récentes plus ou moins contradictoires, sans conclure, et évoquent aussi la possibilité d'une influence directe des rayonnements cosmiques sur la croissance des arbres, ce que l'on ne peut exclure a priori, bien que l'on ait aucune idée sur le processus qui pourrait intervenir. Commentaires : 1) Il existe des bases de données dendrochronologiques très riches et bien documentées. On peut se demander pourquoi une étude des corrélations possibles (rayons cosmiques/ croissance des arbres) n'y a pas été effectuée. Ne serait-ce que pour tester les affirmations de Douglass. On peut espérer que ces découvertes motiveront quelques recherches supplémentaires dans ce sens. 2) Le premier article cité est très instructif sur la manière dont fonctionne la (bonne) recherche : Voici trois chercheurs anglais qui ont entrepris un travail minutieux pour tenter de discriminer les influences relatives des paramètres climatiques (température, humidité etc.) sur une collection de tranches d'épicéas. Pour cela, ils collectent les données de la station météorologique la plus proche et comparent les résultats des mesures des anneaux de croissance avec les données climatiques. Ils ne trouvent rien de ce qu'ils espéraient mais découvrent quelque chose qu'ils n'attendaient pas. Ils (re) découvrent la périodicité des cycles solaires dans la croissance des arbres. Tout cela nous rappelle la démarche de Tim Patterson (qui confesse avoir enseigné l'effet de serre du CO2 pendant longtemps et qui , maintenant, est "solariste") lequel nous disait qu'en relevant les données paléoclimatiques : "Au fur et à mesure que les résultats des mesures nous parvenaient, nous étions stupéfaits de constater que les enregistrements paléoclimatiques et de productivité (NDLR : en poissons) étaient remplis de cycles qui correspondaient aux différentes cycles des taches solaires." Comme le grand physicien Enrico Fermi disait à ses élèves : "Il y a deux possibilités : Si le résultat confirme votre hypothèse vous avez fait une mesure. Si le résultat est contraire à votre hypothèse, alors vous avez fait une découverte."(cité dans Nuclear Principles in Engineering (2005) par T. Jevremovic, p. 397).
|
|||||||||||||||||||
Janvier 2012 : Trois articles récents sur le lien climat-activité solaire et sur l'évolution future du soleil : 1) L'activité solaire et le climat : Cycles de 11 ans (Schwabe) ou cycles de 22 ans (Hale) ? Le titre : "A propos de la relation entre d’une part, la température moyennée de l’air en surface aux niveaux planétaire, hémisphérique ou latitudinal (données du GISS) et d’autre part, l’activité solaire." Publié en ligne le 22 Octobre 2011 dans le JASTP par une équipe de cinq chercheurs brésiliens et porto-ricains. Le résumé en VO suivi d'une traduction en français : Abstract : The air surface temperature is a basic meteorological parameter and its variation is aprimary measure of global, regional and local climate changes.In this work, the global, hemispheric and latitudinal averaged air surface temperature time series, obtained from the NASA/Goddard Institute for Space Studies (GISS), and the Sunspot Number (Rz) for the interval 1880–2005, are decomposed in frequency bands through wavelet multi-resolution analysis. We have found a very low correlation between global, hemispheric and latitudinal averaged air surface temperature and Rz in the 11 yr solar cycle band (8–16 years)from ~1880 to ~1950. Afterwards the correlation is higher.A very significant correlation (R ~0.57 to 0.80) is found in the ~22 yr solar Hale cycle band (16–32years) with lags from zero to four years between latitudinal averages air surface temperature and Rz. Therefore it seems that the 22 yr magneticfield solar cycle might have a higher effect on Earth’sclimate than solar variations related to the 11 yr sunspot cycle.
Je donne quelques graphiques significatifs extraits de l'article. En réalité, il s'agit d'une analyse dite "en ondelettes" qui constitue un puissant instrument pour la recherche des composantes cycliques d'une variable. Souza et al, ont fait tourner leur programme pour différentes latitudes de la planète car un certain nombre d'articles semblaient montrer que l'effet des cycles solaires dépendait de la latitude, et pour différentes fourchettes de périodes. En voici deux exemples qui permettent d'avoir une idée, à l'oeil nu, de la pertinence des corrélations. Recherche du cycle de Schwabe de 11 ans Décomposition entre 8 et 16 ans: Fig. 4 . Diagramme des composantes de 8 à 16 ans, pour la température de l'air à la surface du Globe entier et des hémisphères Nord et Sud (de haut en bas).
Recherche du cycle de Hale de 22 ans : Décomposition entre 16 et 32 ans Fig. 6. Diagramme des composantes de 16 à 32 ans, pour la température de l'air à la surface du Globe entier et des hémisphères Nord et Sud (de haut en bas).
Voici maintenant le tableau des coefficients de corrélation produits par cette analyse numérique, pour les différents intervalles choisis : Table 3 : Coefficients (R) de corrélation croisée entre la température de l'air en surface et le nombre de taches solaires (Sunspot Number).
Comme on le voit et comme cela est précisé dans le résumé et la conclusion, les coefficient d'autocorrélation sont nettement plus élevés pour la Bande 4 (cycles de 22 ans) que pour la Bande 3 (cycles de 11 ans). 4. Conclusions
Rappels : A noter que cette observation sur l'importance primordiale des cycles de 22 ans pour le climat, corrobore les résultats de plusieurs études antérieures telles que celles que j'ai mentionné dans plusieurs billets. Il en va ainsi d'une étude R.V. Baker qui a publié un article particulièrement détaillé sur les corrélations entre les cycles solaires de 22 ans (2×11 cycles de Hale) et les fluctuations du SOI (Indice des oscillations Sud) de l'Est de l'Australie. Cet article est intitulé "Analyse exploratoire des similarités entre les phases magnétiques des cycles solaires et des fluctuations du SOI, dans l'Est de l'Australie". De même, Will Alexander qui a analysé une grande quantité de données sur l'hydrologie, notamment, africaine, a identifié une nette périodicité de ~21 ans correspondant aux cycles solaires magnétiques de Hale. J'ai évoqué une petite fraction de ses résultats dans un billet antérieur. Enfin, comme le savent les lecteurs de ce site, Nicola Scafetta a décomposé, en spectre de puissances, les données de température du Hadley Center UK, les données HadCRUT. Entre autres, il a trouvé un pic significatif autour de la fréquence de 20-21 ans, proche de celui qu'ont trouvé les auteurs de l'article présenté dans ce billet pour les données de température GISS/NASA. Dans le prolongement de l'article de Souza et al, voici le tout récent article de Nicola Scafetta. 2) Cycles climatiques : Comparaison entre les modèles et les observations. Influence du soleil et des planètes. La version complète du tout récent article de Scafetta (il est encore sous presse au JASTP) est disponible sur son site. Le titre : "Comparaison d'un modèle climatique empirique à l'échelle décennale basé sur des harmoniques astronomiques avec les modèles de circulation générale du GIEC (2007)" Sous-presse au JASTP. Accepté le 10 Décembre 2011. Le résumé de l'article de Scafetta est tout à fait explicite. Le voici en VO d'abord, puis en français : Abstract : We compare the performance of a recently proposed empirical climate model based on astronomical harmonics against all CMIP3 available general circulation climate models (GCM) used by the IPCC (2007) to interpret the 20th century global surface temperature. The proposed astronomical empirical climate model assumes that the climate is resonating with, or synchronized to a set of natural harmonics that, in previous works (Scafetta, 2010b, 2011b), have been associated to the solar system planetary motion, which is mostly determined by Jupiter and Saturn. We show that the GCMs fail to reproduce the major decadal and multidecadal oscillations found in the global surface temperature record from 1850 to 2011. On the contrary, the proposed harmonic model (which herein uses cycles with 9.1, 10–10.5, 20–21, 60–62 year periods) is found to well reconstruct the observed climate oscillations from 1850 to 2011, and it is shown to be able to forecast the climate oscillations from 1950 to 2011 using the data covering the period 1850–1950, and vice versa. The 9.1-year cycle is shown to be likely related to a decadal Soli/Lunar tidal oscillation, while the 10–10.5, 20–21 and 60–62 year cycles are synchronous to solar and heliospheric planetary oscillations. We show that the IPCC GCM’s claim that all warming observed from 1970 to 2000 has been anthropogenically induced is erroneous because of the GCM failure in reconstructing the quasi 20-year and 60-year climatic cycles.
Compte-tenu des restrictions de longueur imposées par les éditeurs de journaux scientifiques, il est maintenant d'usage d'accompagner l'article principal d'un "supplementary material" qui se révèle, fréquemment, contenir un grand nombre de données intéressantes. Celui de Scafetta ne fait pas exception à cette règle et de fait Le "matériel supplémentaire" y est particulièrement abondant. Il donne en particulier, toute une série de graphes comparant les résultats des modèles numériques utilisés par les grandes institutions (dont Météo-France et l'IPSL français) avec les données observées de température. J'en conseille vivement la lecture. Le raisonnement de Scafetta qui est à la base de cette publication est assez direct. On peut l'expliquer à partir de quelques graphiques tirés de l'article original et de ses articles antérieurs.
La décomposition en spectres de puissance des données de températures des principaux instituts HadCRUT3, GISTEMP, GHCH (à noter que les données satellitaires sont exclues parce qu'elles n'ont débuté qu'en 1979) montre nettement la présence de composantes cycliques de périodes 60-62 et 20-21 ans ainsi que des composantes de plus courtes périodes. Les trois spectres présentent les mêmes données cycliques.
Comme je l'ai rapporté dans un précédent billet, Scafetta et al, ont calculé la décomposition en spectre de puissance de la vitesse du soleil par rapport au centre de gravité du système solaire en fonction du temps (Le SSMC (Solar System Mass Center)). Ils ont comparé ce spectre à celui qu'ils avaient calculé à partir des données de température HadCRUT. Ils ont trouvé ceci : On retrouve, dans le spectre de vitesse du SSMC du système solaire, à très peu près, les mêmes fréquences fondamentales que dans le spectre des données de température. Comme les données de température obtenues avec les autres bases de données, GISTEMP et GHCN présentent sensiblement le même spectre que le HadCRUT, Scafetta en conclut que les températures du globe sont influencées par la disposition des grandes planètes (Saturne, Jupiter) par rapport au soleil qui modulent la vitesse du SSMC. S'agissant de corrélation (qui ne sont pas raison) il ne peut évidemment jamais être exclu qu'il s'agisse là d'une série de coïncidences fortuites. Néanmoins, si c'est le cas, et compte tenu du nombre de "coïncidences" il faudrait reconnaître que la Nature est plutôt facétieuse. A noter que ce point de vue mis en avant par les travaux de Landsheidt et de Fairbridge est également défendu par plusieurs physiciens russes. Remarquez, une fois encore, la présence des cycles de 60-62 ans (très souvent mentionnés dans ce site) et de 21 ans dont la période est très proche des cycles de Hale mentionnés dans l'article commenté ci-dessus. Scafetta examine ensuite, de manière systématique, les résultats des modélisations des différents modèles GCM utilisés par le GIEC. Vous en trouverez la liste complète avec les graphes correspondants dans le "matériel supplémentaire" (section 2, pages 23-28) de l'article cité. A titre d'exemple et s'agissant du public francophone, je me contente de reproduire ci-dessous les résultats obtenus avec de très gros ordinateurs, par le modèle CNRM-CM3 de Météo-France tels qu'on peut les trouver dans l'article, accompagné du commentaire de Scafetta.
La partie haute de ce graphique (en rouge) représente l'évolution de la température globale donnée par le HadCRUT3. La partie basse (en bleu) donne les résultats des simulations numériques de Météo-France pour la même période.
Scafetta écrit : "Institution: Météo-France / Centre National de Recherches Météorologiques, France
A noter qu'un peu plus loin dans le "matériel supplémentaire" de l'article, Scafetta reproduit les résultats du modèle CMI3 de l'IPSL (Dir. Le Treut, Jouzel) avec un commentaire analogue : "Notez que la simulation croît de manière tout à fait monotone avec une dynamique des fluctuations sans rapport avec les observations."
D'où, la conclusion de Scafetta : "le modèles GCM échouent dans la reproduction des principales oscillations décennales et multidécennales trouvées dans les enregistrements de la température de 1880 à 2011." Dans le corps du texte, Scafetta écrit :
L'analyse en spectres de puissance permet également de tester la validité de la décomposition ainsi que d'effectuer des projections (des prévisions). C'est ainsi que Scafetta montre que si on avait connu cette décomposition spectrale en 1950, on aurait pu prévoir avec succès, la variation de la température de 1950 à 2011. Et vice versa, c'est à dire, selon Scafetta, que si l'on connaît les cycles donnés par la décomposition spectrale, et les températures de 1950 à 2011, on est capable de rétro-calculer les variations de températures des 80 années précédentes.
Utilisant ces données sur la décomposition spectrale et les données de température connues, Scafetta suggère une prévision pour les années à venir et les compare aux prévisions (scénarios, projections) du GIEC (en vert sur la figure ci-contre). A noter que les projections du GIEC sont constamment réactualisées (ici à partir de 2000), sans doute de manière à mieux coller à la réalité qui a été observée (!). Malgré tout et comme on le voit, la divergence est très importante. Pour ce qui en est de l'année 2100, Scafetta déclare "les émissions anthropiques projetées par le GIEC impliqueraient un réchauffement climatique d'environ 0.3-1,2 °C vers 2100 selon notre modèle, contrairement au réchauffement projeté par le GIEC qui est de 1.0-3.6 °C."
A noter que, pour ce qui concerne le débat actuel sur le climat, les cycles de 60 ans jouent un rôle crucial. En effet, la plupart des affirmations des supporters du GIEC (notamment pour ce qui concerne la fonte de l'arctique) ne remontent guère dans le temps au delà de 1979 parce que c'était le début de l'ère satellite. Or, comme on le voit, la période 1979-2000 correspond précisément à une arche montante de l'oscillation fondamentale de période 60 ans. Comme le dit Scafetta, cette oscillation naturelle est, au moins en grande partie, responsable du réchauffement (soi-disant "sans précédent" selon les médias et quelques autres), des trente dernières années du XXème siècle. De fait, il apparaît que la période récente (1979 -2000) qui correspond à une arche montante a été particulièrement favorable aux alarmistes du climat. Les lecteurs familiers de ce site me manqueront pas de noter la similitude de ce graphe de Scafetta avec celui de Klyashtorin et al (dont le graphe date de 2003) reproduit ci-contre, ainsi d'ailleurs qu'avec ceux de Shlesinger et Ramankutty, William Gray et al, S.I Akasofu, d'Aleo, et Mojib Latif tels que je les avais présentés dans cette chronique (2009). Il faut préciser que Scafetta ne fait nullement mention de l'évolution à long et moyen terme de l'activité du soleil qui peut sérieusement altérer ses prévisions. C'est pour cette raison qu'il écrit prudemment dans son résumé que Parmi ces cycles naturels qui peuvent agir efficacement sur le climat, figurent l'évolution de l'activité solaire dans les années à venir. Comme je l'ai plusieurs fois indiqué dans ce site, de nombreux articles récents (voir ce billet et les suivants) prévoient, sur la base de multiples observations, une nette baisse de l'activité solaire dans les années et les décennies à venir. Une des questions qui fait débat est de savoir si nous risquons de rentrer dans un minimum du type Dalton (une période froide comme vers 1812) ou, plus profond et plus durable, de Maunder (une période froide comme vers 1650-1730). Voici donc un (bref) compte-rendu d'un article qui vient de paraître sur ce sujet et qui vient compléter la longue liste des prévisions sur l'activité solaire à venir. 3) Selon Mike Lockwood et ses collègues, un Minimum du type Maunder semblerait se profiler à l'horizon… L. Barnard, M. Lockwood, and M. J. Owens, Space Environment, Physics, Department of Meteorology, University of Reading. UK Le titre : "La persistance des indicateurs de l'activité solaire et la descente du soleil dans des conditions du Minimum de Maunder." Les lecteurs qui connaissent bien se site se souviennent qu'il a souvent été fait mention de Mike Lockwood (de l'Université de Reading UK) dans plusieurs billets. En particulier, il a participé (avec Claus Fröhlich) à une polémique assez vive avec Wilson et Scafetta, ainsi qu'avec Henrik Svensmark au sujet de l'utilisation des données PMOD au lieu et place des données ACRIM (mesures de la TSI (Total Solar Irradiance)) comme je l'avais évoqué dans ce billet. Mike Lockwood et Claus Fröhlich avaient carrément affirmé (rapporté par Nature) en 2007 que leurs travaux enfonceraient "the last nail in the coffin" comme disent les américains ( "le dernier clou dans le cercueil"), des tenants de la thèse des effets des cycles solaires sur la température terrestre. Ce qui était loin d'être le cas. Et de fait, quelques années plus tard, peut-être motivé par la survenue du grand silence éruptif des années 2008-2009 Mike Lockwood (sans Claus Frohlich) a publié plusieurs articles montrant, à son tour, un lien effectif entre l'activité solaire et le climat (notamment dans l'hémisphère Nord et en hiver). A noter que Lockwood attribue les effets observés à la variation considérable des émissions solaires ultraviolettes durant les éruptions solaires. J'ai évoqué ces travaux dans ce billet. On comprend dès lors que Mike Lockwood s'intéresse de très près aux prévisions sur l'activité future du Soleil dont il est d'ailleurs un des bons spécialistes.. Voici le résumé de cet article récent en VO suivi d'une traduction en français : Abstract :
Ce résumé n'est certainement pas d'une grande clarté pour les non-spécialistes. Quelques précisions sont indispensables : -Sur les Sunspot Number RZ (Nombre de Taches) et RG ( Nombre de Taches Groupées) : Le graphe suivant présente la variation du Nombre de Taches Groupées lors du passage d'un cycle au suivant, d'environ 1630 à l'an 2010. On pourrait dire qu'il s'agit d'une sorte de dérivée par rapport au temps (mais avec un incrément égal à une distance entre deux cycles successifs) du nombre de taches solaires aperçues dans chaque cycle successif. Pour ce qui concerne la période actuelle, Lockwood et al ont reporté sur ce graphique les données connues jusques et y compris celles, prévues, du cycle solaire 24 en cours. Comme on peut l'observer sur la partie droite du graphique, nous assistons actuellement et depuis 1985 environ à une variation notable du Nombre de Taches Groupées d'un cycle à l'autre. L'amplitude observée est effectivement de l'ordre de celle qui fut observée lors de la descente dans le précédent Minimum de Maunder.
"Figure 5. Variations des changements du Sunspot Number groupé, d'un cycle au suivant (DRG) (NdT : Lire Delta R indice G, c'est à dire la variations du Nombre de Taches Groupé). . Les bandes verticales grises (pair) et blanches (impair) symbolisent la parité du numéro du cycle. Les cercles rouges et les points noirs avec les barres d'erreur ainsi que les lignes en tiretés rouges et noirs font usage des prédictions pour le cycle 24 de Owens et al [2011b] pour, respectivement, les valeurs aux pics et les valeurs moyennes.
S'agissant de prédictions du comportement du soleil, il convient d'être prudent. La physique du soleil est très loin d'être comprise. D'ailleurs, les spécialistes ne sont pas d'accord sur ce sujet : Entre autres, Samir Solanki hésite mais penche plutôt pour une baisse d'activité limitée. Jager pour un Minimum de Dalton ou, mais c'est moins probable selon lui, un Minimum de Maunder…Bref, personne n'est sûr de rien. Nous verrons bien ! Ainsi va la science. Note : Les résultats des mesures de la température globale moyenne (et mois par mois), pour l'année 2011, seront bientôt tous disponibles. Le prochain billet leur sera consacré. Ceci est à l'opposé de ce qu'a voulu vous faire croire (et parfois réussi, hélas) une campagne éhontée menée par un certain nombre (mais pas tous) de médias qui ont dissimulé au public le fait que les affirmations d'un simple bulletin de Météo-France ne concernaient guère que notre pays (c'est à dire peu plus d'un millième de la surface du globe) et non pas le Globe tout entier qui lui, au contraire, s'est refroidi. |
|||||||||||||||||||
06 Avril 2012 :Les recherches qui analysent l'influence de l'activité solaire sur le climat se multiplient … Parmi d'autres, et dans la ligne des trois précédents que j'avais analysés (ci-dessus) en Janvier 2012, voici encore six nouveaux exemples d'articles scientifiques, tous publiés récemment, qui (re)découvrent les effets "cachés" du soleil sur le climat. 1) Cycles solaires et climat hivernal de l'hémisphère Nord Pour tous ceux qui s'interrogent sur l'influence des variations de l'activité solaire sur le climat, l'article commenté ci-dessous constitue une première. Jusqu'à présent, les effets possibles des variations de l'irradiance solaire sur le climat étaient plus ou moins ignorés ou laissés de côté (Voir le rapport AR4 du GIEC), parce que la variation globale de la TSI (le flux total intégré sur toutes les longueurs d'onde) est très faible (environ 0,1%) et qu'ils ne ressortaient pas des modèles informatiques du climat. Le titre : "Forçage solaire de la variabilité du climat hivernal dans l'hémisphère Nord." Voici le résumé original (les citations ont été retirées. Elles ne sont d'aucune utilité à moins de disposer de l'article complet (et payant)), suivi d'une traduction en français : Abstract : An influence of solar irradiance variations on Earth’s surface climate has been repeatedly suggested, based on correlations between solar variability and meteorological variables. Specifically, weaker westerly winds have been observed in winters with a less active sun, for example at the minimum phase of the 11-year sunspot cycle.With some possible exceptions, it has proved difficult for climate models to consistently reproduce this signal. Spectral Irradiance Monitor satellite measurements indicate that variations in solar ultraviolet irradiance may be larger than previously thought. Here we drive an ocean–atmosphere climate model with ultraviolet irradiance variations based on these observations. We find that the model responds to the solar minimum with patterns in surface pressure and temperature that resemble the negative phase of the North Atlantic or Arctic Oscillation, of similar magnitude to observations. In our model, the anomalies descend through the depth of the extratropical winter atmosphere. If the updated measurements of solar ultraviolet irradiance are correct, low solar activity, as observed during recent years, drives cold winters in northern Europe and the United States, and mild winters over southern Europe and Canada, with little direct change in globally averaged temperature. Given the quasiregularity of the 11-year solar cycle, our findings may help improve decadal climate predictions for highly populated extratropical regions.
Comme c'est souvent le cas, la fin de l'article rapporte quelques remarques intéressantes. Notamment, on peut y lire ceci : "On decadal timescales the increase in the NAO from the 1960s to 1990s, itself known to be strongly connected to changes in winter stratospheric circulation, may also be partly explained by the upwards trend in solar activity evident in the open solar-flux record. There could also be confirmation of a leading role for the `top-down' influence of solar variability on surface climate during periods of prolonged low solar activity such as the Maunder minimum if the ultraviolet variations used here also apply to longer timescales."
Dans le même numéro, Nature Geoscience publie, dans sa section "News and Views", un commentaire/explication des résultats obtenus par Ineson et al. Voici, ci-dessous, l' en-ête de ce commentaire ("Cycle solaire et prédictions climatiques") illustré par une image qui décrit la situation de l'hémisphère Nord dans le cas d'une NAO négative. Dans sa phase négative, l'Oscillation Atlantique Nord (NAO) (ou l'Oscillation Arctique (AO), voir page "indicateurs") résulte en un affaiblissement des vents d'Ouest, doux et chargés d'humidité, et d'une descente d'air froid sur les Etats-Unis et l'Europe du Nord comme cela est représenté sur l'image ci-dessous à droite. Cycles solaires et prédictions climatiques : Le texte de l'intitulé : "L'impact de l'activité solaire sur le climat est un sujet âprement débattu. Des simulations effectuées avec un modèle climatique et des observations récentes de la variabilité solaire suggèrent qu'il existe une influence substantielle sur le climat hivernal dans l'hémisphère Nord." "Phase négative de l'Oscillation Nord Atlantique. Quand l'indice NAO est faible, comme il l'a été durant les hivers de 2008/2009 à 2010/2011, la trajectoire des orages Nord Atlantique est peu marquée [NdT : Ce qui signifie que les perturbations adoucissantes venant de l'Atlantique sont affaiblies] et que l'Europe du Nord subit des hivers froids . Les simulations numériques du climat d'Ineson et de ses collègues suggèrent que la variation de l'irradiance UV quand on passe d'un maximum d'activité solaire à un minimum – estimés d'après les mesures de SORCE – poussent l'atmosphère de l'hémisphère Nord vers la phase négative de la NAO." L'auteur de ce commentaire, Katja Matthes, attire l'attention sur le fait qu'il s'agit de résultats préliminaires qui demandent – bien sûr – confirmation. ______________________________________________________________________________________________________ 2) Activité solaire et fluctuations hydroclimatiques Voici maintenant un article tout récent, publié dans les GRL et intitulé "La composante hydrologique du climat du Nord-Est des Etats Unis est hautement sensible au forçage solaire."
1Department of Geological Sciences, Brown University, Providence, Rhode Island, USA. Abstract : Dramatic hydrological fluctuations strongly impact human society, but the driving mechanisms for these changes are unclear. One suggested driver is solar variability, but supporting paleoclimate evidence is lacking. Therefore, long, continuous, high-resolution records from strategic locations are crucial for resolving the scientific debate regarding sensitivity of climate to solar forcing. We present a 6800–year, decadally-resolved biomarker and multidecadally-resolved hydrogen isotope record of hydroclimate from a coastal Maine peatland, The Great Heath (TGH). Regional moisture balance responds strongly and consistently to solar forcing at centennial to millennial timescales, with solar minima concurrent with wet conditions. We propose that the Arctic/ North Atlantic Oscillation (AO/NAO) can amplify small solar fluctuations, producing the reconstructed hydrological variations. The Sun may be entering a weak phase, analogous to the Maunder minimum, which could lead to more frequent flooding in the northeastern US at this multidecadal timescale.
A noter que cet article qui, lui, résulte de données observationnelles, parvient à une conclusion assez voisine (c'est à dire sur l'effet amplificateur via la NAO et l'AO des effets du soleil lors des éruptions solaires) de celui qui précède et qui résultait, lui, d'une modélisation numérique. Après une longue période de silence, voire de dénégation quant aux effets de l'activité solaire, il semble que l'on progresse du côté des laboratoires et des institutions traditionnellement proches du GIEC. _________________________________________________________________________________________________________________ 3) Activité solaire et climat (température et pluviométrie) au Brésil : Voici encore un autre article récent qui établit le lien cycles solaires/climat. Il vient de paraître dans le JASTP (Journal of Atmospheric and Solar-Terrestrial Physics) sous la signature d'un groupe de chercheurs brésiliens. Son titre : Variabilité des paramètres de la pluviométrie et de la température (1912-2008) mesurés à Santa Maria et leurs connexions avec l'ENSO et l'activité solaire. Publié online le 24 décembre 2011. a b s t r a c t :
En bref et selon cette étude :
A noter que cette observation sur l'importance primordiale des cycles de 22 ans (de Hale) pour le climat et surtout pour la pluviométrie, corrobore les résultats de plusieurs études antérieures telles que celles que j'ai mentionné dans plusieurs billets antérieurs. Il en va ainsi d'une étude R.V. Baker qui avait publié un article particulièrement détaillé sur les corrélations entre les cycles solaires de 22 ans (2×11 cycles de Hale) et les fluctuations du SOI (Indice des oscillations Sud) de l'Est de l'Australie. Cet article est intitulé "Analyse exploratoire des similarités entre les phases magnétiques des cycles solaires et des fluctuations du SOI, dans l'Est de l'Australie". De même, Will Alexander qui a analysé une grande quantité de données sur l'hydrologie, notamment, africaine, a identifié une nette périodicité de ~21 ans correspondant aux cycles solaires magnétiques de Hale. J'ai évoqué une petite fraction de ses résultats dans un billet précédent . Enfin, comme le savent les lecteurs de ce site, Nicola Scafetta a décomposé, en spectre de puissances, les données de température globales du Hadley Center UK, (HadCRUT3). Entre autres, il a trouvé un pic significatif autour de la fréquence de 20-21 ans, proche de celui qu'ont trouvé les auteurs de l'article présenté ci-dessus. __________________________________________________________________________________________________ Voici maintenant une analyse intéressante des reconstructions des températures (et de salinité) de la surface de l'océan durant les 10.000 dernières années qui montre, entre autres, l'intervention des facteurs naturels durant l'Holocène et notamment ceux qui sont liés à l'activité solaire. Les lecteurs qui ont parcouru cette page savent que ce genre de signature a été rencontré à de multiples reprises dans un grand nombre d'indicateurs répartis sur toute la planète. Dans cet article, les indicateurs (les proxys) sont deux espèces planctoniques foraminifères. 4) Climat et cycles solaires durant les 10000 ans passés : 1Laboratoire des Sciences du Climat et de l’Environnement, CEACNRS-UVSQ/IPSL, Gif-sur-Yvette, France. L'introduction de cet article constitue un résumé pertinent de l'état des connaissances en matière de paléoclimatologie de l'Holocène qui est la période géologique qui couvre les quelques 10.000 dernières années. En voici deux larges extraits : 1. Introduction (extraits) [3] External climate forcing across the Holocene changed with both solar insolation and, on shorter timescales, solar irradiance (sun activity). At 30°N, changes in the configuration of the earth’s orbit from 10 to 0 ka resulted in a summer insolation decrease but a very weak mean annual insolation increase (+0,025 Watt/m2 [Laskar, 1990; Laskar et al., 2004]). On top of these orbital settings, solar irradiance varies on much shorter time scales. Its impact on Earth shows a high frequency variability of about 1 Watt/m2 over the last 9.3 ka [Steinhilber et al., 2009]. Recent events, like the Maunder Minimum (17th century), illustrated climate sensitivity to solar variation [Waple et al., 2002]. On the millennial time scale, periodicities of about 2250-year, 1000-year, 550-year, 400-year or 220-year [Debret et al., 2007; Dima and Lohmann, 2009; Knudsen et al., 2009; Rimbu et al., 2004; Steinhilber et al., 2010] have been attributed to solar variability. Model simulation [Swingedouw et al., 2011] and past reconstructions [Knudsen et al., 2009; Lohmann et al., 2004; Morley et al., 2011] support an ocean atmosphere mechanism amplifying the impact of small total irradiance change on the climate.[…] Traduction :
A noter, en particulier, que, parmi d'autres, diverses versions des résultats de Knudsen et al, 2009 mentionnés ici, sont citées à plusieurs reprises, plus haut dans cette page. Et enfin, voici la fin de la conclusion de cet article : "In this paper, we present temperature and salinity reconstructions off Cape Hatteras (North Carolina, USA) that cover the last 10 ka and discuss variability at the centennial millennial time scale. We combined trace element and oxygen isotopic composition analyses on two planktonic foraminifera species to estimate past SST, past surface seawater oxygen isotopic values (a proxy for salinity) and upper thermocline conditions. We performed wavelet analysis on high-resolution surface reconstructions to find the periodicity embedded in our signals. In the discussion, we first compare our results with northeastern Atlantic climate reconstructions and evaluate NAO-like patterns. Second, we compare the paleo-hydrology off Cape Hatteras with a past reconstruction from a Great Bahamas Bank core, which represents the ‘pure’ Gulf Stream signal, and discuss the possible link with large-scale currents or MOC changes. Finally, we discuss the periodicities highlighted by the wavelet analysis and suggest a solar origin."
___________________________________________________________________________________________ Les lecteurs attentifs se souviennent des travaux, publiés en 1991, de deux chercheurs Danois Friis-Christensen et Lassen (Science 254, 698, 1991). Ces chercheurs avaient publié un graphe remarquable qui mettait en évidence une corrélation possible entre l'évolution de la température et la durée des cycles solaires (de Hale). Bien que ces résultats, qui ont probablement donné naissance à ce que Svensmark a appelé la "cosmoclimatologie", aient été confirmés (et prolongés) par d'autres groupes de chercheurs (voir ici et ici), le doute a subsisté jusqu'à ce jour parce que la corrélation ne semblait pas se prolonger au delà des années 1990. Voici un article tout récent qui confirme l'existence d'une corrélation 'durée des cycles solaires/ températures' jusqu'à nos jours, au moins pour plusieurs stations de l'hémisphère Nord. L'analyse montre que la corrélation requiert un retard de 11 ans environ. 5) Durée des cycles solaires et températures dans l'hémisphère Nord. Titre : " Le cycle solaire de longue durée N°23 prédit une baisse de température significative lors du cycle N°24." Abstract Résumé :
Cette dernière phrase est cohérente avec les conclusions des deux premiers articles cités dans ce billet.
Les auteurs ont analysé les relevés de température de plusieurs stations météorologiques situées dans l'hémisphère Nord. Voici, ci-contre, les situations des 13 stations choisies pour la fiabilité de leurs relevés, impliquées par cette étude.
Comme on peut le constater, ces stations sont réparties entre le Groenland, l'Islande, L'Irlande (Armagh), La Norvège, la Russie, L'île de Svalbard etc.
Voici, ci-dessous et à titre d'exemple, les relevés effectués à la station de Torshavn. L'article rapporte des relevés similaires pour toutes les autres stations indiquées ci-dessus. La partie centrale de ce groupe de graphes montre qu'il n'existe apparemment pas de corrélation entre les variations de température et la longueur du cycle de Schwabe (La température ne varie pas en fonction de la longueur du cycle, graphe de gauche). Par contre, on voit dans la partie droite du graphe (colorée en bleu par mes soins) qu'il existe une corrélation significative (à 95%, entre les lignes en pointillé, selon les auteurs) entre la durée du cycle précédant la mesure de température et cette dernière. Ce type de corrélation négative (c'est à dire que la température diminue quand la durée du cycle de Schwabe précédent s'allonge) se retrouve dans la totalité des treize stations météorologiques analysées. Le graphe situé en haut indique le résidu des variations de températures lorsque l'on a soustrait la contribution des cycles solaires. Celui du bas montre la variation de température de 1890 à 2008 (traits fins noir) à laquelle est superposée la tendance moyenne de la température. Le symbole "diamant" figurant sur la droite du graphique, indique la prévision des auteurs sur la température vers la fin du cycle 24.
En bref (au moins pour les zones étudiées dans cet article) :
_______________________________________________________________________________________________________ Pour sa part, Nicola Scafetta poursuit ses recherches sur l'influence possible des grandes planètes (Jupiter et Saturne) qui gravitent autour du soleil comme je l'avais décrit dans un billet antérieur. Selon ses travaux (et ceux d'équipes Russes), ce sont les diverses configurations de ces planètes autour du soleil qui donneraient lieu aux variations climatiques cycliques (notamment le fameux cycle d'environ 60 ans souvent mentionné) observées sur la Terre. 6) Nicola Scafetta : Le soleil, Jupiter, Saturne et le climat sur Terre : Disponible online 8 Mars 2012. Titre : "Modèle harmonique multi-échelle pour les variations cycliques du climat durant l'Holocène, basé sur les fréquences des forces de marée Jupiter-Saturne plus le cycle de la dynamo solaire de 11 ans. " Cet article fait allusion aux "forces des marées". En effet, Nicola Scafetta (et d'autres) envisage la possibilité que les mouvements des grandes planètes et leurs situations relatives autour du soleil, exercent, sur ce dernier, des forces analogues à celles qu'exerce la lune sur les océans terrestres. Cependant, la physique du soleil, et notamment celle de son activité éruptive, sont si mal connues qu'il est très difficile d'avancer un calcul précis sur les effets mis en jeu. Tout cela relève donc encore du domaine des hypothèses, bien confortées, il est vrai, par une série d'observations qui peuvent difficilement être considérées comme fortuites. Le graphe suivant montre la superposition de la reconstruction de température de Ljungqvist (2010) qui couvre les 2000 dernières années avec les résultats de la superposition harmoniques (traits verticaux rouges) obtenue par Scafetta. La coïncidence est remarquable.
RWP : Période chaude romaine.
En bref (selon le JASTP) :
_____________________________________________________________________________________________________ Conclusion : La variabilité solaire, longtemps délaissée (négligée, oubliée ?) par les climatologues mainstream et notamment par le GIEC dans son dernier rapport AR4 (2007), semble actuellement faire l'objet d'un regain d'intérêt. " Je suis absolument convaincue que plus d'efforts doivent être consacrés à la détermination des effets du soleil sur notre climat. Le soleil fait l'objet d'un intérêt croissant (et les budgets aussi) et il y a actuellement un débat en cours sur l'interprétation des dernières mesures satellitaires (NdT : Judith Curry fait sans doute allusion aux derniers résultats de SORCE qui montrent que les variations dans l'ultraviolet, lors des éruptions, sont beaucoup plus importantes qu'on ne le pensait), quant à la reconstruction de l'activité solaire des temps passés et quant à la prédiction de la variabilité solaire pendant le XXIème siècle. Pratiquement tous les scientifiques spécialistes du soleil prédisent un certain refroidissement du soleil lors du siècle à venir (NdT : Judith veut évidemment parler du XXIème), mais l'amplitude du refroidissement possible ou probable est un sujet chaudement débattu et hautement incertain." Wait and see !
|
|||||||||||||||||||
27 Octobre 2012 : L'Optimum Médiéval et le Petit Age Glaciaire retrouvés (une fois de plus) Au cours des années précédentes, je n'ai qu'assez rarement évoqué l'affaire, pourtant emblématique, de la "Crosse de Hockey" (une reconstruction de l'évolution de la température moyenne du globe au cours des siècles écoulés) qui a été à l'origine d'une polémique persistante entre les tenants du GIEC et ses opposants durant plus d'une décennie, c'est à dire depuis 1998-1999 jusqu'à nos jours. De fait, la couverture de cette sorte de feuilleton à multiples épisodes, aurait fourni, à elle seule, matière à des sites encore plus fournis que celui-ci. Il faut dire que cette affaire est d'importance, comme vous allez le voir. Cependant, la résurgence toute récente d'une nouvelle crosse de hockey Australienne (qui concernait donc, cette fois-ci, l'hémisphère Sud alors que la crosse de hockey originelle ne concernait que l'hémisphère Nord) m'avait incité à rédiger un billet relativement détaillé sur ce sujet. Je vous y renvoie pour plus de détails techniques, notamment sur les méthodes statistiques assez "inhabituelles" utilisées et sévèrement remises en cause. Ce billet me donne l'occasion de faire le point sur la situation en cette fin Octobre 2012. 1) Introduction. Quelques rappels (en bref) : Que les connaisseurs me pardonnent, mais il est extrêmement difficile, sinon impossible, de résumer la longue et ténébreuse affaire de la crosse de hockey qui a précédé la publication de l'article commenté ci-dessous, en peu de mots. L'encart jaune qui suit est donc un peu copieux. Il est destiné aux nouveaux visiteurs. Les connaisseurs pourront passer directement au point 2.
2) 2012 – Les reconstructions "modernes" de la température moyenne de l'hémisphère Nord : Le retour de l'Optimum Médiéval et du Petit Age Glaciaire. Voici les références d'un article assez remarquable, publié en Avril dernier dans la revue (estimée par les pairs) "Climate of the Past".
Pour une fois, l'article original en anglais est libre d'accès (l'article complet). Son titre : "The extra-tropical Northern Hemisphere temperature in the last two millennia: reconstructions of low-frequency variability" "La température extra-tropicale de l'hémisphère Nord durant les deux derniers millénaires : reconstructions de la variabilité à basse fréquence." Les auteurs : Leurs affiliations : 1Danish Meteorological Institute, Copenhagen, Denmark Article publié le 18 Avril 2012 Voici le résumé original en anglais suivi d'une traduction en français : Abstract. We present two new multi-proxy reconstructions of the extra-tropical Northern Hemisphere (30–90° N) mean temperature: a two-millennia long reconstruction reaching back to 1AD and a 500-yr long reconstruction reaching back to 1500 AD. The reconstructions are based on compilations of 32 and 91 proxies, respectively, of which only little more than half pass a screening procedure and are included in the actual reconstructions. The proxies are of different types and of different resolutions (annual, annual-to-decadal, and decadal) but all have previously been shown to relate to local or regional temperature. We use a reconstruction method, LOCal (LOC), that recently has been shown to confidently reproduce low-frequency variability. Confidence intervals are obtained by an ensemble pseudo-proxy method that both estimates the variance and the bias of the reconstructions. The two-millennia long reconstruction shows a well defined Medieval Warm Period, with a peak warming ca. 950–1050AD reaching 0.6 °C relative to the reference period 1880–1960 AD. The 500-yr long reconstruction confirms previous results obtained with the LOC method applied to a smaller proxy compilation; in particular it shows the Little Ice Age cumulating in 1580–1720AD with a temperature minimum of −1.0 °C below the reference period. The reconstructed local temperatures, the magnitude of which are subject to wide confidence intervals, show a rather geographically homogeneous Little Ice Age, while more geographical inhomogeneities are found for the Medieval Warm Period. Reconstructions based on different subsets of proxies show only small differences, suggesting that LOC reconstructs 50-yr smoothed extra-tropical NH mean temperatures well and that low-frequency noise in the proxies is a relatively small problem.
Comme je l'avait mentionné dans le billet sur l'article de Gergis et al, la principale difficulté que rencontrent les "reconstructeurs" de température relève du fait qu'il n'existe de comparaison possible et donc d'étalonnage, qu'avec les données thermométriques de la période récente , typiquement depuis 1850 (ce qui a d'ailleurs conduit à l'erreur de "décentrage des composantes principales" signalée par McIntyre-McKitrick, Wegman et beaucoup d'autres). Les auteurs de cet article en sont conscients et le mentionnent. Pour éviter ce biais, ou du moins, en partie, le contourner, les auteurs ont compilé un nombre impressionnant de mesures données par des indicateurs très variés, distribués dans tout l'hémisphère Nord. Les indicateurs (carottages glaciaires, stalactites dans les grottes, sédiments lacustres et marins, pollens, données historiques et cernes de arbres (densité et épaisseur). Il y a ainsi pas moins de 91 séries d'indicateurs remontant jusqu'en 1500 AD et 32 remontant jusqu'au début de l'ère chrétienne. Après avoir mentionné les travaux précédents et notamment ceux de Michael Mann et al, les auteurs précisent que les précédentes reconstructions du climat ont "gravement sous-estimé" la variabilité et les tendances des températures durant les deux derniers millénaires. Dans la conclusion, les deux auteurs écrivent que : “The level of warmth during the peak of the MWP (Medieval Warm Period) in the second half of the 10th century, equaling or slightly exceeding the mid-20th century warming, is in agreement with the results from other more recent large-scale multi-proxy temperature reconstructions.” "Le niveau de réchauffement au pic de l'Optimum Médiéval durant la seconde moitié du Xème siècle, lequel est identique ou dépasse légèrement le réchauffement partant de la moitié du XXème siècle, est en accord avec les autres résultats des reconstructions multi-indicateurs les plus récents et à plus grande échelle." Comme on le voit sur les figures suivantes (tirées de la publication et accompagnées de leurs légendes) que voici :
(NB : Pour occuper moins de place que la figure originale, j'ai replacé la figure qui était en bas dans l'original à droite sur cette image).
Extraits de la légende de la Fig. 5 (voir l'original pour le texte détaillé et complet ) "Reconstruction de la température de l'hémisphère Nord extratropical (en °C) basée sur les indicateurs ombrés en gris de la table 1 qui remonte jusqu'à au moins 300 AD. La période de calibration est 1880-1960 AD… Les courbes en trait fin représentent les valeurs annuelles ; Les courbes en trait épais représentent des moyennes lissées sur 50 ans.." .."La courbe en vert représente la température moyenne de l'hémisphère Nord extra-tropical observée. La courbe en jaune montre la moyenne des températures sur les cellules de grille des indicateurs considérés. Toutes les courbes sont relatives à zéro pour la période 1880-1960." Note : Comme on peut le constater, selon les résultats de ce travail, d'une part, l'Optimum Médiéval, situé autour de l'an mil, est très apparent. Son amplitude est très comparable à celui de l'an 2000 et donc à celui de la décennie actuelle. D'autre part, et contrairement à ce qui est souvent affirmé par ailleurs, la vitesse du réchauffement actuel n'excède pas celle du réchauffement de l'Optimum Médiéval. A noter la présence très visible du Petit Age Glaciaire bien connu des historiens qui était également très apparente dans la "courbe de Lamb". Comparaison avec les reconstructions antérieures :
Fig. 6. "Quelques reconstructions antérieures de la température (Hegerl et al., 2007; Loehle and McCulloch, 2008; Huang et al., 2008; Mann et al., 2008, 2009; Ljungqvist, 2010; Christiansen and Ljungqvist, 2011) qui ont été par la suite publié dans le rapport AR4 du GIEC (Solomon et al., 2007) montrées avec les reconstructions LOC de cet article. Toutes les reconstructions sont reportées par rapport à la moyenne zéro de la période 1880–1960AD et ont été lissées sur 50 ans avec un filtre Gaussien. Les intervalles de confiance des reconstructions LOC de cet article (de la Fig. 5 à la Fig. 8) sont aussi indiquées (courbes en pointillés)."
Note : Comme on peut le constater, les reconstructions de Michael Mann et al. publiées jusqu'en 2008 et 2009 (vert et bleu roi), n'indiquent pratiquement aucun Optimum Médiéval, ce en quoi, elles sont assez proches de celle qu'ils avaient publiées en 1999…Elles diffèrent donc très nettement de celles des auteurs de l'article rapporté ici et d'une quantité d'autres reconstructions plus récentes. De manière à remettre en question l'assertion fréquemment avancée par le GIEC et/ou par ses adhérents selon laquelle l'Optimum Médiéval n'aurait guère été qu'un phénomène localisé et non pas à l'échelle d'un hémisphère tout entier, Ljungqvist et al. montrent que : “on centennial time-scales, the MWP is no less homogeneous than the Little Ice Age if all available proxy evidence, including low-resolution records are taken into consideration in order to give a better spatial data coverage.” "à l'échelle centenaire, l'Optimum Médiéval n'est pas distribué de manière moins homogène que ne l'est le Petit Age Glaciaire si on prend en compte tous les indicateurs disponibles, y compris les indicateurs a basse résolution (NdT temporelle) de manière à obtenir une meilleure couverture spatiale." ——————— Il serait très fastidieux d'énumérer la longue litanie des articles parus récemment qui montrent que l'Optimum Médiéval a été plus chaud ou aussi chaud que la période actuelle tels qu'on peut en trouver les références sur le site mentionné plus haut. Cependant à titre d'exemple, on peut citer la toute récente publication suivante qui est paru en Juillet dernier dans le Quaternary Research :
Bien sûr, il ne s'agit que de l'Est de la Chine mais on peut penser qu'il est quand même assez difficile de considérer qu'elle fait partie de l'Europe du Nord qui, selon le GIEC et ses adhérents, était la seule partie du monde à avoir connu un Optimum Médiéval… A noter également que l'existence de plusieurs périodes chaudes (entre autres Médiévale, Romaine et Minoénne) durant les 5000 ans écoulés est également très apparente dans les carottages glaciaires du Groenland GISP2 tels que je l'avais rapporté dans ce billet dont voici une illustration :
Enfin, pour tenter d'avoir une vue d'ensemble des publications qui ont analysé l'évolution de la température depuis au moins l'an mil, le site CO2 Science qui suit cette affaire depuis des années, propose une statistique sur le nombre des articles publiés dans la littérature qui ont trouvé que l'Optimum Médiéval était plus chaud (MWP >CWP) (CWP = Current Warming Period), également chaud (MWP = CWP) ou moins chaud (MWP < CWP) que la période actuelle. Voici le graphe : Comme on peut le constater et si on en croit cette statistique (il y en a une autre, plus quantitative, sur le site cité), les articles qui ont trouvé que la période médiévale (autour de l'an mil) était plus chaude ou aussi chaude que la période actuelles seraient donc plus de douze fois plus nombreux que ceux qui ont trouvé l'inverse. Bien entendu, ceci n'est que purement indicatif.
3 – Conclusion : Comme je l'ai souvent écrit dans ces pages, la science progresse à petits pas, envers et contre tout. Il n'est pas douteux que les conflits qui ont vu le jour entre les chercheurs sur cette question des reconstructions de la température, locale, régionale, hémisphérique ou globale, s'atténueront peu à peu. Dans ce genre de situation, plus fréquente dans l'histoire des sciences qu'on ne le croit généralement, l'évidence finit par triompher. En réalité, il n'existe pas de preuve absolue en matière de science. Il n'existe que des points de vue que personne n'a été capable de contredire de manière crédible. Cependant et pour ce qui est d'un Optimum Médiéval hémisphérique et même global, équivalent au réchauffement que nous connaissons, il apparaît que la balance des évidences accumulées penche de plus en plus en faveur de son existence. Il faudra bien que le GIEC le reconnaisse pour ce qu'il est et ne se contente pas de compiler les publications d'un petit groupe de chercheurs interconnectés. Dès lors, on pourra se poser la question à laquelle il faudra bien répondre un jour : Si la Nature, seule, a été capable de faire varier la température du globe de manière notable durant les millénaires précédents, pourquoi ne serait-elle plus capable de le faire de nos jours ? (h/t D.W). Vous l'avez compris, sous-jacente à cette question, se trouve la lancinante interrogation sur notre compréhension notoirement insuffisante des variations naturelles du climat de la planète qu'il faudra bien résoudre un jour, pour pouvoir (enfin) déterminer, avec une meilleure certitude, quelle est exactement l'influence de l'homme sur le climat. A suivre ! (évidemment)
|
|||||||||||||||||||
__________________________________________________________________________________________ 2007- Des compléments divers …
Le soleil : Activité éruptive plus intense depuis 1940 que durant les 1150 années qui ont précédé jusqu'à récemment, où il semble endormi. Mercure : Découverte d'un surprenante glace polaire accompagnée d'un champ magnétique intrinsèque intense et inattendu pour ce que l'on supposait être une planète "morte". Venus : Augmentation d'un facteur 25 (!) de la lumière de l'aurore et la plus grande variation de l'atmosphère globale en moins de 30 ans. Jupiter : Doublement de la brillance des nuages de plasmas environnants. Apparition de large taches rouge et équateur en réchauffement de 10°F. Saturne : Décroissance brutale des vitesses des vents équatoriaux, en seulement 20 ans, accompagnée par une étonnante augmentation de l'émission des rayons X de l'équateur. Uranus : Très importantes variations de brillance accompagnées d'une activité nuageuse accrue. Neptune : Augmentation de 40% de la brillance atmosphérique. Un article intéressant à ce sujet est paru en avril 2007. Cet article intitulé " Corrélation suggestive entre la brillance de Neptune, la variabilité solaire et la température terrestre " est signé par deux chercheurs américains, H. B. Hammel et G. W. Lockwood (Geophysical Research Letters , vol. 34, L08203, doi:10.1029/2006GL028764, 2007) (résumé ici). Ils rapportent, en particulier, le diagramme suivant :
En dessous sont représentées les courbes classiques de la température terrestre (avec son "trou" vers 1975), l'irradiance totale du soleil (notez que les variations ne sont que de 2% environ) tout comme le flux UV issu du soleil (courbe du bas). Personne ne niera que les variations de luminance de Neptune sont indépendantes du CO2 rejeté par l'homme !
Pourtant ces variations de températures terrestres et de luminance de Neptune (avec un retard de 9 ans pour que le système Neptunien se thermalise) semblent bien corrélées (et aussi avec le soleil). Voici ce qu'en concluent nos deux checheurs qui sont tout à fait conscient de la faiblesse de la statistique sur une période aussi limitée : " Si les variations de brillance et de température de deux planètes sont corrélées, c'est qu'un changement climatique planétaire doit être dû à des variations dans l'environnement du système solaire" (NDLR cad : cela vient du soleil !) Pluton : Réchauffement intense avec un triplement de la pression atmosphérique… alors que Pluton est en train de s'éloigner du soleil… Toutes ces observations proviennent de sources sûres dont la NASA. Elles révèlent que non seulement la Terre, mais l'ensemble du système solaire, tout entier, est rentré dans une phase de changement et notamment de réchauffement intense. Quand on voit les énormes variations qui règnent sur nos compagnes du système solaire, on se dit qu'avec nos petits +0,6° C/100 ans, nous avons encore bien de la chance ! Bien entendu, les astrophysiciens et les chercheurs qui scrutent ces planètes à la loupe, cherchent des explications plus ou moins locales pour expliquer toutes ces variations. Quoiqu'il en soit, il est pour le moins surprenant que, de manière concomitante, les planètes du système solaire, y compris la nôtre, subissent d'assez brusques modifications de l'atmosphère, de la température, de la brillance etc. Il ne faut pas en tirer de conclusions trop hâtives, bien entendu, mais on ne peut s'empêcher de remarquer que toutes ces variations inattendues coïncident avec une recrudescence tout à fait exceptionnelle de l'activité de l'astre solaire qui devrait se terminer très prochainement, ce qui, disent certains, devrait refroidir très sérieusement notre planète dans les années à venir (et augmenter la pluviométrie) …Mais, chez nous et seulement chez nous, bien sûr, comme nous le serinent les médias, les écologistes et le GIEC, c'est vous même et le CO2 que vous rejetez qui êtes les grands responsables ! Allez voir cette page pour en savoir plus sur les prévisions pour les années à venir … |
|||||||||||||||||||
: Quelques articles supplémentaires qui mettent en défaut la thèse du GIEC: Des chercheurs de l'effet de serre anthropique font évoluer les thèses en vigueur. D'autres les mettent en défaut… En ce mois d'août 2007, nous assistons à un véritable tournant ("a tipping point" comme disent les alarmistes des glaces du Groenland) dans l'histoire de la science du réchauffement climatique. En effet, et exactement comme l'a déclaré récemment le Dr. Madhav L. Khandekar qui est un expert relecteur du dernier rapport du GIEC (voir ici) " … un nombre croissant de scientifiques s'interrogent sur la validité de l'hypothèse du réchauffement de la surface terrestre par les gaz à effet de serre. Il suggèrent une plus forte participation que ce que l'on pensait, de la variabilité solaire et de la circulation atmosphérique à grande échelle sur les températures observées." 1) On garde l'effet de serre mais on lui ajoute un zest de variabilité naturelle : Un article tout à fait révélateur à ce sujet (parmi d'autres), vient de paraître dans la revue Science du 11 août 2007. Cet article intitulé " Improved surface température prediction for the coming decade from a global climate model" (en français : Prédiction améliorée de la température de surface pour la décennie à venir à partir d'un modèle climatique global". Bien que le titre fasse un peu "pompeux", les auteurs (Smith, Cusak, Colman, Folland, Harris et Murphy du Met Office Hadley Centre) proposent rien moins que de "compléter" l'effet de serre du CO2 atmosphérique en tenant compte de la "variabilité naturelle" du climat. Publié dans une revue célèbre entre toutes pour son adhésion à la pensée unique climatologique (comme Nature et dont l'éditeur en chef, Donald Kennedy, n'hésitait pas à intituler son récent éditorial par un tonitruant " Climate : The game is over " (en français : "la partie est jouée" ! autrement dit, la cause est entendue, les sceptiques n'ont qu'à se taire ), la chose est d'importance. En effet, le GIEC et ses thuriféraires ont toujours, contre vents et marées, et souvent contre l'évidence, tenus à garder le cap exclusif de l'effet de serre du CO2…Point de salut pour les autres effets (activité solaire et oscillations océaniques, entre autres) qui étaient tenus pour totalement négligeables…bien qu'ils aient manifestement joué un grand rôle dans le passé. Bref, il semble que nous avons vécu la période du "Tout CO2" qui, sous la férule du Dr Pachauri, directeur du GIEC, avait de nombreuses implications économiques et politiques, comme vous le savez. Que dit cet article qui marque une ouverture notable ( mais encore timide) de la science climatologique officielle ? Je ne peux, hélas, vous décortiquer l'ensemble de cet article. Compte tenu de la complexité des modèles, ce serait bien trop lourd pour ce site. Mais voici quelques phrase significatives, extraites de l'article en question et que je vais vous commenter point par point :
Le corps du texte explique essentiellement les incertitudes du modèle et les calculs d'erreur effectués pour montrer que le modèleDePreSys est meilleur que celui en vigueur au GIEC. Le modèle classique est appelé "NoAssim" et le modèle amélioré 'DePreSys" dans la figure suivante extraite de l'article Ce graphe parle de lui-même. Il compare (entre 1983 et 2003) les températures de surface observées (trait noir) avec les prédictions du modèle classique (en bleu) qui utilise uniquement (ou presque, avec quelques rétroactions "adaptées" dont les aérosols du Pinatubo) l'effet de serre dû au CO2 et avec les prédictions du modèle DePreSys. On voit que lorsque l'on prend en compte l'effet des "anomalies" des océans et d'El Niño, on améliore notablement les choses. Autrement dit, lorsqu'on tient un peu mieux compte de la variabilité naturelle du climat, on améliore les graphes. Mais, il s'agit bien entendu du climat du passé. Qu'en est-il des prédictions pour les années à venir ? Les auteurs de l'article estiment qu'il est difficile de prévoir la variabilité naturelle du climat au dela de dix ans. Ils prévoient d'ailleurs qu'après une période courte dans lequelle la variabilité naturelle du climat prend le dessus, l'effet de serre reprendrait la main à partir de 2009. C'est donc un réchauffement qu'ils prédisent à partir de cette date. 2)L'effet "iris" : Les expériences réelles démentent les données introduites dans les ordinateurs de l'effet de serre !Tout bien pesé, l'effet de serre, seul, dû au CO2 atmosphérique, naturel et ajouté, ne devrait pas (disent les ordinateurs puisqu'il n'y a aucune théorie physique pour cela, voir ici ) faire monter la température de plus de 1, 2°C pour un doublement du taux de CO2. Ce qui est bien faible, vous en conviendrez et ne suffirait certainement à motiver une révision drastique de l'industrie par les gouvernements de la planète… Qu'est ce qu'une rétroaction positive ? On pense que les nuages de haute altitude, les cirrus, sont, à la différence des nuages de basse altitude, capables de piéger les rayonnements infra Manque de chance pour les modélisateurs du GIEC ! Un article vient de paraître dans les Geophysical Research Letters (édition du 9 août 07) qui nous dit très exactement le contraire. Les cirrus présents en altitude au dessus de la planète disparaissent (où s'écartent), au dessus des zones de la planète dont la température à augmenté, permettant ainsi à la chaleur accumulée sur la Terre de s'évacuer vers l'espace. C'est donc une rétroaction manifestement négative et non positive ! Cela produit un refroidissement et non un réchauffement.. En passant, tirons un coup de chapeau au physicien du climat du (MIT) Massachussets Institute of Technology; Richard Lindzen (voir ici) , qui avait prévu et décrit cet effet qu'il avait baptisé "l'effet Iris" (parce que les cirrus s'écartent comme les lames d'un iris photographique), dès 2001. Personne ne l'avait écouté car comme chacun sait, Lindzen est un grand (sinon le plus grand) sceptique des modèles de l'effet de serre du CO2 atmosphérique…. Toujours au sujet de ces affaires, très disputées de rétroactions positives (qui amplifient les conséquences de l'effet de serre) ou négatives (qui atténuent les conséquences de l'effet de serre), j'ai trouvé sous la plume de Steven Milloy une remarque qui me paraît frappée au coin du bon sens. Je vous la livre avec quelques considérations supplémentaires : Il s'agit de la bouffée de chaleur qu'a connue la planète en 1998. Cette année détient actuellement le record absolu des températures relevées au cours du siècle ( Notez qu'il n'en est pas de même aux USA où 1934 a été plus chaude, selon les dernières corrections des fichiers de la NASA). Tout le monde semble d'accord pour attribuer cette brutale augmentation de température au courant El Niño, exceptionnellement puissant cette année-là. Ce réchauffement intense, mais assez bref (durée d'environ un an et demi), se voit parfaitement bien sur les relevés de températures terrestres comme sur les relevés satellitaires RSS des températures de la basse atmosphère qui sont assez proches de celles de la planète et qui sont aussi probablement plus fiables parce qu'elles sont globales et dénuées des difficultés liées à la prise des températures par des sondes distribuées sur la Terre. Steven Milloy fait remarquer que la température est brusquement retombée à sa valeur antérieure, voire à une valeur inférieure à ce qu'elle était avant le phénomène El Ninõ, après la fin de celui-ci.
Enfin, pour conclure ce paragraphe sur les rétroactions globales de la planète, on peut faire remarquer que la Terre, depuis des temps reculés, a subi de graves perturbations telles que la chute de météorites (dont l'une, il y a 65 millions d'années, gigantesque aurait fini par faire disparaître les dinosaures après avoir avoir obscurci les rayons du soleil pendant des années), d'énormes éruptions volcaniques en chaîne (que l'on soupçonne aussi d'avoir fait disparaître les dinosaures) etc. Que constate-t-on après ces graves perturbations ? Le climat de la Terre n'a pas divergé. Après des oscillations diverses, les températures se sont gentiment stabilisées autour des valeurs que nous connaissons aujourd'hui. Autrement dit, la Terre doit bénéficier d'un thermostat très efficace… C'est plutôt rassurant, vu sous cet angle. 3) Le test expérimental d'un modèle récent de l'effet de serre, dément gravement les prédictions des ordinateurs. Il s'agit, cette fois encore, d'un article paru dans la prestigieuse revue Science du 13 Juillet 2007. Il est signé par Frank J. Wentz et collaborateurs qui sont des chercheurs bien connus de la tendance actuelle de l'effet de serre anthropogénique. Wentz est donc tout sauf un "sceptique". Cet article est intitulé "How much more rain will global warming bring ?". C'est, en effet, une bonne question ! Le modèle utilisé par F. J. Wentz et al est un des tout derniers avatars des modèles améliorés de l'effet de serre sur ordinateur dont sont friands les climatologues, les écologistes et les alarmistes de toutes sortes. Selon les créateurs de ces modèles qui y croient dur comme fer, on ne doit attendre que des bonnes choses d'une telle sophistication, bien qu'elle multiplie encore le nombre de paramètres inconnus. En l'occurrence, c'est à dire en matière de prédiction du niveau de pluviométrie pour les années à venir, il va falloir trouver autre chose de plus convainquant. Voyez vous-même :
En tant que scientifique, je pense que même si Frank J. Wentz et al n'ont pas fait la preuve de la validité de leur modèle, (c'est plutôt le contraire), on ne peut que les féliciter d'avoir eu le courage et l'honnêteté de publier dans Science de tels résultats qui contredisent pourtant tous leurs efforts. C'est comme cela que la science progresse, par échecs et succès, et les échecs nous en apprennent souvent autant que les succès. L'attitude de Wentz est devenue beaucoup trop rare par les temps qui courent, surtout en matière de climatologie..Mais il est certain qu'il doit y avoir quelque chose de complètement faux dans le modèle d'effet de serre (voir ici) à moins que ce soit dans la mesure des températures moyennes ! 4) La sensibilité climatique par rapport à l'ajout de CO2 atmosphérique est beaucoup plus faible que l'on pensait… Stephen E. Schwartz est un chercheur reconnu de la Division des Sciences Atmosphériques du Laboratoire National de Brookhaven (Upton, NY). Il a inscrit ses travaux dans la perspective classique de l'influence des gaz à effet de serre sur le climat sur laquelle il a déjà publié de nombreux articles. Il n'est donc, en aucune manière, un "sceptique" et il fait, au contraire, partie du "mainstream" (le courant principal) comme disent les américains. Pourtant, il fait paraître un article révolutionnaire qui remet très sérieusement en cause les conclusions et les perspectives officielles du GIEC. L'article a été publié au prestigieux Journal of Geophysical Research mais vous pourrez en trouver un preprint ici. La référence exacte de l'article publié dans JGR est la suivante : " Heat capacity, time constant, and sensitivity of Earth's climate system". Schwartz S. E. J. Geophys. Res. , D24S05 (2007). doi:10.1029/2007JD008746. Tout d'abord, ce travail part de considérations purement thermodynamiques comme la capacité calorifique du système global (entre autres, celle des océans de la planète) ainsi que du temps de relaxation du système (c'est le temps que le climat met pour réagir à une variation du taux de CO2 dans l'atmosphère) . La sensibilité climatique (définie comme l'augmentation de température du globe pour un doublement du CO2 atmosphérique) est alors donnée par le rapport du temps de relaxation du système climatique sur la capacité calorifique du système global. Stephen E. Schwartz a calculé ces différentes données à partir des mesures réelles obtenues dans les expériences réelles effectuées pendant la période 1880-2004. Les mesures du temps de relaxation ( le temps de réaction du climat aux variations de taux de CO2) sont obtenues, ici encore, par autocorrélation des mesures réelles réalisées sur le terrain. S. E. Schwartz n'utilise donc que des données expérimentales incontestables et admises par tous et non point des modèles d'ordinateurs qui exigent l'utilisation d'un grand nombre de paramètres et d'hypothèses comme expliqué ci-dessus.
Venant d'un climatologue sceptique (il y en a beaucoup : allez voir ici), cet article aurait eu beaucoup de difficultés à passer le barrage des referees des revues renommées et aurait sans doute connu le même sort que tous les articles qui remettent en cause les chiffres officiels. C'est à dire, le silence et l'indifférence la plus totale de la part des médias. Mais venant d'un climatologue du "mainstream" qui a déjà beaucoup publié avec ses confrères "réchauffistes" voilà qui constitue un véritable pavé dans la mare. Autant dire, qu'une augmentation de 1,1°C, si nous doublons le CO2 en 100 ans, nous laissera largement le temps de nous adapter d'autant plus que les réserves de combustibles fossiles ne dureront, paraît-il, que 50 ans…Et les protocoles comme Kyoto et ses successeurs ne sont plus que des châteaux de sables, sans avenir, parce qu'on ne voit pas pourquoi il faudrait dépenser des dizaines ou des centaines de milliards de dollars pour contrecarrer une montée des températures aussi faible…si c'est possible. A condition que cet article pourtant publié dans une prestigieuse revue à comité de lecture, ne soit pas purement et simplement ignoré, comme beaucoup de ses prédécesseurs qui ne s'inscrivent pas dans le sens de la pensée unique. 5) La sensibilité climatique (à l'ajout de CO2) est deux fois plus petite que celle revendiquée par les modèles du GIEC, si l'on tient compte de la diminution effective des aérosols dans l'atmosphère. Et vlan ! Voici, encore, un article saignant pour les tenants de l'effet de serre du CO2 ! Vous trouverez l'article complet (si vous êtes abonné) et le résumé (si vous ne l'êtes pas) ici. A noter, en passant que Mishchenko travaille dans le même Institut (Goddard à la NASA) que le célèbre James Hansen, le grand prêtre du renouveau de la saga de l'effet de serre du CO2…ça doit chauffer à la NASA… Que nous dit cet article qui fait encore un énorme trou dans le fanion (en lambeaux) de l'effet de serre du XXème siècle ? Tout simplement que si l'on tient compte (ce qui est nécessaire) du fait que le taux d'aérosols a considérablement diminué dans l'atmosphère depuis quelques années (ce qui a eu tendance à réchauffer la planète) , la sensibilité réelle du climat de la planète au doublement du CO2 atmosphérique doit être divisée, au moins, par un facteur 2. Pour parler comme les adorateurs du GIEC, cela signifie qu'au lieu du fameux 1Watt/m2 affirmé par le GIEC, il faudra se contenter d'un maigre irradiance comprise entre 0,29 et 0,48 watt/m2, ce qui fait évidemment lourdement chuter les prévisions catastrophistes de température du GIEC… Soit entre +0,5°C et + 1,2°C à la fin du XXIème siècle et pas 5 ou 6°C. Ouille ! Ca doit faire très mal ! D'autant plus qu'on ne voit pas comment les thuriféraires de James Hansen et du GIEC pourraient échapper à ces
6)Toutes les variations des températures du XXième siècle ainsi que les variations d'El Niño peuvent être expliquées sans l'intervention de l'effet de serre du CO2 atmosphérique.
7) Les mesures directes des variations de température de l'atmosphère contredisent gravement les modèles de l'effet de serre ! Voici un article tout frais (décembre 2007) qui fait littéralement hurler les tenants de l'effet de serre anthropogénique. Paru dans le prestigieux "International Journal of Climotogy" de la Royal Meteorological Society (DOI : 10.10.1002/joc.1651), cet article est signé par quatre chercheurs américains spécialistes des mesures de températures par ballon sondes ou satellites : David H. Douglass, John R. Christy, Benjamin D. Pearson et S. Fred Singer, des universités de Rochester (NY), Hunstville (Alabama), Charlottsville (Virginie). Les chercheurs ont comparé les résultats de pas moins de 67 runs (utilisations) de 22 modèles d'ordinateurs de l'effet de serre, mis au point par de grandes institutions internationales, pour la plupart, affiliées au GIEC. La liste des modèles de ces dernières est instructive : On reconnait, sur cette liste les modèles GISS du Goddard Institute (NASA) de James Hansen ainsi que ceux du célèbre Hadley Center en Angleterre. En fait de mesures sur le terrain et comme il s'agit d'étudier les variations de température de l'atmosphère (en degrés/10 ans, en général), les quatre chercheurs américains ont utilisé les données disponibles réalisées à la surface et en basse et moyenne altitude (jusqu'à 14 km) fournies par pas moins de 87 stations de ballons sondes ainsi que par les tous les satellites équipés pour ce faire (MSU , microwave sounding units). Bref, on ne peut faire mieux, actuellement. Je rappelle que tous les modèles impliquent que les gaz à effet de serre présents dans l'atmosphère doivent se réchauffer plus vite que la surface de la planète et ceci, tout particulièrement, au dessus de l'équateur et des tropiques. Cette caractéristique constitue la "signature" de l'effet de serre. Prouver ou démentir son existence constitue un teste absolument crucial pour les théories en vigueur de l'effet de serre… Las ! Que nous dit la comparaison des mesures convergentes et obtenues par différents instruments avec les modèles théoriques ? En bref : Une catastrophe pour les modèles ! Voici les courbes tirées de l'article en question : En rouge, les résultats des 22 modèles dans différents cas de figure voir la légende et l'article en question) En bleu et vert, les observations réalisées avec les ballons sondes et les satellites pour l'atmosphère et par des stations de surface pour la Terre. On voit immédiatement que si les mesures et les modèles sont en accord pour la surface terrestre, il existe un désaccord marqué entre les mesures et les modèles lorsqu'on s'élève un tant soit peu en altitude. A noter que jusqu'à près de 6 km d'altitude (échelle horizontale du haut), les modèles prévoient un réchauffement alors qu'en réalité, la température diminue ! De même, entre 8 et 10km d'altitude, la température devrait rester contsante ou augmenter et patatrac ! la température diminue.. Autrement dit, l'atmopshère ne se réchauffe pas du tout comme le prédisent les modèles de l'effet de serre (anthropogénique ou pas). Il y a comme un gros défaut ! Si vous regardez maintenant l'échelle de température située sur la gauche de ce graphique, vous constatez que les erreurs théorie-mesures réelles sont de de l'ordre de 200% à 300% ! Ce qui est énorme… surtout pour des modèles qui ont coûtés à la collectivité des millions sinon des milliards de dollars ! L'article, écrit dans des termes très mesurés comme toujours dans ce type de publications; se termine quand même par une phrase qui en dit quand on connait la prudence des scientifiques : "We suggest, therefore, that projections of future climate based on theses models be viewed with much caution." Autrement dit " C'est pourquoi nous suggérons que les prévisions du climat dans le futur, basées sur ces modèles, soient considérées avec le maximum de circonspection." |
|||||||||||||||||||
28 décembre 2007 : Les mesures de températures terrestres sont-elles fiables ? Deux chercheurs déjà connus des lecteurs de ce site, Ross McKitrick (statisticien célèbre entre autres pour avoir débusqué la fa(u)meuse "crosse de hockey" de Michael Mann et al, avec Steve McIntyre) et Patrick Michaels (ex-climatologue d'état, récemment viré pour "non-conformisme" avec la pensée unique climatique) viennent de publier un article intitulé " Quantifying the influence of anthropogenic surface processes and inhomogeneities on gridded global climate data" Soit " Evaluation de l'influence de l'utilisation des sols par l'homme et inhomogénéités sur la grille des données climatiques globales" (Journal of Geophysical Research., Vol. 112, No. D24, D24S09, 10.1029/2007JD008465, 14 December 2007, texte complet pdf ici). Cet article s'adresse au problème récurrent de la mesure effective de la température globale à partir des données terrestres. Il s'agit d'un problème particulièrement épineux mais évidemment crucial. En effet, les milliers de sondes de températures qui sont réparties de manière très inégales autour du globe et qui sont censées nous donner une estimation de la température avec une précision qui laisse rêveur (au centième de degré près !), sont finalement collationnés par le NASA Goddard Institute (James Hansen) qui est chargé d'en informer le monde entier. Ces données sont également utilisées par le UKMet (Le Hadley Center Anglais). Il est à noter que les résultats de ces deux agences ( GISS et UKMet) sont assez systématiquement plus alarmistes que les mesures satellitaires produites par deux orgnaismes (UAH et RSS). En particulier, il est très souvent reproché à ces mesures locales et terrestres de température d'être perturbées par la proximité de bâtiments, de routes en asphalte et d'autres points chauds liés à l'activité humaine, susceptibles de provoquer une erreur (à la hausse) importante sur les mesures effectuées. Il va de soi que si l'on désire évaluer l'effet réel des gaz à effet de serre, il est essentiel de se débarrasser de ces "Urban heat islands" (les effets d'îlot de chaleur urbains). Un autre facteur déterminant sur la qualité des mesures de températures réside dans la qualité de l'entretien de toutes ces petites stations réparties dans le monde entier. Ainsi et par exemple, il est essentiel de s'assurer que les peintures blanches de ces constructions météorologiques sont conservées en bon état. Si elles noircissent sous l'effet du vieillissement ou d'un mauvais entretien, il va de soi que les mesures de température seront surestimées du fait du réchauffement inévitable du boîtier de protection des thermomètres. Un ex- météorologue (Anthony Watts) s'est chargé de la rude besogne qui consiste à évaluer la qualité des mesures thermométriques en surface sur tous les Etats-Unis. Les résultats qu'il a publié sont consternants. Un grand nombre de ces installations surestiment la température de manière grotesque. Comme on s'en doute, tout cela est extrêmement difficile à quantifier sérieusement. Pourtant le GIEC, comme toujours fort de ses certitudes, assure que les erreurs entraînées par ces vices d'emplacement ou d'entretien, ne dépassent pas 10%, bien que, sans qu'il puisse l'expliquer, les mesures de surfaces diffèrent sensiblement (en les surestimant, bien entendu) des mesures de températures de la basse atmosphère réalisées par les satellites dont la précision et la globalité ne peuvent être mises en doute.
Voici, ci-contre, une petite image de deux de ces constructions traditionnellement utilisées pour mesurer la température du globe. Celle de gauche est visiblement en piteux état (sans peinture) et donc impropre à la mesure précise de la température. De manière générale, l'implantation de ces systèmes de mesure doit être faite avec soin. Même la qualité du sol à de l'importance. Sans parler de l'environnement urbain immédiat, de son exposition aux vents etc.
Pour évaluer la "contamination" des systèmes de mesures dû à la mauvaise installation, au mauvais entretien et à la proximité d'îlots urbains, Ross McKitrick et Patrick Michaels ont eu une idée originale et sans aucun doute, très astucieuse. Leur idée de base repose sur le constat, hautement crédible, que l'entretien et la qualité des mesures des stations thermométriques doit dépendre du niveau de vie et d'un certain nombre de facteurs socio-économiques (jusqu'à la compétence des observateurs), des pays qui en ont la charge. Ainsi et c'est presqu'un jeu d'enfant pour un statisticien professionnel comme McKitrick, il doit être possible de discerner dans l'ensemble des bases de données mondiales des relevés de température des contaminations qui reflètent le revenu moyen des pays, leur taux de croissance de population, le nombre de relevés de températures manquants, le taux de croissance économique, et le taux de croissance dans l'utilisation du charbon ainsi que le degré d'éducation de la population. Ainsi et si le réchauffement a bien un caractère global comme on le pense parce qu'il serait dû à l'effet de serre du CO2, on devrait, si les mesures sont effectuées partout correctement, n'observer aucune corrélation entre l'accroissement de la température (en degre °C /par décennie) et les facteurs socio-économiques mentionnés ci-dessus. Autrement dit, bien que les températures soient évidemment différentes d'un point à l'autre du globe, le réchauffement global implique que leur accroissement (la dérivée permière de la température par rapport au temps) doit être la même partout. McKitrick et Michaels ont tout d'abord testé leur modèle sans a priori et ils ont trouvé que la probabilité qu'il n'existe aucune corrélation entre les températures mesurées et ces différents facteurs est de … 10 puissance -13 ! Autrement dit : il y a forcément une corrélation significative. Si, maintenant, on cherche le degré de corrélation entre les facteurs socio-économiques et les erreurs de température sur l'ensemble des stations du globe en utilisant une grille au pas très fin, on trouve que les écarts à la moyenne (autrement dit les anomalies de mesures) représentés avec un code des couleurs se présentent de la manière suivante : L'échelle de droite indique, avec un code des couleurs, les écarts entre les températures mesurées et la valeur correcte. La couleur verte indique des mesures correctes. On l'observe aux Etats Unis , sur la partie peuplée périphérique de l'Australie et en Europe de l'Est (mais pas vraiment en France!) (Pour mieux voir, allez cherche l'article original). Par contre, les pays de l'hémisphère sud semblent assez mal lotis en matière de mesures thermométriques. Il est connu aussi que les mesures sur les océans (à bord des bateaux) sont entachées d'erreur, presque toutes des surestimations. A noter aussi que le pas de la grille utilisée pour les calculs est nettement plus fin que la taille des carrés de couleur. En outre, il ne faut guère se faire d'illusions sur les mesures effectuées dans certains pays développés comme les Etats-Unis qui regroupent à eux seuls 20% des capteurs mondiaux. Comme je l'ai déjà signalé ci-dessus, un ancien météorologue, Anthony Watts, outre son excellent blog, a mis sur pied, avec un groupe de bénévoles, une commission d'audit de la totalité des stations US (site). Les résultats obtenus selon les méthodes scientifiques en vigueur pour ce genre d'installation, sont pour le moins inquiétants. Un ami lecteur attentif, Jacques Corbin, a réalisé une présentation Power-Point en français tout à fait étonnante, à partir des travaux d'Anthony Watts. Cette présentation est disponible ici. Merci à lui ! Ceci étant dit, Ross McKitrick et Patrick Michaels ont effectué une reconstruction des accroissements de températures corrigées dans le différents points du globe. Autrement dit, ce que des stations, normalement lues, entretenues et disposées, auraient donné comme résultat. La courbe du haut représente la distribution des bases de données brutes indiquées par les thermomètres et utilisées telles que par le GIEC.
La courbe du milieu représente les résultat des données satellitaires dans la basse troposphère.
La courbe du bas donne la distribution de tendances de température des données corrigées des erreurs de mesures par le calcul statistique de McKitrick et Michaels.
On observe immédiatement que les distributions des données satellitaires d'une part et celle des données corrigées par McKitrick et Michaels sont beaucoup moins étalées que celles des mesures brutes enregistrées par le GIEC. Tous calculs faits, nos deux statisticiens en déduisent que le GIEC (et donc le NASA Goddard Institute , c'est à dire James Hansen) aurait surestimé la hausse des températures de 1980 à 2002 d'un bon facteur 2 (et pas 10% comme l'affirme le GIEC! ). Ceci étant dit, restons prudents : Les statistiques c'est un peu comme les programmes de simulation sur ordinateurs : Il est difficile d'évaluer la signification de ce qui en sort. Il n'est pas impossible que ces corrélations trouvées par nos deux statisticiens soient, elles-mêmes, le résultat d'autres corrélations. Il n'en reste pas moins que la réduction de la largeur de la distribution d'une part et la réconciliation des mesures corrigées et des mesures satellitaires, plaident vraiment en faveur de ces résultats. Cela ne peut que difficilement être fortuit. Cet article porte (encore) un rude coup aux tenants de l'effet de serre anthropogénique. Croyez vous que nos journalistes scientifiques en ont parlé ? Rien. Pas un mot ! Pour celui-là comme pour tous ceux qui précèdent et beaucoup d'autres, silence radio quand on ne va pas dans le sens de la pensée unique ! Curieuse conception du métier de journaliste…
|
|||||||||||||||||||
17 août 2008 : Une étude qui jette un froid glacial sur les modèles informatiques du GIEC : "Au sujet de la crédibilité des prédictions climatiques" C'est le titre d'un article (source) qui est paru en août 2008 au journal "peer-reviewed" "Hydrological Sciences – Journal des Sciences Hydrologiques 53(4) p. 671, Août 2008 sous la signature de 4 chercheurs spécialisés dans les ressources en eau de l'université d'Athènes : D. Koutsoyiannis, A. Efstratiadis, N. Mamassis et A. Christofides.
En voici le résumé (caractères engraissés par l'auteur du site): "Résumé : Des prévisions distribuées dans l’espace du climat futur, obtenues à l’aide de modèles climatiques, sont largement utilisées en hydrologie et dans de nombreuses autres disciplines, en général sans évaluation de leur confiance. Nous comparons ici les sorties de plusieurs modèles aux observations de température et de précipitation de huit stations réparties sur la planète qui disposent de longues chroniques (plus de 100 ans). Les résultats montrent que les modèles ont de faibles performances, y compris à une échelle climatique (30 ans). Les projections locales des modélisations ne peuvent donc pas être crédibles, alors que l’argument courant selon lequel les modèles ont de meilleures performances à des échelles spatiales plus larges n’est pas vérifié." Ces quatre chercheurs ont comparé les résultats des mesures effectives de température et de pluviométrie données par les sites officiels pour 8 stations locales répartis sur une grande partie de la planète avec les prédictions des modèles informatiques du GIEC (TAR 2001 et AR4 2007). Tous ces modèles du GIEC sont issus de diverses sources officielles affiliées au GIEC. Bien entendu, ces modèles font un usage intensif de l'effet de serre et des modèles GCM (Global Climate Model). Voici la liste des sites choisis comme témoins pour cette étude. Albany (USA), Athens (Greece), Alice Springs (Australia), Colfax (USA), Khartoum (Sudan), Manaus (Brasil), Masumoto (Japan),Vancouver (USA). Après avoir montré que les modèles utilisés par le GIEC sont déjà en profond désaccord entre eux sur les prédictions locales, ce qui avait déjà été signalé dans le rapport NIPCC (ici), les auteurs confrontent les prédictions des modèles avec la réalité objective. Le résultat de cette confrontation est gravement négatif pour la capacité des modèles à effectuer des prédictions correctes. L'article de Koutsoyiannis et al reproduit deux figures (6 et 7) qui illustrent cette conclusion de manière frappante. Voici un extrait de la conclusion des auteurs : "Aussi bien à l'échelle annuelle que climatique (30 ans), les séries interpolées (NDLR : Parce que les modèles GCM travaillent sur une grille dont les points ne tombent pas exactement sur les sites choisis, il faut travailler par interpolation avec les points voisins de la grille) ne rendent pas compte de la réalité. Les modèles GCM ne reproduisent pas les fluctuations naturelles de durées supérieures à l'année et sous estiment la variabilité et le coefficient de Hurst des séries observées. Ce qui est plus grave encore c'est que quand le séries temporelles GCM impliquent un coefficient de Hurst supérieur à 0,5, ceci résulte d'une variation monotonique alors que dans les données historiques le valeurs élevées du coefficient de Hurst résultent de fluctuations à grande échelle et de durée supérieure à une année (c'est à dire d'une succession de tendances à la montée et à la descente). Les très grandes valeurs négatives des coefficients d'efficacité montrent que les prédictions des modèles sont beaucoup moins bonnes qu'une prédiction élémentaire basée sur une simple moyenne effectuée sur le temps. Ceci implique que les projections du climat futur pour les sites sélectionnés ne sont pas crédibles. Savoir si ces conclusions peuvent être généralisées à d'autre sites requiert un prolongement de cette étude. Ce que nous avons planifié. Cependant, les performances des modèles GCM sur les 8 sites choisis laissent peu d'espoir, pour ne pas dire aucun. L'argument qui consisterait à dire que les performances médiocres des modèles GCM ne concernent que les points choisis pour la comparaison et qu'une extension à plus grande échelle pourrait montrer que les sorties des modèles GCM sont crédibles, repose sur une hypothèses non prouvée et, selon nous, fallacieuse. " NDLR : le coefficient de Hurst (ou Hurst-Kolgomorov) est un exposant qui provient de la théorie du chaos et des fractales. Entre autres, Il a été beaucoup utilisé en hydrologie ( les auteurs sont hydrologues). En théorie, il est directement relié à la dimension fractale. On peut simplifier en disant que l'exposant de Hurst permet de "mesurer" le taux de prédictabilité d'un ensemble complexe ou, encore, sa mémoire à long terme. Pour en savoir (beaucoup) plus sur cet exposant lisez ceci. Inutile de dire que cet article a fait des vagues parmi les tenants des modèles informatiques du GIEC…Pourtant et même sur RealClimate, je n'ai trouvé aucun argument convaincant démontant sérieusement les conclusions des cet article… On a déjà de très sérieux doutes sur la sensibilité du climat au CO2 atmosphérique (voir ci-dessus).
|
|||||||||||||||||||
Tel est le titre de la conférence présentée par le Professeur William (Bill) Gray lors de la deuxième conférence Internationale sur le Climat qui s'est tenue à New York du 8 au 10 mars 2009 (Textes des conférences, vidéo, ppt etc. disponibles ici) Bill Gray est Professeur émérite au laboratoire de Sciences Atmosphériques de l'Université de l'Etat du Colorado. Il est, et a été; sans conteste, l'expert mondial N°1 des ouragans de la planète. Il a formé et dirigé des dizaines de chercheurs durant sa longue et prestigieuse carrière. En tant qu'expert des phénomènes cycloniques, Bill Gray possède une connaissance approfondie de la modélisation numérique de l'atmosphère ainsi qu'une très bonne compétence des phénomènes océaniques. Et de fait son article, très documenté, se divise en deux grandes parties. La première partie est consacrée à une critique élaborée des modélisations de l'atmosphère utilisées par le GIEC et ses affidés. Leurs modèles utilisent ce que l'on appelle communément les GCM (les modèles de circulation générale). La discrétisation, imposée par le traitement informatique se fait sur une quadrillage plaqué sur l'image de la Terre et de son atmosphère ("The grid" en anglais, la grille en français). La puissance de traitement des très puissants ordinateurs actuels ne permet cependant pas de modéliser l'atmosphère avec un pas de grille inférieur à la centaine de kilomètres. Afin d'obtenir une représentation réaliste du climat de la planète, il est alors indispensable de remplir les trous de la grille avec une série de mécanismes "sub-grid", c'est à dire d'extension inférieures aux pas de la grille. Ce point est absolument essentiel car la teneur réelle en vapeur d'eau de la haute atmosphère ( c'est à dire vers 7 à 10 km d'altitude où se trouve le fameux point chaud (hotspot)) d'où les rayonnements peuvent s'évacuer dans l'espace (voir à ce sujet l'article de Richard Lindzen qui est, à mon avis et de loin, la présentation la plus réaliste de l'effet de serre. Elle est notablement différente de celle que l'on vous expose sur certains sites "pseudo" scientifiques francophones)) est absolument déterminante pour les prédictions catastrophistes du GIEC. La vapeur d'eau est un très puissant gaz à effet de serre, beaucoup plus efficace que le CO2 qui, s'il était seul, ne produirait qu'un réchauffement quasiment imperceptible de la planète. On voit donc que les problèmes de l'échelle "sub-grid" sont déterminants comme cela a déjà été indiqué par John Theon et de nombreux autres chercheurs. Bill Gray s'intéresse donc tout particulièrement aux projections, effectuées et utilisées par les modèles du GIEC, sur la teneur en vapeur d'eau de l'atmosphère. Cette teneur en vapeur d'eau se caractérise, entre autres, par ce que l'on appelle l'humidité spécifique (specific humidity, c'est à dire la masse de vapeur d'eau par unité de masse d'air, exprimée en g/kg) . Ce paramètre essentiel a fait l'objet de nombreux ajustements, depuis de nombreuses années. Notamment par James Hansen dont Bill Gray démonte systématiquement les modéles. Ce n'est que récemment que des mesures précises ont pu être effectuées à l'aide de satellites équipés de détecteurs appropriés. Figure 6 de l'article de Bill Gray : Analyse d'après le NCEP/NCAR des anomalies du contenu en vapeur d'eau (c'est à dire l'humidité spécifique) à 400mb (autour de 7,5km d'altitude) (Courbe en bleu) et Radiation à grande longueur d'onde sortante (OLR : Outgoing Longwave Radiation (OLR) de 1950 à 2008. (Ce sont les rayons infra rouges) Les modèles GCM utilisés pour les projections du GIEC supposent que l'humidité spécifique doit être croissante comme l'est la courbe de l'OLR qui augmente en proportion du CO2 en fonction du temps. C'est exactement le contraire de ce qui est observé : Le deux courbes sont contra-variantes. Autrement dit la rétroaction de la vapeur d'eau s'avère négative et non positive comme le supposent tous les modèles du GIEC…Il faut se souvenir que cette rétroaction supposée positive par le GIEC est à l'origine des projections catastrophistes d'un réchauffement de 2 à 6°C/100 ans. Sans cette rétroaction supposée positive de manière erronée, l'effet du CO2 seul est totalement négligeable. Après avoir gravement mis en défaut le fondement même des prévisions du GIEC, Bill Gray consacre la seconde partie de son article à l'étude des processus naturels qui peuvent expliquer les variations climatiques que nous avons connues. Selon lui, et comme nous l'avons signalé à plusieurs reprises (ici et ici) , il existe une corrélation incontournable entre les phénomènes océaniques et les variations de température de la planète. Bill Gray propose de prendre en considération la circulation profonde des océans comme par exemple la THC (Thermohaline circulation) de l'atlantique nord. Cette dernière est évidemment couplée avec les oscillations déjà citées telles que la PDO et l'AMO. Le dessin ci-dessous représente un schéma simplifié de ce que les Ici encore, il m'est impossible de rentrer dans les détails de la démonstration de Bill Gray. Je reproduis ci-dessous un des graphes qui me semble significatif de sa démonstration.
En haut de ce graphique, la figure 22 de l'article de Bill Gray. Cette figure montre que la courbe des températures de la planète depuis 1880 se décompose en cycle successifs de refroidissements et de réchauffements avec une demi-période d'environ 30 ans. On y voit, par exemple, le refroidissement qui s'est produit de 1945 à 1976 et qui avait fait craindre un âge glaciaire (!) Cette décomposition est effectuée par Bill Gray à partir de l'étude des circulations océaniques (MOC, THC etc) dont Gray (en tant que spécialiste des cyclones) est un expert. Les gros points bleus et rouges qui marquent des basculement de l'orientation des températures correspondent à des modifications importantes de la circulation océnanique, selon Gray. A titre d'illustration, j'ai superposé le graphe de Bill Gray à celui de Klyashtorin et Lyubushin (2003) qui avait été présenté dans cette page. Le graphe de Klyashtorin et al a été obtenu à partir d'une simple analyse statistique des températures (prolongée depuis 1100 ! ) sans aucune analyse sur la physique des phénomènes. La superposition de ces deux graphes est intéressante. On y observe la même périodicité et la même prévision pour les 20 ou 30 années à venir, c'est à dire un refroidissement pour les décennies futures. (indiqué FCST = forecast, par Bill Gray). A noter que ces prévisions ne sont pas très éloignées de celles de Keenlyside et al (voir ici) du GIEC qui ont (à mots soigneusement pesés) prévu un refroidissement ou une stagnation des températures à venir : Tout simplement parce qu'ils ont (enfin) incorporé l'influence des océans dans leurs modèles. De fait, on observe, chez Bill Gray comme chez Klyashtorin et al, une légère montée sous-jacente des températures depuis 1860 (Klyashtorin) 1880 pour Gray, c'est à dire depuis une époque ou le CO2 anthropique était très faible. Cette montée sous jacente des températures est de l'ordre de +0,35°C/100 ans ce qui équivaut (si cette montée est due au CO2) à une sensibilité au CO2 comprise entre 1/4 et 1/6ème de la sensibilité (rétroactions incluses) moyenne proposée par le GIEC, ce qui conduirait à un réchauffement négligeable de la planète . A noter que cette sensibilité est assez proche de ce qu'ont trouvé, indépendamment, R. Lindzen ou encore R. Spencer par des méthodes totalement différentes. Pour sa part, S-Y Akasofu pense que cette montée sous-jacente n'est pas due au CO2 mais à la sortie du petit âge glaciaire qui s'est achevé vers 1715 (article très documenté de Akasofu sur ce sujet) et analyse d'un autre article d'Akasofu (sur cette page) : Les résultats d'Akasofu sont très proches des conclusions de Bill Gray et de Klyashtorin et Lyubushin Bill Gray en conclut que le CO2 ne serait responsable que de 0,1 à 0,2°C des 0,6 à 0,7°C de la variation passée de la température globale de la planète. En supposant que le taux de CO2 soit doublé à la fin du XXIème siècle, il attribue au CO2 la responsabilité d'un réchauffement qui serait compris entre 0,3 et 0,5°C, ce qui est très en dessous des estimations du GIEC (2 à 5°C). A noter comme je l'ai déjà fait remarquer dans cette page, que cette explication n'est absolument pas exclusive de l'influence de variations du soleil (TSI et cycles) sur le climat global. C'est bien ce dernier qui fournit l'énergie nécessaire à la MOC, la circulation océanique du globe. Le 16 Octobre 2009 : Bill Gray a fait paraître une comparaison détaillée entre la réalité observée depuis 13 ans et ses prédictions, basées sur le modèle précédent, faites lors d'une conférence donnée en 1996. Le résultat est éloquent : 100% de réussite, sans aucun effet de serre anthropique ! Comme toujours, ne vous attendez pas à retrouver cette analyse ni d'ailleurs aucune autre des 70 conférences qui ont été données devant les 700 participants de la seconde Conférence Internationale des sciences du Climat de New York dont le thème était : A propos de bulle, la Nature nous dira elle même qui a raison, dans peu de temps…. D'ailleurs elle a déjà commencé à la faire depuis 1998 comme on le voit sur les courbes de températures globales officielles du Hadley Center, qui elles aussi sont soigneusement cachées au public avec un tour de passe-passe digne du jeu de bonneteau… (voir cette page)
|
|||||||||||||||||||
Mise à jour du 31 Mars 2009 : D'après le Professeur Lindzen du MIT, les rétroactions au réchauffement de la planète sont négatives et non positives comme l'affirme le GIEC ! Et il le prouve à partir d'observations directes. Voici l'analyse d'un texte que Lindzen a envoyé récemment à de nombreux collègues, comme suite à la dernière réunion de l'International Conférence on Climate Change qui s'est tenue du 8 au 10 mars à New York Quelques mots de rappels au sujet des rétroactions : Comme vous le savez si vous avez lu attentivement le contenu de ce site, l'effet de serre direct du CO2 serait, en fait, très faible. Les modèles du GIEC indiquent que, sans rétroactions, c'est à dire sans effets secondaires, un doublement du taux de CO2 de l'atmosphère ne pourrait guère réchauffer notre planète que de moins de 1°C, ce qui pourrait demander plus de 100 ans de consommation d'énergie fossile et serait certainement noyé dans le bruit des fluctuations naturelles. De fait, les affidés du GIEC n'ignorent pas ce fait d'évidence. Dès lors comment font-ils pour prédire des augmentations de température aussi élevées que +6°C à la fin du siècle ? Tout simplement, en invoquant l'idée que le faible réchauffement induit par le CO2 entraîne de facto, disent-ils, une suite d'événements qui vont dans le sens de l'aggravation de la hausse de température. Autrement dit, ils affirment que le réchauffement de la planète est un processus catastrophique, à cause de mécanismes du type de celui-ci : Si on réchauffe la planète, l'eau des océans s'évapore et la vapeur d'eau ainsi ajoutée dans l'atmosphère augmente l'effet de serre (H20 est un puissant gaz à effet de serre, plus puissant que le CO2). Ceci est une rétroaction positive. Certains,comme James Hansen évoquent l'idée que ce processus agit de manière constructive, c'est à dire que ce processus ( plus ça chauffe, plus de vapeur d'eau, plus d'effet de serre, plus de chaleur etc…) peut faire basculer la Terre dans un climat analogue à celui de Venus…d'où l'idée du "tipping point" qui fait si peur aux politiques et au grand public. Lindzen, qui est aussi un bon pédagogue, donne une image Imaginez maintenant qu'un mauvais plaisant ait eu l'idée saugrenue d'invertir vos pédales. Vous allez maintenant agir en dépit du bon sens : accélérer quand vous voulez ralentir et freiner lorsque vous trouvez que votre vitesse est trop lente. Ce faisant vous exercez des rétroactions positives et vous risquez fort de finir dans un mur (comme le "point de basculement" du climat, cher à James Hansen). C'est ce que nous prédisent les affidés du GIEC. Ils supposent (car rien n'est prouvé sur ce point là) que les rétroactions sont toujours positives, d'où leurs prédictions catastrophistes. Mais le climat a-t-il des pédales inversées ? Les rétroactions du climat au léger réchauffement induit par la faible proportion de CO2 ajouté par l'homme, sont-elles réellement positives ? A cette question, Richard Lindzen répond fermement que NON ! Et il utilise des données fournies par Lindzen s'appuie, entre autres, sur le graphe ci-contre. Sur ce graphe, la courbe en rouge représente les résultats des mesures satellitaires du flux Infra Rouge ( marqué LW, long wave) rayonné par la Terre en direction de l'espace. A noter que ce flux est mesuré à l'extérieur de l'atmosphère terrestre et qu'ainsi il mesure le flux sortant qui, s'échappant dans l'espace, contribue au refroidissement de la planète. Comme on peut le constater, ce flux sortant suit assez fidèlement la variation de la température du globe. On y perçoit très bien le réchauffement dû au El Niño de 1998. La courbe en pointillés, entourée de sa zone grise ( la marge d'erreur) représente, à la même échelle, les prévisions des modèles climatiques du GIEC. Comme on le voit, les modèles prévoient que le flux s'échappant vers l'espace ne varie que très peu de 1985 à 1999. On constate aussi que la courbe rouge ( les observations) et la courbe en pointillés noirs sont confondues de 1985 à 1990, ce qui n'est pas étonnant puisque les modèles ont été ajustés dans ce but. En bref, les modèles supposent que les rétroactions atmosphériques établissent un véritable couvercle vis à vis du flux infrarouge qui devrait normalement s'échapper dans l'espace. Ceci impose évidemment que la Terre ne pouvant se refroidir, doit se réchauffer (selon les modèles du GIEC). Manque de chance pour les modèles et pour les fans du GIEC, Les mesures réelles des flux infra-rouges sortant montrent que bien, au contraire, le couvercle n'est pas fermé et très loin de là. Les flux de chaleur s'évacuent facilement dans l'espace. Le rapport qui peut aller jusqu'à 7 entre les mesures réelles et les modèles montrent que les rétroactions sont, en réalité, fortement négatives nous dit Lindzen qui fait remarquer qu'un rapport de 2 à 3 entre les mesures et les modèles indiquerait déjà que les rétroactions sont nulles. Richard Lindzen conclut donc que les rétroactions actions réelles sont nettement négatives et que la sensibilité climatique au doublement du CO2 ( rétroactions incluses) n'est que de l'ordre de 0,3°C. Ce qui est évidemment négligeable par rapport aux fluctuations naturelles. Lindzen note aussi que pas moins de quatre équipes (affiliées au GIEC) qui se sont penché sur ces courbes n'en ont pas tiré les conclusions qui crèvent les yeux…(lien). __________________________________________________________________________________________________________________________ Mise à jour du 30 Juillet 2009 de l'article précédent : Richard Lindzen persiste et signe : Alors que les simulations numériques de tous les modèles des affidés au GIEC prédisent une rétroaction positive, les mesures réelles montrent clairement que celle-ci est négative ! Dans un article actuellement sous presse au GRL ( pdf disponible) Lindzen, R. S., and Y.-S. Choi (2009), Un compte rendu plus complet de ce travail a été présenté à Erice lors de la " 42ND SESSION OF THE INTERNATIONAL SEMINARS ON PLANETARY EMERGENCIES, Erice, 19-23 August 2009. Entre autres, Lindzen et Choi montrent un ensemble de graphiques qui en disent long sur les contradictions fondamentales qui existent entre les "prédictions" des modèles du GIEC et les mesures réelles des flux sortants effectués par ERBE (Earth Radiation Budget Experiment, Expérience sur le budget radiatif de la Terre) à bord du satellite ERBS de la NASA. Sur les 12 graphiques ci-contre : L'échelle horizontale est graduée en degrés celsius. Elle indique la température moyenne de la surface des océans (SST) L'échelle verticale indique la valeur du flux énergétique sortant de l'atmosphère en direction de l'espace. Les onze graphiques à fond blanc représentent les résultats des onze principaux modèles du climat utilisés (et lourdement financés) par le GIEC et les états participants. En particulier, on retrouve le modèle GISS-ER (de Hansen-Schmidt), le modèle UKMO-HadGEM1 (Hadley Center, UK) et, pour les lecteurs français, le modèle IPSL-CM4 de l'Institut Pierre Simon Laplace (Jouzel, le Treut)…. Tous ces modèles numériques décident ou prévoient que lorsque la température des océans augmente, le flux s'échappant de l'atmosphère terrestre vers l'espace doit diminuer : Ce serait donc une rétroaction positive car un réchauffement de la planète conduirait encore à une augmentation du réchauffement par réduction de la fuite de chaleur vers l'espace. Ceci est l'argument N°1 qui permet au GIEC de prévoir des hausses de température de 2 à 6° C en 2100. Sans cet argument (mis ici en défaut), le réchauffement induit par le CO2 seul, serait insignifiant… Mais que se passe-t-il en réalité ? La réalité est indiquée sur le douzième graphique (dont j'ai colorié le fond en jaune, en haut à gauche) qui, lui, est tracé directement à partir des mesures de flux effectuées par la mission ERBE. En opposition avec tous les modèles d'ordinateurs du GIEC, le flux de chaleur émergent de la planète CROIT quand la température de surface de la planète (ici, la SST) augmente. Ce qui signifie que l'atmosphère devient plus transparente quand la Terre s'échauffe. Ceci évite que notre bonne vieille planète ne se réchauffe davantage et provoque même un refroidissement. Il s'agit donc d'une rétroaction négative qui, au contraire des prévisions catastrophiques du GIEC, thermostate gentiment notre planète si celle-ci vient à se réchauffer, comme l'ont d'ailleurs prévu plusieurs auteurs en accord avec Lindzen. Ceci signifie en clair que l'idée généralement propagée par les activistes qu'un réchauffement des océans envoie plus de vapeur d'eau dans l'atmosphère et, donc, augmente l'effet de serre, est… idiote. La nature, la Terre et son atmosphère réagissent selon le principe cher à Le Chatelier (voir ici ou là) qui nous dit que la nature cherche toujours à minimiser les effets des perturbations qui lui sont imposées. Autrement dit, la nature préfère les rétroactions négatives aux positives. C'est une manière un peu cavalière de parler, bien sûr… Autrement dit, Lindzen et Choi ont trouvé et utilisé une méthode très astucieuse pour mesurer les rétroactions réelles de l'atmosphère lorsque la température de la Terre varie. Le résultat est sans appel : les modèles sont tous faux et, par conséquent, les "prévisions" "prédictions" "scénarios" du GIEC des +2 à +6°C … aussi ! D'autre part, Lindzen et Choi ont, en outre, fait une observation essentielle. Voici ce qu'ils disent dans le résumé : " Results also show, the feedback in ERBE is mostly from shortwave radiation while the feedback in the models is mostly from longwave radiation. Although such a test does not distinguish the mechanisms, this is important since the inconsistency of climate feedbacks constitutes a very fundamental problem in climate prediction." En fait -j'ose à peine l'écrire- cette dernière observation de Lindzen et Choi montre que non seulement les prédictions des ordinateurs du GIEC sont fausses mais, ce qui est encore beaucoup plus grave, que les prémisses du calcul sont erronées. En d'autres termes, les modèles du GIEC souffrent très certainement d'un ou de plusieurs défauts conceptuels (entre autres, de "l 'oubli" de l'albedo des nuages ce qui expliquerait que, dans la réalité, l'émission sortante est majoritairement à courte longueur d'onde et non à grandes longueurs d'onde comme dans les modèles). En bref, la théorie qui sous-tend ces modèles est très probablement (very likely) fausse. Remarques complémentaires :
____________________________________________________________________________________________________________________ Addendum du 18 Jan 2010 : Un article intitulé " Relationships between tropical sea surface temperature and top-of-atmosphere radiation (Relation entre la température de surface de la mer des tropiques et les radiations au sommet de l'atmosphère) a été accepté aux GRL. Il est actuellement sous presse. Il est signé de Kevin Trenberth et al. "Comment se fait-il que tu ne sois pas d'accord avec une affirmation qui dit que nous sommes loin de savoir où l'énergie s'en va ou de savoir si les nuages évoluent pour rendre la planète plus brillante ? Nous ne sommes pas près d'équilibrer le bilan énergétique. Le fait que nous ne puissions pas rendre compte de ce qu'il se passe dans le système climatique rend n'importe quelle considération en géoingeniering tout à fait sans espoir parce que nous ne pourrons jamais dire si ce sera un réussite ou non ! C'est grotesque !" ref : 1255523796.txt Et aussi, Trenberth, dans un autre courrier adressé à Michael Mann, le 12 octobre 2009 : " Le fait est que nous ne savons pas expliquer l’absence de réchauffement actuel et c’est grotesque." ( Réf :1255352257.txt) Ce qui relève somme toute de l'évidence et du bon sens. Malgré ses convictions intimes sur l'impossibilité actuelle de mettre en place un bilan réaliste des échanges terre-océan-atmosphère, (qu'il ne confie qu'à ses collègues proches), Kevin Trenberth effectue une critique en règle des découvertes de Lindzen et Choi, citées plus haut, qui démolissent les modèles sur lesquels Trenberth semble avoir quelques réticences. Ainsi, Trenberth suggère que l'ENSO et l'explosion du Pinatubo (1992) ont joué un rôle majeur dans l'établissement de la TOA (top of atmosphere radiation) perturbant gravement les résultats observés par Lindzen et Choi. Cependant, telle quelle est, la critique de l'article de Lindzen et Choi par Trenberth et al, fait tout à fait partie du débat scientifique normal. Elle oblige à réfléchir et à affiner. C'est comme cela que progressent les sciences. Il n'y a rien à y redire. Compléments du 18 février 2010 : Suite à l'article de Trenberth et al (dont Wong), Richard Lindzen a écrit ceci : "Thanks [to Revkin] for passing on the paper [by Trenberth et al.]. I had not seen it. However, Wong had communicated much of the material independently, and some of it is certainly valid. However, we have addressed the criticisms and have shown that the results remain — especially the profound disconnect between models and observations. We are currently preparing a new version, and it should be ready shortly." ___________________________________________________________________________________________________________ Note du 11/03/10 : Vous trouverez ici une conférence du Professeur Lindzen au FermiLab, en date du 10 février 2010 dans laquelle il évoque cette question (après la première moitié) après avoir tenu compte des corrections qui lui ont été suggérées. Effectivement, les modèles ne collent toujours pas avec les observations… (Merci au lecteur attentif qui me l'a signalée). Note du 23/11/10 : Richard Lindzen a été invité à témoigner devant la chambre des Représentants US le 17 Nov. 2010. "Testimony: House Subcommittee on Science and Technology hearing on A Rational Discussion of Climate Change: the Science, the Evidence, the Response". Sa présentation en pdf est ici. On y trouve la diapositive ci-contre qui rappelle les résultats essentiels des mesures de CERES et ERBE décrites ci-dessus (après corrections suggérées par Trenberth) : Lindzen, persiste et signe. Contrairement aux hypothèses introduites dans les modèles, les rétroactions sont globalement négatives. Or, comme chacun le sait, le réchauffement qui résulterait du CO2 seul, serait faible et les prédictions apocalyptiques du GIEC reposent sur l'introduction de rétroactions positives hypothétiques. Mise à jour, Juin 2011 : Richard Lindzen et son coauteur Choi, ont publié un nouvel article ( "Au sujet de la détermination de la sensibilité climatique et de ses implications") réaffirmant et raffinant les résultats mentionnés ci-dessus. " La suggestion du PNAS de choisir Solomon, Trenberth et Schmidt comme referees de l'article de Lindzen revient à demander à trois vieux cardinaux de rapporter sur un article qui fournit des preuves qui remettent sérieusement en question la possibilité de marcher sur de l'eau". Au sujet de cet article, Richard Lindzen rappelle que les données ne sont évidemment pas totalement fiables, cependant, il ajoute :"Néanmoins, un certain nombre de choses sont claires : " les modèles divergent fortement des observations. La simple corrélation entre le flux sortant et la température de surface donnera une représentation fausse de la sensibilité climatique et les observations suggèrent des rétroactions négatives plutôt que positives". C'est assez précisément ce que démontre, d'une autre manière, un article, publié en Juillet 2011, basé sur les observations satellitaires.
|
|||||||||||||||||||
17 Novembre 2012 : L'influence du CO2 anthropique est (et probablement restera) indétectable dans l'analyse du bilan des flux d'énergie : Elle est noyée dans les grandes fluctuations naturelles et les incertitudes… Que les lecteurs(trices) me pardonnent (une fois encore) mais cet article peut sembler un peu "technique". Néanmoins, il est important parce qu'il situe assez précisément les limites actuelles de la recherche dans le domaine de la modélisation et de la compréhension du climat, notamment, à partir des diagrammes fondamentaux des échanges énergétiques. 1) Introduction et quelques brefs rappels sur les bilans énergétiques. La Terre en "équilibre énergétique" ? Toute le monde le sait : Un système est en équilibre si "ce qui rentre est égal à ce qui sort (+ ce qui y reste)". Cependant, s'agissant d'un système aussi complexe que notre planète, les choses ne sont pas aussi simples… Il est généralement tenu pour certain, (à moins qu''il ne s'agisse d'une hypothèse accommodante) que la température moyenne de la Terre (atmosphère comprise) resterait stable si l'énergie qu'elle reçoit en provenance du soleil, pendant un temps donné, compense exactement celle qu'elle perd par rayonnement, vers l'espace sidéral, pendant le même temps. Outre le fait qu'on peut s'interroger sur la signification réelle de la définition de la température moyenne d'un objet aussi complexe et hétérogène que la Terre (et son atmosphère), on constate que ce postulat (rarement remis en cause) d'équilibre énergétique planétaire est à la base des calculs généraux sur le climat de la planète. Comme on s'en doute, les choses se compliquent énormément lorsqu'il s'agit d'un système aussi complexe et hétérogène que la Terre et son atmosphère. Les temps de réponse à une variation de l'irradiation sont très différents, par exemple, pour les océans, les continents, la végétation etc. et il varie aussi énormément avec la longueur d'onde de la radiation incidente. De plus, comme l'on sait, les océans et l'atmosphère sont sujets à des courants puissants qui redistribuent en permanence les flux et les gradients de températures. Il est bien connu et observé que les températures océaniques sont soumises à des variations cycliques, avec des périodes allant du pluriannuel au pluridécennal comme les NAO, PDO, AMO, ENSO etc. souvent évoqués dans la page../oceans.html. Ces oscillations sont plus ou moins couplées d'un bassin océanique à l'autre, comme cela a été décrit en détail dans ce billet ("La Ola") basé sur les travaux de A. Tsonis et al.
En bref, rien n'est jamais stable dans le système Terre-atmosphère.Tout évolue en permanence avec des tendances plus ou moins cycliques ou, parfois, en apparence, erratiques. En outre, les temps de réponse dépendent énormément des sous-systèmes considérés. Pour dire la vérité, et comme tout évolue en permanence et que tout est couplé et ne peut atteindre son équilibre énergétique qu'avec des temps de réponses très variés, on ne peut probablement pas réellement définir ce qu'est exactement la situation "d'équilibre énergétique". Dans ces conditions, appliquer le principe de "l'équilibre énergétique" mentionné ci-dessus est une réelle gageure. Tout au moins, faudrait-il être capable d'indiquer, au moins, deux précisions : -Atteindre l'équilibre énergétique ? A combien près ? (C'est, en filigrane, ce dont nous allons parler ci-dessous).
De fait, stricto sensu et du point de vue d'un physicien un peu scrupuleux, le postulat de l'équilibre énergétique n'est absolument pas garanti pour un système aussi hétérogène et à la dynamique aussi complexe que celui de notre planète et son atmosphère. Il est fort possible, sinon probable, qu'un tel équilibre ne soit jamais atteint, ou atteint sporadiquement, et que le bilan global (si on peut le calculer) effectue des oscillations plus ou moins compliquées, avec des amplitudes et des périodes très variables, autour d'une situation d'équilibre virtuelle, sans jamais y stationner. En bref, il est possible sinon probable que le concept d'équilibre énergétique qui sous-tend un grand nombre de considérations sur le climat de la planète soit une vue de l'esprit, sans réelle matérialité. Dans son témoignage auprès de la Chambre des Représentants US (Le 17 Nov. 2010) ), la climatologue Judith Curry, fréquemment mentionnée dans ce site, qualifiait le changement climatique de "wicked problem" soit approximativement de "problème insoluble" (voir le sens particulier de "a wicked problem" h/t Ian (h/t ="hat tip" = "coup de chapeau à"). Ce qualificatif pertinent, très parlant en anglais, a d'ailleurs été repris, lors de son récent témoignage (25 Août 2012) auprès du Sénat US, par John Christy qui notait que :
Autrement dit, nous ne savons pas si le système n'est pas constamment en déséquilibre pour des raisons parfaitement naturelles. Cela rejoint les considérations énoncées ci-dessus sur la matérialité douteuse de la notion "d'équilibre énergétique". Du point de vue des observations et des estimations que l'on pourrait tirer des modélisations, ce constat doit se traduire, au minimum, par des marges d'erreurs ou des incertitudes conséquentes sur les échanges des flux entre les différentes composantes du système Terre-atmosphère-environnement. Il semblerait que ce point essentiel ait été négligé par les premiers promoteurs des "bilans énergétiques" comme nous allons le voir ci-dessous. A ma connaissance, après plusieurs tentatives antérieures, les premiers bilans relativement détaillés des échanges énergétiques de la planète et de son atmosphère ont été publiés en 1997. Notamment, les travaux de Kiehl et Trenberth (publiés dans le BAMS) étaient cités dans le Troisième Rapport du GIEC (IPCC TAR 2001).Les résultats de ces travaux figurent dans nombre de publications subséquentes sous la forme d'un dessin qui est représenté ci-dessous, avec sa légende traduite en Français. Le voici. La légende est explicite.
Ce graphique peut surprendre un observateur attentif. Il y est notamment indiqué (en bas) que la planète absorbe en permanence 0,9 W.m-2. Comme on peut le constater, le dessin ci-dessus ne comporte aucune indication d'incertitude et de marges d'erreurs, ce qui peut sembler extrêmement hasardeux et jette un doute sérieux sur la signification réelle de l'effet de serre additionnel résultant de ce genre de diagramme, lequel a pourtant figuré (sans le moindre commentaire à ce sujet) en bonne place, dans plusieurs rapports scientifiques du GIEC. De même, les lecteurs (très) attentifs pourront se souvenir que les flux infrarouges émis par les gaz à effet de serre ne résultent pas d'un champ de vecteurs comme l'est, par exemple, le flux en provenance directe du soleil, ce qui, du point de vue théorique, met à mal (notamment) l'idée d'appliquer des lois de conservation des flux dans une représentation 1D comme dans le dessin ci-dessus et comme cela avait été noté auparavant. Cependant, rassurons-nous, les ouvrages de physique de l'atmosphère nous affirment que, s'agissant de la limite des fortes absorptions (absorption quasi saturée, comme c'est le cas pour le CO2 dans la troposphère où ce sont les bandes latérales de l'absorption qui jouent un rôle primordial) ce sont les transferts verticaux qui prennent le dessus comme dans l'image 1D représentée ci-dessus. Ceci peut être compris en réalisant que l'absorption, notamment par le CO2, est un peu "moins saturée" (si l'on peut dire) dans la direction où le trajet optique dans l'atmosphère est le plus petit, c'est à dire à la verticale. Il n'en reste pas moins que les approximations diverses, l'absence des marges d'erreurs et les considérations générales sur la réalité de "l'équilibre énergétique" posaient quelques questions épineuses quant à la robustesse scientifique des bilans énergétiques tels que celui qui est représenté ci-dessus et que critique l'article présenté ci-dessous. 2) L'article qui vient de paraître dans Nature Geoscience : Le titre en français : "Une mise à jour sur l'équilibre énergétique de la Terre au vu des plus récentes observations satellitaires" Voici les affiliations des auteurs : 1Center for Climate Sciences, Jet Propulsion Laboratory, California Institute of Technology, 4800 Oak Grove Drive, Pasadena, California 91109, USA, 2Institute for Atmospheric and Climate Science, ETH Zurich, Universitätsstrasse 16, CH-8092, Zurich, Switzerland, Voici le résumé original en Anglais suivi d'une traduction en Français, dans le cadre jaune. Abstract : Climate change is governed by changes to the global energy balance. At the top of the atmosphere, this balance is monitored globally by satellite sensors that provide measurements of energy flowing to and from Earth. By contrast, observations at the surface are limited mostly to land areas. As a result, the global balance of energy fluxes within the atmosphere or at Earth’s surface cannot be derived directly from measured fluxes, and is therefore uncertain. This lack of precise knowledge of surface energy fluxes profoundly affects our ability to understand how Earth’s climate responds to increasing concentrations of greenhouse gases. In light of compilations of up-to-date surface and satellite data, the surface energy balance needs to be revised. Specifically, the longwave radiation received at the surface is estimated to be significantly larger, by between 10 and 17 Wm–2, than earlier model-based estimates. Moreover, the latest satellite observations of global precipitation indicate that more precipitation is generated than previously thought. This additional precipitation is sustained by more energy leaving the surface by evaporation — that is, in the form of latent heat flux — and thereby offsets much of the increase in longwave flux to the surface.
Ce résumé est très clair. Cependant et au vu du texte de l'article, on peut ajouter les considération suivantes : -On pense que la Terre (et l'atmosphère), en moyenne (avec les restrictions énumérées ci-dessus), équilibre l'énergie qu'elle reçoit du soleil, d'une part en émettant des radiations infrarouges vers l'espace sidéral et d'autre part en réfléchissant une partie des rayons solaires incidents. Les satellites actuels sont maintenant équipés de détecteurs relativement précis et fiables capables de mesurer, avec une précision acceptable (disons 1% pour les flux infrarouges et 3 pour dix-mille pour le flux solaire incident, qui à cette échelle, n'est pas constant (du fait de l'activité solaire)), les flux sortants "Outgoing" au sommet de l'atmosphère (TOA : Top of Atmosphere). – Par contre, les échanges qui impliquent la surface terrestre (océans, continents, végétation etc.) et la troposphère (nuages, aérosols etc.) sont très difficiles, pour ne pas dire impossibles à évaluer avec une précision acceptable. Comme le déclare fort justement le résumé de l'article de Stephens et al, l'incertitude systémique qui pèse sur ces données a une grave conséquence : "L'absence d'une connaissance précise des flux énergétiques à la surface affecte profondément notre capacité à comprendre comment le climat de la Terre répond à une augmentation des concentrations des gaz à effet de serre". On le comprendra aisément. Ceci s'inscrit directement en faux contre les affirmations propagées ici ou là par les tenants de la thèse du GIEC en vigueur , selon lesquelles "The science is settled ", "la science est comprise". C'est, en d'autres termes, la même idée de "science insoluble" avancée par Judith Curry et John Christy, ci-dessus. Voici une figure maîtresse de l'article de Graeme Stephens et al. La légende est traduite de l'anglais. "Figure B1 : Le bilan annuel global de la Terre pour une période approximative de 2000-2010. Tous les flux sont exprimés en W.m–2. les flux issus du soleil sont en jaune et les flux infrarouges en rose. Les quatre quantités de flux dans les cadres grisés en violet représentent les composantes principales de l'équilibre énergétique atmosphérique. "
Voici une version un peu plus explicite du même diagramme (tirée du même article). En haut, le budget au TOA (au sommet de l'atmosphère), assez précisément évalué, comme on le voit. Les incertitudes sont de l'ordre du pour cent. Ci-dessous, la figure originale avec sa légende traduite en français (cadre jaune):
Comme on le constate et comme le précise le texte de l'article, les précisions des mesures relatives à la surface sont hors de proportion avec celles qui seraient nécessaires pour pouvoir évaluer directement l'amplitude et même le signe de la variation de l'effet de serre. Ainsi, l'article de Stephens et al. précise que : "The net energy balance is the sum of individual fluxes. The current uncertainty in this net surface energy balance is large, and amounts to approximately 17 Wm–2. This uncertainty is an order of magnitude larger than the changes to the net surface fluxes associated with increasing greenhouse gases in the atmosphere (Fig. 2b).The uncertainty is also approximately an order of magnitude larger than the current estimates of the net surface energy imbalance of 0.6 ±0.4 Wm–2 inferred from the rise in OHC."
Stephens et al en tirent les conclusions qui s'imposent :
Spephens et al. donnent quelques conseils judicieux pour essayer d'améliorer la situation tout en adressant une critique sans concessions aux travaux précédents tels que ceux de Trenberth (auteur principal au GIEC) et al. qui figuraient dans les rapports du GIEC (diagramme cité plus haut) De plus, les auteurs conviennent que même si ces progrès sont réalisés, il a peu d'espoir de parvenir jamais à une mise en évidence directe de l'effet des gaz à effet de serre. Remarques de Judith Curry sur l'article de Stephens et al. Dans son forum (Climate etc.), la climatologue Judith Curry apprécié et félicite (comme moi) le travail de "Graeme", comme elle dit. Aux USA et aussi en France, les chercheurs s'appellent volontiers par leurs prénoms, voire par leurs surnoms, notamment pour désigner le premier auteur d'un l'article cité (lorsqu'on le connaît personnellement). 3) Différences entre les résultats des modèles et les observations selon le rapport AR4 du GIEC (2007) : Du fait de la flexibilité des paramètres ajustables utilisés par les modèles pour décrire des phénomènes complexes (tels, par exemple, que l'ennuagement) dont on sait bien qu'ils sont plus ou moins bien modélisés, il est pratiquement toujours possible de "tuner" les modèles pour qu'ils rendent approximativement compte, en moyenne et pour le globe pris dans son ensemble, de la réalité des observations des flux. A ce sujet, on peut se remémorer le contenu de la section qui traite de l'équilibre énergétique dans dernier rapport du GIEC AR4 (2007) (IPCC- AR4 -WG1). celui-ci nous présente la Fig. 8.4 reportée ci-dessous, avec sa légende traduite en français. Il faut se rappeler également que, s'agissant de moyennes quadratiques, les erreurs indiquées ci-dessous sont évidemment toujours positives (bien qu'elles puissent être négatives dans la réalité). C'est l'élévation au carré de la RMS qui en est responsable. Comme on le sait, le signe de l'erreur est perdu dans l'opération. La légende ci-dessous est une traduction de celle qui figure dans le rapport AR4 du GIEC.
Le graphe du haut est relatif aux flux de courte longueur d'onde (SW, Visible et UV) réfléchi vers l'espace. Comme on peut l'observer, les erreurs entre les prédictions des modèles et les mesures (ERBE) sont de l'ordre de quelques 20 W.m-2, ce qui est considérable par rapport aux 0,6 W.m-2 de l'effet de serre additionnel. Nul doute que la modélisation hasardeuse de l'ennuagement (haute et basse altitude) qui dépend beaucoup de la latitude est en grande partie responsable de ces erreurs. Le graphe du bas est relatif au flux émergeant infrarouge (LW) , toujours au sommet de l'atmosphère (ce sont des mesures satellitaires). Comme on peut le voir, les erreurs dans la zone équatoriale-tropicale qui joue un rôle proéminent dans la théorie de l'effet de serre, sont aussi de l'ordre de 15 à 20 W.m-2, ce qui est totalement rédhibitoire pour le but recherché. J'ajouterai que l'article de Stephens et al. constitue (enfin) une approche scientifiquement honnête vers une tentative de mise en place d'un bilan des échanges énergétiques de notre planète avec son environnement quelles ques soient les critiques que l'on peut porter, par ailleurs, à l'égard de ce genre d'approche. S'il est vrai que l'article de Stephens et al tire profit des plus récentes mesures satellitaires qui ont permis d'affiner et de rectifier le bilan énergétique (notamment pour ce qui est de la pluviosité largement sous estimée dans les modèles du GIEC, comme dans les mesures), on se demande quand même pour quelle raison il a fallu attendre près de 15 ans pour que des marges d'erreurs apparaissent, enfin, sur les diagrammes publiés dans la littérature et repris dans les rapports scientifiques du GIEC. Il est hautement probable que vous n'entendrez ni de verrez aucun des médias francophones évoquer l'article de Stephens et al. publié dans Nature Geo. résumé ci-dessus. Cet article est pourtant important et il est dûment publié dans une revue réputée, mais il remet en question un certain nombre de "certitudes", comme le font beaucoup d'autres articles scientifiques présentés dans ce site. En attendant, la science progresse dans le bons sens. Lentement mais sûrement.
|
|||||||||||||||||||
Août 2011 : Encore un scoop : Observations contre modèles du GIEC : Le flux de chaleur s'échappant du sommet de l'atmosphère (et qui donc refroidit la terre) est largement sous estimé par les modèles du GIEC. D'autre part, les mesures traditionnelles des taux de rétroaction sont aussi erronées qu'irréalisables, nous démontrent, observations et modèle à l'appui, Roy Spencer (avec Will Braswell), le responsable des mesures satellitaires de la NASA à l'Université d'Alabama Huntsville (UAH). Autrement dit, les observations satellitaires montrent que le piégeage de la chaleur par l'effet de serre atmosphérique est beaucoup moins efficace que prévu par les modèles qui utilisent un taux de rétroaction surestimé. Roy Spencer et son collègue à l'UAH, Braswell, nous expliquent pourquoi et comment. Introduction et rappels : L'article que nous examinons plus bas dans ce billet fait suite à un article précédent des mêmes auteurs On the diagnosis of radiative feedback in the presence of unknown radiative forcing. Qui est, lui-même, une extension d'un précédent article paru dans Journal of Climate (2008) (accessible en ligne) Leur approche précédente avait été critiquée par un article subséquent de Dessler D'une certaine manière et avec une présentation notablement différente de celle des articles précédents, le nouvel article de Spencer et Brasswell constitue un démenti et une critique de la méthodologie utilisée par Dessler et donc, par les modélisateurs du GIEC. – L'article, sujet de ce billet : Voici donc une brève analyse de ce nouvel article de Spencer et Braswell qui constitue une sérieuse pierre dans le jardin des modélisateurs du GIEC : Cet article est paru dans la revue Remote Sensing des spécialistes des mesures satellitaires (ou par ballons sondes) dont les lecteurs de ce site savent que Spencer est l'un des principaux initiateurs et l'un des principaux responsables. De ce fait, Spencer dispose de la totalité des bases de données des mesures par satellites. Il en est évidemment un fin connaisseur et il n'est guère surprenant qu'il publie dans cette revue, un article qui traite, en premier lieu, de la signification réelle des mesures satellitaires. "A propos du diagnostic erroné des rétroactions dues à la température de surface à partir des variations de l'équilibre énergétique radiatif de la Terre." On the Misdiagnosis of Surface Temperature Feedbacks from Roy W. Spencer * and William D. Braswell _________________________________________________________________________ Abstract: The sensitivity of the climate system to an imposed radiative imbalance remains the largest source of uncertainty in projections of future anthropogenic climate change. Here we present further evidence that this uncertainty from an observational perspective is largely due to the masking of the radiative feedback signal by internal radiative forcing, probably due to natural cloud variations. That these internal radiative forcings exist and Résumé : La sensibilité du système climatique en réponse à un déséquilibre radiatif demeure la plus grande source d'incertitudes dans les projections sur le changement climatique anthropique. Dans cet article nous présentons une preuve supplémentaire que cette incertitude, du point de vue des observations, est en grande partie due au masquage du signal de rétroaction radiative par un forçage radiatif interne, probablement dû aux variations naturelles de la couverture nuageuse. Le fait que ces forçages radiatifs naturels existent et, probablement, corrompent le diagnostic des rétroactions, est démontré en effectuant une analyse retardée des données satellitaires et des modèles climatiques, interprétés à l'aide d'un modèle simple de forçage-rétroaction. Tandis que les mesures satellitaires pour la période 2000-2010 s'écartent sensiblement -dans le sens d'une sensibilité climatique plus faible – des valeurs calculées de la même manière à partir des modèles climatiques couplés, nous trouvons qu'en utilisant les méthodes traditionnelles, il n'est pas possible de quantifier avec précision ce désaccord au sujet des rétroactions qui déterminent la sensibilité climatique. On en conclut que le diagnostic des rétroactions atmosphériques du système climatique demeure un problème non résolu. Ceci résulte principalement de l'incapacité des observations satellitaires du bilan radiatif à distinguer entre le forçage radiatif et la rétroaction radiative. Pour bien comprendre ce qui va suivre, il est bon de se remémorer la distinction (introduite par les climatologues modélisateurs proches du GIEC) qui est faite entre le "forçage" et la "rétroaction". Le forçage résulte de l'action directe sur le climat (par exemple sur la température globale) d'un agent externe tel que l'irradiation solaires ou encore l'augmentation atmosphérique du CO2 d'origine anthropique. C'est du moins ce que postulent les modèles en vigueur.
Que les lecteurs me pardonnent la longue digression (l'encart jaune ci-dessus) qui précède mais il m'a semblé important d'insister sur le fait que le sujet des rétroactions auquel se sont intéressés Spencer et Braswell, tout comme d'ailleurs Lindzen et Choi, est fondamental pour notre compréhension du climat. Revenons maintenant à l'article de Spencer et Braswell. Comme dans leurs articles précédents et en se basant sur les observations satellitaires (comme on va le voir), Spencer et Braswell considèrent que les variations de la température de la surface terrestre et surtout de la surface des océans, ΔT, répondent aux diverses sollicitations (forçage radiatif N(t) , forçage non radiatif S(t)) par l'intermédiaire d'une simple équation (1) dépendante du temps, telle que la suivante :
Les auteurs expliquent : "L'Equation (1) indique que les sources, dépendantes du temps, de forçage non-radiatif S et de forçage radiatif N, provoquent une variation de température dépendante du temps du système climatique dont la capacité thermique est Cp. Cette variation de température l'écarte de son état d'équilibre (dΔT/dt), avec une "force de restauration" radiative résultante (NdT: c'est à dire une rétroaction radiative) agissant pour stabiliser le système. ". De fait, cette équation n'a rien de mystérieux ni de révolutionnaire. Au terme de rétroaction près (-λΔT), c'est l'équation standard qui indique l'évolution temporelle de la température d'un corps soumis à forçage radiatif N et à un forçage non radiatif S (convectif, par exemple), telle qu'on peut la retrouver, entre autres, dans cet exercice pédagogique destiné à faire prendre conscience aux étudiants de l'importances relative des pertes par radiation et par convection, d'un corps chauffé. 1 – La forme de l'équation (1) est directement visible dans les relevés satellitaires : La relation "intégro-différentielle" qui existe entre les variations de température et les flux émis et absorbés mesurés par le satellite Terra CERES est immédiatement perceptible si on considère la Figure 2 de l'article de Spencer et Braswell. La voici, accompagnée de sa légende.
"Figure 2. Séries temporelles des anomalies moyennes mensuelles pour le globe.
et dans (b) des flux radiatifs selon le satellite Terra CERES SSF Edition 2.5, pour la période allant de Mars 2000 à Juin 2011. Toutes les séries temporelles ont subi un lissage 1-2-1 de manière à réduire le bruit d'échantillonnage. "
Comme on le constate de visu, les graphes qui montrent la variation temporelle des flux émis par les océans (en rouge : en lumière infra-rouge, en bleu : en lumière visible et en noir : le flux net émis (valeurs positives) ou absorbé (valeurs négatives)), sont nettement plus "chahutés" que les variations correspondantes de température reportées dans le graphe (a) situé au dessus. A première vue, on pourrait dire que la variation temporelle des flux émis et absorbés ressemble grossièrement à la dérivée de la courbe des températures (a), ce qui est bien cohérent avec la forme de l'équation (1). 2 – Les mesures directes des flux radiatif qui ne tiennent pas compte du retard (notamment) induit par les océans, c'est à dire les mesures qui sont faites au temps 0, conduisent à une évaluation erronée du taux de rétroaction : Il est important de se souvenir que les instruments de mesure du satellite ne sont sensibles qu'aux flux radiatifs (N− λΔT) et non pas aux échanges non-radiatifs (S). "Il est utile de rappeler que le bilan radiatif mesuré par les satellites est une mesure des effets combinés des termes radiatifs de l'équation (ci-dessus), c'est à dire du forçage radiatif N et du facteur de rétroaction (− λΔT).Le fait que la présence de N a un impact considérable sur le diagnostic de la rétroaction est facilement démontré à partir d'un simple modèle dépendant du temps, basé sur l'équation (1). Si nous supposons que la valeur de Cp (NdT : la capacité calorifique) est celle d'une couche d'océan de 25m, que le paramètre de rétroaction net est λ = 3, et qu'un forçage sinusoïdal de période de un an est appliqué, la réponse de la température sera celle indiquée sur la figure 1."
Figure 1. "Démonstration à partir d'un modèle simple de forçage-rétroaction du fait que les mesures instrumentales du budget radiatif du flux net radiatif (forçage + rétroaction) à l'aide des satellites sont très différentes de ce qui est requis pour diagnostiquer le paramètre de rétroaction net (c'est à dire de la rétroaction seule)." En rouge : Forçage radiatif direct N. Dans ce graphe, on suppose qu'il n'existe que des forçages radiatifs. C'est-à-dire qu'on suppose qu'il n'existe pas d'autre cause de réchauffement ou de refroidissement non-radiatifs tels que l'évaporation ou la convection (Ce qui est évidemment peu réaliste.) Le graphe suivant montre ce qui se passe quand on introduit, (comme c'est le cas dans la réalité), un forçage non radiatif (convection, chaleur latente d'évaporation etc.)
Figure 4. "Variation des coefficients de régression décalés (NdT : voir l'explication de cette expression difficile à traduire, ci-dessous) entre la température et le flux radiatif déduits du modèle simple (NdT : équation ci-dessus) forçage/rétroaction résolu pour trois cas de forçages : forçage purement non-radiatif (ligne en pointillés) ; forçage purement radiatif (ligne en tiretés) et un mélange de forçage radiatif à 70% /forçage non-radiatif à 30%. Un paramètre de rétroaction de 3 W m−2 K−1 et une profondeur de 25m pour le mélange océanique ont été utilisés pour toutes les simulations qui ont tourné, chacune, pour une durée de 500 ans de temps de simulation." Sur son site, Spencer nous explique le sens de l'expression "coefficients de régression décalés" exprimés en W/m2/°C utilisée aussi bien dans le graphe ci-contre que dans les graphes suivants : "Les courbes des graphes suivants (c'est à dire les Fig. 3 et 4) sont des coefficients de régression retardés lesquels peuvent être compris comme le taux de gain (ou de perte) d'énergie radiative par degré Celsius de changement de température, mesurés à différents décalages de temps. Un décalage temporel de zéro mois peut être vu comme le mois où la température est maximale (ou minimale). J'ai effectivement vérifié cette interprétation en examinant des événements chauds et froids à partir d'itérations de modèles climatiques CNRM-CM3 qui montraient une activité intense El Niño et La Niña." Les figures 1 et 4 montrent clairement que l'estimation de la valeur du taux de rétroaction est impossible au temps zéro, parce que le flux mesuré dépend grandement des divers facteurs qui forcent la variation de température de surface, que ceux-ci soient d'origine radiative ou non-radiative. Comme Spencer le précise lui-même dans son site et dans son article, le décalage temporel entre les forçages radiatifs et la réponse en température (identique à la courbe en pointillés des forçages non-radiatifs, ci-dessus), rend impossible l'évaluation du facteur de rétroaction qui peut être estimé positif, alors qu'il est négatif, ou l'inverse. Tout cela est illustré par les courbes précédentes. Je rappelle que Richard Lindzen a déclaré, en conclusion de son dernier article, que : "les modèles divergent fortement des observations. La simple corrélation entre le flux sortant et la température de surface donnera une représentation fausse de la sensibilité climatique et les observations suggèrent des rétroactions négatives plutôt que positives". Voyons maintenant ce que donnent la comparaison des mesures effectives des flux radiatifs (globaux et océaniques) avec les résultats des modèles du GIEC, toujours selon l'article de Spencer et Braswell. 3 – La mesure des flux radiatifs réellement émis par la planète et, notamment, par les océans, diffèrent considérablement de ceux qui résultent des modèles du GIEC. Les pertes de chaleur sont supérieures à celles qui sont calculées.
Figure 3. Coefficients de régression retardés et avancés entre les températures mensuelles de surface et les anomalies de flux radiatif net selon les observations (courbes en vert) et les modèles climatiques couplés. (a) Pour les moyennes globales.
(b) Pour les moyennes océaniques globales de 60°N à 60°S.
Comme on peut le voir du premier coup d'oeil, les variations observées ont des apparences conformes à celles du modèle (équation 1) de Spencer et Braswell. On voit aussi immédiatement que si les modèles restituent, approximativement, une forme qui s'apparente à celle des observations et du modèle "décalé" de Spencer et Braswell, les amplitudes sont nettement différentes. En bref, on constate que les modèles "piègent" nettement plus de chaleur que la réalité objective. Autrement dit, les océans et la planète libèrent plus de chaleur vers l'espace que ne le croient les modélisateurs. En d'autres termes, comme Richard Lindzen et Choi, Spencer et Braswell observe que les sensibilités climatiques des modèles du GIEC sont exagérées. Concernant les graphes ci-dessus, Spencer ajoute ce commentaire, sur son site: "Le graphe ci-dessus est peut-être une représentation plus intuitive pour analyser les données que celle des "diagrammes de phase" que j'ai mis en avant durant ces dernières années. Un des éléments CLEF que cela montre est qu'effectuer ces régressions seulement au temps zéro (Comme Dessler l'a fait récemment dans son article de 2010 sur les rétroactions des nuages de même que tous les chercheurs avant lui qui ont tenté de le faire), n'a en réalité que peu de sens. Du fait des temps de retard (ou d'avance) dans la réponse de la température au déséquilibre radiatif, on DOIT effectuer ces analyses en prenant en compte le comportement retardé (ou avancé) si on veut avoir quelque espoir de diagnostiquer les rétroactions. Au temps t=0, il ne reste que très peu de signal à analyser." 4) Voici quelques extraits des conclusions de Spencer et Braswell : (caractères engraissés par R. Pielke Sr) “We have shown clear evidence from the CERES instrument that global temperature variations during 2000–2010 were largely radiatively forced. Lag regression analysis supports the interpretation that net radiative gain (loss) precedes, and radiative loss (gain) follows temperature maxima (minima). This behavior is also seen in the IPCC AR4 climate models.” “…..we are…… faced with a rather large discrepancy in the time-lagged regression coefficients between the radiative signatures displayed by the real climate system in satellite data versus the climate models. While this discrepancy is nominally in the direction of lower climate sensitivity of the real climate system, there are a variety of parameters other than feedback affecting the lag regression statistics which make accurate feedback diagnosis difficult.” “….much of the temperature variability during 2000–2010 was due to ENSO…, we conclude that ENSO-related temperature variations are partly radiatively forced. We hypothesize that changes in the coupled ocean-atmosphere circulation during the El Niño and La Niña phases of ENSO cause differing changes in cloud cover, which then modulate the radiative balance of the climate system. As seen in Figure 3(b) for the ocean-only data, the signature of radiative forcing is stronger over the oceans than in the global average, suggesting a primarily oceanic origin.” En français : "Nous avons montré un élément de preuve évident, tiré des données des instruments CERES que les variations de température globale pendant la période 2000-2010 (NdT : CERES n'existait pas auparavant) étaient largement d'origine radiative. Une analyse des relations en fonction du temps supportent l'interprétation que le gain radiatif net (ou la perte) précède et que les pertes radiatives (ou les gains) suivent les maxima (minima) de température. Ce comportement est également observé dans les modèles numériques du rapport AR4 du GIEC." "Nous sommes …confrontés avec un assez grand désaccord entre les coefficients de régression retardés entre les signatures radiatives du système climatique réel, mises en évidence par les satellites et les modèles climatiques. Alors que ce désaccord est globalement en direction d'une plus faible sensibilité du système climatique réel, il existe une variété d'autres paramètres que les rétroactions affectant la statistique des régressions retardées qui rendent un diagnostic fiable des rétroactions difficiles." (NdT ; Roger Pielke Sr a sans doute souligné cette phrase parce qu'il pense que les paramètres qui affectent le climat sont loin d'être inclus dans les modèles, tels que l'utilisation des sols par exemple). "…La plupart de la variabilité de la température de 2000 à 2010 résulte de l'ENSO…Nous concluons que les variations de températures en relation avec l'ENSO sont partiellement radiativement forcées. Nous avançons l'hypothèse que les variations de la circulation couplée océans-atmosphère durant les phases El Niño et La Niña provoquent différentes modifications de la couverture nuageuse qui, à leur tour, modulent l'équilibre radiatif du système climatique. Comme on le voit dans la figure 3(b) pour les données relatives aux océans, la signature du forçage radiatif est plus forte sur les océans que dans la moyenne du globe ce qui suggère une origine surtout océanique."
_____________________________________________________________________________________________________________ 6) Des échos dans la presse et diverses réactions : A la différence de nombre des articles "contrariants" que j'ai eu l'occasion d'analyser dans les pages de ce site, il semble que l'article de Spencer et Braswell ait suscité quelques échos dans la presse grand public (anglophone, bien sûr). Même dans la presse qui, d'ordinaire reste silencieuse lors de la publication d'articles qui s'écartent du dogme en vigueur. Il semble que le cas de l'article de Spencer et Braswell ne soit d'ailleurs plus un cas isolé. D'autres articles "dérangeants" ont, tout récemment,. également bénéficié d'une certaine diffusion médiatique (anglophone).C'est bon signe. En voici quelques exemples, non exhaustifs : Forbes.com : "De nouvelles données de la NASA creusent un trou béant dans l'alarmisme au réchauffement climatique." Mail (online) : "Le changement climatique est beaucoup moins sérieux que les "alarmistes" le disent, déclare un scientifique de la NASA. Slashdots (forum anglophone très fréquenté): " De nouvelles données de la NASA jettent le doute sur les modèles du réchauffement climatique." Prof R. Pielke Sr : "…l'étude de Spencer and Braswell est une très importante contribution au débat sur la science du climat. Si, comme ils l'ont montré, les modèles sont incapables de rendre compte correctement de la façon dont le système climatique répond à un déséquilibre radiatif sur des périodes temps courtes, ceci soulève indubitablement de sérieuses questions sur la robustesse des modèles en termes de modélisation par la physique, ce qui résulterait nécessairement dans des simulations numériques erronées sur des échelles de temps multi-décennales. " Judith Curry donne un rapport assez complet (plutôt sympathique pour S et B) sur diverses réactions suscitées par la publication de cet article. Elle rapporte, en particulier, les propos de Kerry Emanuel (collègue de R. Lindzen au MIT). Voici ce qu'a dit Kerry Emanuel (non sceptique) : " Les bloggers et d'autres ne reflètent pas les vraies découvertes de Spencer. Emanuel a dit que le travail (de Spencer et Braswell) était précautionneux et essentiellement limité à la mise en évidence de problèmes liés à la prédiction des rétroactions de chaleur. Il a déclaré que ce qui était écrit à propos de l'étude de Spencer par des non-scientifiques, n'avait aucun rapport avec la réalité. " Il est inutile de préciser que cet article qui prend gravement en défaut le coeur même des modèles des gaz à effet de serre du GIEC, a soulevé une tempête de protestations de la part des tenants du dogme en vigueur (tels Gavin Schmidt, Michael Mann, Kevin Trenberth, comme d'habitude). En réponse (partielle) à certaines de ces attaques, Spencer écrit sur son blog : "..Si vous essayez, vous aurez un "faux positif", même si la rétroaction est fortement négative. La démonstration est simple et persuasive. Elle est comprise par Dick Lindzen du MIT, Isaac Held de Princeton (qui est loin d'être un sceptique) et de beaucoup d'autres qui ont pris le temps de chercher à la comprendre. Il n'est pas nécessaire que vous croyiez que "ce sont les nuages qui provoquent le changement climatique" (comme je le pense), parce que c'est le retard temporel -qui est sans ambiguïté – qui est la cause du problème de l'estimation de la rétroaction." Visiblement cet article dérange énormément l'Establishment médiatico-politico-scientifique. C'est un indice qui ne trompe pas. Cependant, en cette occasion et une fois encore, beaucoup des détracteurs proches du GIEC ont visiblement dépassé et de loin, les limites acceptables du débat scientifique. Comme Roy Spencer et Will Braswell, nous attendons, avec impatience, un article scientifique étayé qui nous expliquerait en quoi et comment cet article qui se base sur un modèle simple corroboré par des observations directes (et non pas sur des modèles informatiques), serait inapproprié ou erroné… A suivre donc. Stay Tuned ! |
|||||||||||||||||||
24 Octobre 2010 : Atmosphère : Observations vs Modèles : A la recherche du hotspot perdu… Dans la (longue) série des articles publiés récemment (Le hotspot, Le flux sortant TOA, la "chaleur perdue" etc.) qui montrent que les quelques 22 modèles du GIEC sont régulièrement contredits par les observations, je vais vous décrire une publication récente parue dans la revue (peer-reviewée) des spécialistes des mesures à distance (Remote Sensing : satellites, ballons sondes etc.) sous la signature de 9 climatologues avérés. La publication analysée dans ce billet fait suite à celle qui concernait le "hotspot", le point chaud, que l'on devrait trouver, selon les modèles de l'effet de serre, dans l'atmosphère au dessus des tropiques et que les mesures directes par satellites et ballons sondes ne trouvaient pas en 2007… et ne trouvent toujours pas en cette année 2010. 1) Historique de la situation antérieure :
Comme tous les lecteurs de ce site le savent le "hotspot", c'est à dire "le point chaud" est le nom donné à une vaste zone de l'atmosphère située dans la région des tropiques, à quelques 8-10 km d'altitude, prévu par les modèles du GIEC. Une représentation imagée en est donnée sur la figure ci-contre. Sa lecture est immédiate : L'axe des abscisses donne la latitude du point de l'atmosphère considéré. EQ signifie l'équateur, 30N signifie la latitude 30 degrés Nord et ainsi de suite. L'axe des ordonnées indique l'altitude de la tranche d'atmosphère (la troposphère) considérée. Cet axe est gradué unité de pression c'est à dire en hPa (hectopascal) suivant une notation chère aux météorologues. Comme on le voit à l'aide du code des couleurs, et comme son nom l'indique, les modèles utilisés par le GIEC et ses adhérents, prévoient tous, l'existence d'une zone plus chaude, d'un "hotspot", situé au dessus de l'équateur et recouvrant une vaste zone s'étendant d'environ 30 degré Sud à 30 degrés Nord. Le tout est centré à une altitude d'environ 10km, c'est à dire en dessous de la tropopause qui se trouve à environ 16 km au dessus des tropiques, à environ 12 km à 30 degrés Nord ou Sud, et à environ 8 km au dessus des pôles. En réalité et toujours selon les modèles, cette zone de l'atmosphère devrait se réchauffer nettement plus vite que la surface de la planète.
Le graphique précédent, quasi-emblématique de l'effet de serre, est tiré d'un article de Richard Lindzen du MIT, intitulé "Taking global warming seriously" ("Considérer sérieusement l'effet de serre"). Cet article, dont je vous recommande une lecture attentive, critique sévèrement les présentations simplistes (et erronées) de l'effet de serre (style effet "pull-over") répercutées par les médias et certains forums sur Internet. Sans oublier l'Académie des Sciences Américaine, elle-même (!). Lindzen y présente une explication physique rationnelle et compréhensible de l'effet de serre. Ce qui n'est pas courant. En 2007, Lindzen écrivait dans l'article cité si-dessus : "La Figure 5 est la plus récente description des tendances (NdT : de la température) basées sur des mesures par ballon du Hadley Center (UK) et qui incorpore les ajustements suggérés par les études précédentes (Ndt : Notamment les corrections liées à la dérive des ballons). Nous voyons que la tendance dans la troposphère présente effectivement un maximum autour de 300 hPa d'environ 0,1°C par décennie et, si on en juge par les résultats de la figure 5, ceci devrait être associé à une tendance à la surface (NdT : de la Terre) comprise entre 0,033 et un peu moins de 0,05°C par décennie. Contrairement à l'affirmation emblématique du dernier rapport " Résumé pour les décideurs" (SPM du rapport de 2007) du GIEC, ceci n'est que de l'ordre du tiers de la tendance observée à la surface (NdT : de la Terre) et suggère que le réchauffement est d'environ 0,4 degrés par siècle. Il faut préciser que ceci constitue une limite (Ndt : supérieure) et non une estimation. Le réchauffement par effet de serre doit apparaître autour de 300 hPa, mais le réchauffement autour de 300 hPa ne résulte pas nécessairement du réchauffement par effet de serre." Autrement dit, le réchauffement observé dans la troposphère par les ballons du Hadley Center est compatible avec un réchauffement de la planète, très faible, de l'ordre de 0,4°C en cent ans (alors que la température terrestre aurait augmenté de 0,8°C en cent ans, selon le GIEC). Mais ce léger réchauffement observé pourrait fort bien provenir d'autres causes que de l'effet de serre. De fait cette mesure était inférieure, d'un bon facteur 2 à 3, aux prédictions des ordinateurs du GIEC. A noter que cette estimation ancienne de Richard Lindzen (soit 0,1°C par décennie pour le réchauffement de la troposphère) est assez proche, quoique légèrement supérieure, aux résultats des toutes récentes mesures publiées en 2010, comme vous le verrez ci-dessous, au paragraphe 2.. En décembre 2007 est paru un article, publié dans le prestigieux International Journal of Climatology, DOI: 10.1002/joc.1651, qui a sérieusement entamé la confiance que que l'on pouvait avoir dans les modélisations du climat réalisées par le modélisateurs du GIEC. Cet article était intitulé " A comparison of tropical temperature trends with model predictions" soit : "Une comparaison des tendances de températures aux tropiques avec les
Il faut se souvenir que selon les modèles d'effet de serre, c'est le gaz carbonique contenu dans l'atmosphère qui réchauffe cette dernière qui, par contrecoup, réchauffe à son tour notre planète. On comprend dès lors que ces modèles de l'effet de serre impliquent qu'en cas de déséquilibre (tel celui introduit par l'utilisation des énergies fossiles), l'atmosphère doit se réchauffer plus intensément que la Terre. C'est ce qu'affirment les modèles. En abscisse sont indiquées les altitudes (en hPa (en bas) et en km (en haut)) Les ronds et carrés arrondis rouges à fond blancs indiquent les résultats des 22 modèles informatiques du GIEC, encadrés par les marges d'incertitude. Comme on le constate immédiatement, les observations par satellites et ballons sondes, publiées en 2007, différaient très notablement (d'un facteur supérieur à 2) des prédictions issues des modèles du GIEC. De fait, l'observation de l'absence ou la présence d'un réchauffement rapide (c'est à dire plus rapide que celui de la Terre) de l'atmosphère au dessus des tropiques constitue un test déterminant pour les modèles de l'effet de serre du GIEC. Inutile de vous dire que cette publication remettait gravement en question le fondement même des affirmations (notamment sur les rétroactions) et les modèles du GIEC. Comme on s'en doute, les chercheurs affiliés au GIEC ne pouvaient l'accepter. C'est l'édifice tout entier qui menaçait de s'écrouler si ces mesures de températures n'étaient pas démenties. Il fallait réagir sans tarder… C'est ce qui fut fait. Ainsi, quelques mois plus tard…
La méthode de mesure des températures dans la haute troposphère, imaginée pour l'occasion, ne manque pas d'astuce, même si elle est quelque peu problématique comme nous allons le voir. L'idée avancée par Steven Sherwood et son collègue Robert Allen, consiste à utiliser les variations des vitesses de vents mesurées (parcimonieusement) en altitude pour en déduire les températures. Ainsi, comme nous l'expliquent les auteurs de l'article (Christy et al) commenté ci-dessous : "Par exemple, si, dans l'hémisphère Nord, le vent zonal (Ndt : ou latitudinal, voir ce billet sur le LOD ) situé à un niveau est accéléré pendant les 30 années plus fortement que celui du niveau inférieur, ceci implique une tendance à l'augmentation de température vers l'équateur, dans cette couche." Le calcul des vitesses des variations de température se fait alors en utilisant les équations de vent thermal (TWE : thermal wind equations).Vous trouverez les explications et les équationsTWE dans cette page. Inutile de préciser que la circulation des vents dans l'atmosphère est nettement plus compliquée que celle qui résulte des équations simplistes du "vent thermal". De ce fait, les corrections, les hypothèses et les incertitudes sont nombreuses… et les résultats hasardeux, comme nous le verrons ci-dessous. * Voici les références de l'article devenu quasi emblématique pour les supporters du GIEC : Allen, R.J.; Sherwood, S.C. Warming maximum in the tropical upper troposphere deduced from thermal winds. A noter que compte tenu du caractère "acrobatique" de ce type de mesures indirectes, les auteurs (Allen et Sherwood) de cet article ne se font guère d'illusions. Bien qu'ils concluent dans le sens du GIEC, ils rapportent dans leur article que l'incertitude est de ±0,29°C. Ce qui est énorme par rapport aux quantités mesurées (typiquement 0,1°C).. " We conclude that the peak warming in the upper troposphere is highly significant for both time periods, and that our data do not seem to be consistent with a lack of upper-tropospheric warming in the tropics. The degree of warming remains fairly uncertain, but is within the range simulated by climate models, albeit with some discrepancies near the tropopause." Notez la prudence du texte ( ce qui est justifié. Les auteurs marchent sur des oeufs, comme l'on dit) :" nos données ne semblent pas être cohérentes avec l'absence d'un réchauffement de la haute troposphère dans les tropiques" qui ne s'exprime que par négation de négation, ce qui est assez étonnant dans un article scientifique….Les auteurs affirment pourtant que, selon eux, cela est "hautement significatif". Nous verrons ci-dessous ce qu'en pensent les auteurs de l'article qui est le sujet de ce billet et dont voici une présentation : _____________________________________________________________________________________________________________________ 2) Septembre 2010 : Les Satellites et les ballons affinent leurs observations, persistent et signent. Un article concernant les mesures directes par satellites et ballons sondes des températures de la troposphère tropicale montre, de nouveau et clairement, que les mesures observées diffèrent grandement des prévisions des modèles. Ici encore, les modèles du GIEC surestiment considérablement le réchauffement de cette partie de l'atmosphère. Cet article est intitulé : "Que nous disent les données, tirées des observations, au sujet des modèles de tendances de températures de la troposphère depuis 1979 ?" "What Do Observational Datasets Say about Modeled Tropospheric Temperature Trends since 1979?" Voici sa référence. ( Cette publication, destinée à un numéro spécial sur ces sujets, est, actuellement, en libre accès sur le site de "Remote Sensing".) Remote Sensing 2010, 2, 2148-2169; doi:10.3390/rs2092148 publié le 15 septembre 2010. Pour situer précisément le domaine des mesures rapportées dans cet article, je commencerai par rapporter l'introduction de l'article, en version originale qui sera suivie d'une traduction en français. Idem pour le résumé qui suivra. 1. Introduction The temperature of the tropical lower troposphere (TLT, 20°S–20°N) figures prominently in discussions of climate variability and change because it (a) represents a major geographic portion of the global atmosphere (about one third) and (b) responds significantly to various forcings. For example, when the El Niño-Southern Oscillation mode is active, TLT displays a highly coupled, though few-month delayed, response, with a general warming of the tropical troposphere experienced during El Niño events [1]. The TLT also responds readily to the impact of solar scattering anomalies when substantial volcanic aerosols shade the Earth following major volcanic eruptions such as El Chichon (1982) and Mt. Pinatubo (1991). In terms of climate change due to increasing greenhouse gases from (primarily) energy production, climate models project a prominent warming of the TLT which in magnitude is on average twice as large near 300–200 hPa as changes projected for the surface [2]. "1. Introduction : La température de la basse troposphère tropicale (TLT, 20°S–20°N) constitue un sujet de discussion privilégié de la variabilité climatique et ses évolutions parce que (a) celle-ci représente une proportion géographique majeure de l'atmosphère globale (environ 1/3) et (b) parce qu'elle répond de manière significative à des forçages divers. Par exemple, quand le mode El Niño/Oscillation Sud est actif, la TLT montre une réponse fortement couplée, avec un retard de quelques mois, via un réchauffement général de la troposphère tropicale durant les événements El Niño [1]. La TLT répond aussi rapidement à l'impact des anomalies de la diffusion des rayons solaires quand les aérosols volcaniques majeures font de l'ombre à la terre comme cela a été le cas pour El Chichon (1982) ou le Mont Pinatubo (1991). En termes de changement climatique dû à l'augmentation de gaz à effet de serre résultant (majoritairement) de la production énergétique, les modèles du climat projettent un réchauffement majeur de la TLT qui, du point de vue de l'amplitude est en moyenne deux fois plus important, vers le niveau 300-200 hPa que les variations projetées pour la surface. (Ndt : soit vers 8 à 10 km d'altitude ce qui , selon Christy et al, est dans le domaine des mesures TLT puisque la troposphère s'élève à 16 km au dessus de l'équateur. En réalité, c'est encore le domaine du "hotspot" évoqué plus haut)." Voici, maintenant, le résumé de l'article : "Abstract: Updated tropical lower tropospheric temperature datasets covering the period 1979–2009 are presented and assessed for accuracy based upon recent publications and several analyses conducted here. We conclude that the lower tropospheric temperature (TLT) trend over these 31 years is +0.09 ± 0.03 °C decade−1. Given that the surface temperature (Tsfc) trends from three different groups agree extremely closely among themselves (~ +0.12 °C decade−1) this indicates that the “scaling ratio” (SR, or ratio of atmospheric trend to surface trend: TLT/Tsfc) of the observations is ~0.8 ± 0.3. This is significantly different from the average SR calculated from the IPCC AR4 model simulations which is ~1.4. This result indicates the majority of AR4 simulations tend to portray significantly greater warming in the troposphere relative to the surface than is found in observations. The SR, as an internal, normalized metric of model behavior, largely avoids the confounding influence of short-term fluctuations such as El Niños which make direct comparison of trend magnitudes less confident, even over multi-decadal periods." Résumé : " Les données mesurées et mises à jour de la température de la basse troposphère tropicale, couvrant la période 1979-2009, sont présentées et leur précision est examinée à la lumière de publications récentes et de plusieurs analyses qui sont rapportées dans cet article. Nous en concluons que la tendance des températures de la basse troposphère (TLT) durant ces 31 années est de +0.09 ± 0.03 °C par décennie. Etant donné que la variation de la température de surface (Tsfc) donnée les trois groupes différents sont très proches les unes des autres (~ +0.12 °C par décennie), ceci indique que que le "facteur d'échelle".(SR soit le rapport entre la tendance dans l'atmosphère et celle de la surface : TLT/Tsfc) résultant de ces observations est de ~0.8 ± 0.3. Ceci est, de manière significative, différent de la valeur moyenne du SR calculée avec les simulations des modèles du rapport AR4 du GIEC et qui est de ~1.4. Ce résultat montre que la majorité des simulations du rapport AR4 (du GIEC) tendant à dépeindre un réchauffement de la troposphère par rapport à la surface nettement plus important que celui qui est observé. L'utilisation du facteur SR en tant que paramètre interne et normalisé du comportement des modèles, s'affranchit, dans une grande mesure, de la confusion entre l'influence des fluctuations à court terme telles que les El Niños qui rendent les comparaisons directes entre les valeurs des tendances moins crédibles, même sur les périodes multi-décennales." Note : Christy et al font remarquer, dans ce résumé comme dans l'article, que les tendances de température de surface, mesurées par les trois institutions officielles : ERSST, GISS et HadCRUT donnent des indications très semblables (soit environ +0,12°C par décennie). Cette convergence des indications de variations de températures à la surface de la planète ne doit cependant pas faire illusion. En réalité, ces trois mesures sont très loin d'être indépendantes. Christy et al précisent (un peu perfidement) dans leur article que "The three datasets are extremely close in trend magnitude, +0.122, +0.119 and +0.109 °C decade−1 respectively for ERSST, HadCRUT and GISS, which is not surprising since, as reported in [18], the best estimate that has been reported is that 90–95% of the raw data available for each of the analyses is the same (P. Jones, personal communication, 2003)". Soit : "les trois jeux de données sont extrêmement proches du point de vue des tendances +0.122, +0.119 and +0.109 °C par décennie, respectivement pour ERSST, HadCRUT and GISS, ce qui n'est pas surprenant quand on sait que, comme cela est rapporté dans [18], la meilleur estimation publiée montre que 90-95% des données brutes disponibles pour chacune de ces analyses sont les mêmes ( Phil Jones, communication personnelle, 2003)." Pour le lecteurs attentifs et sans rentrer dans les détails techniques qu'ils pourront retrouver dans l'article original, voici la liste des différentes sources de mesures prises en compte dans ces article : Radiosondes: HadAT, RATPAC, RAOBCORE, RICH Voici quelques figures importantes tirées de l'article, accompagnées de leur légende traduite en français :
"Figure 3. Amplitude des variations pour les mesures de TLT (8 valeurs, à gauche) et de Tsfc (3 valeurs à droite), utilisées dans cet article. Toutes les tendances débutent en 1979 et se terminent dans l'année indiquée." J'ai colorié en rouge les données des tendances de température obtenues à partir du "vent thermique" C10 et AS08. Comme on le constate, ces évaluations sont très nettement supérieures à toutes les autres mesures. Autant dire que les mesures de "vent thermique", avec un rapport (sigma) signal/bruit très nettement inférieur à un, sont inutilisables dans cet objectif. C'est très exactement ce qu'écrivent, en langage plus châtié, Christy et al dans leur article de 2010 : "Given these comparisons and taking the weight of evidence in several other publications regarding system intercomparisons (e.g., in [6,9,21]), we conclude that these trends calculated from the TWE, as applied for AS08 and here (C10), using the current radiosonde coverage and observational limitations (consistency, accuracy, etc.) do not produce results reliable enough for studies such as ours. In particular, AS08 and C10, with TLT trends of +0.29 and +0.28 °C decade−1 are almost three times that of the mean of the directly measured systems, and are values that are, in our view, simply not consistent with the countervailing, directly-measured evidence." Soit : "A partir de ces comparaisons et utilisant le poids de l'évidence de plusieurs autres publications qui concernent les inter-comparaisons entre les systèmes de mesures (e.g., dans[6,9,21]), nous en concluons que ces tendances, calculées à partir des TWE (Ndt : Equations du vent thermique), telles qu'elles sont utilisées pour les données AS08 et ici (C10), utilisant la couverture des radiosondes et les limitations observationnelles (cohérence, précision etc.) ne donnent pas des résultats suffisamment fiables pour des études telles que les nôtres. C'est pourtant l'article d'Allen et Sherwood utilisant ces "mesures de vent thermique" truffées d'incertitudes et de données manquantes, qui a été mis en avant par les supporters du GIEC pour affirmer que le hotspot existait bel et bien, comme prédit pas les modèles et que cela confirmait les modèles du GIEC... Voici maintenant les résultats essentiels publiés par John Christy et ses 8 coauteurs dans l'article de 2010, obtenus à partir des données des différents instruments des mesures directes énoncés ci-dessus (vents thermiques exclus). Ce graphique compare les résultats des mesures avec les prédictions des modèles du GIEC. "Figure 10. Relation entre Tsfc et TLT. Carrés remplis : Les résultats des 21 modèles de 1979 à 1999. Les résultats des observations des satellites sont représentés par des cercles. Ceux des ballons par des diamants (voir la table 2). Les boites représentent les domaines d'excursion des rapports SR calculés à partir des observations de cette étude [6,26]." Note : J'ai colorié l'intérieur des boites (symbolisant les marges d'erreurs) pour une meilleure visualisation.
Remarques et conclusion : Comme on le voit ici, les auteurs de cet article trouvent que le "hotspot", s'il existe, (ce serait plutôt un coldspot (!), en l'occurence) ne se réchauffe guère plus vite (et même plutôt moins vite) que la surface de la planète, ce qui est en contradiction flagrante avec ce qui est prévu par les modèles du GIEC. Soit "Ceci suggère qu'en moyenne, l'amplification prévue par les modèles de la température de surface est exagérée et que l'atmosphère, telle qu'elle est observée, s'organise pour s'adapter au processus de réchauffement sans permettre (sur des décennies) une variation de température plus rapide que les variations qui se produisent en surface." Ainsi et si on fait le bilan des résultats présentés dans ce billet et de ceux que j'ai évoqués dans le billet intitulé "A la recherche de la chaleur perdue", on constate que : -Une fraction très importante de la chaleur résultant de l'effet de serre (selon les modèles du GIEC), qu'auraient dû emmagasiner nos océans , ne s'y trouve pas. Visiblement et dit plus crûment, les ordinateurs des partisans du GIEC se réchauffent nettement plus vite que l'atmosphère et les océans (entre autres). En toute autre circonstance, ces constats destructeurs auraient dû forcer les chercheurs du WGI qui travaillent sur ces sujets qu'ils considèrent comme "une science achevée", à remettre sérieusement en question les modèles ainsi que la physique sous-jacente et à faire ce que faisait le savant cher à Boris Vian (dans la java des bombes atomiques) : "Il y a quelque chose qui cloche là-dedans, j'y retourne immédiatement…" C'est vraiment le moins que l'on puisse faire…. Ci-contre, un nouveau dessin (à facettes) de Yann Goap (Jean le moqueur, en breton) que lui a inspiré les événements que je vous ai racontés. Si vous aimez les dessins humoristiques, voyez aussi cette page. Tout cela n'a évidemment pas fait la une des journaux ou des médias , ni même une "brève", puisqu'ils ne l'ont jamais évoqué. Comme d'habitude, le silence règne sur les questions qui dérangent. Après les mesures de températures de l'atmosphère vues par les "vents thermiques" pour essayer de contrer les résultats de l'article de 2007, je me demande ce qu'ils vont bien pouvoir inventer pour contrer ceux de l'article de Christy et al (2010). ça va être dur. Addendum 04 mars 2011 : Voici les résultats auxquels est parvenu le Climatologue Ole Humlum, qui a rédigé l'excellent et très complet site climate4you, à partir des bases de données officielles :
La légende : Diagramme indiquant les variations décennales observées à la surface, à 300 hPa, et à 200 hPa , entre 20N et 20S (Ndt : au dessus de l'équateur et des tropiques) depuis 1979. Sources de données : HadAT et HadCRUT3. Cliquez ici pour compare avec les températures en altitude modélisées pour un doublement du C02 atmosphérique. Le dernier mois inclus dans cette analyse est Décembre 2010. La mise à jour du dernier diagramme (NdT à droite) est le 6 février 2011. Notez que, faute de personnel, le Met Office Hadley Centre nous informe qu'aucune mise à jour des données HadAT sera faite après le début 2012 (NdT : Dommage !). Suivi par le texte suivant : "Ainsi ces données météorologiques issues des radiosondes et des mesures de surface pour la région équatoriale ne montrent pas, pour l'instant,la signature d'une augmentation de l'effet de serre. Avec les 0,128°C/décennie observés, on se serait attendu à un réchauffement de 0,25-0,36°C/ décennie pour les niveaux 200hPa et 300hPa pour satisfaire les pronostics résultants de l'hypothèse CO2. (NdT : Les rectangles en pointillés roses, ci-dessus)" Ce qui est cohérent avec les résultats des articles analysés ci-dessus et ci-dessous. Dur, dur pour les modèles de l'effet de serre sur lesquels repose toute cette affaire…
|
|||||||||||||||||||
7 Octobre 2011 : Encore à la recherche du hotspot (toujours absent !) Ce billet est directement lié à celui qui le précède (Octobre 2010) lequel concernait, en particulier, les résultats des travaux remarquablement fouillés, sur le même sujet de John Christy, Roy Spencer et al. A noter que l'article de Christy et al, publié en Septembre 2010 était paru dans "Remote Sensing" qui est une revue essentiellement dédiée aux techniques et aux résultats des mesures à distance (satellites et ballons sondes). Par contre, l'article qui est le sujet de ce billet est, lui, paru dans les Geophysical Research Letters qui est une des top-revues de la climatologie, et de plus sous la signature du père fondateur de la modélisation climatique, comme nous allons le voir. On peut penser qu'à la différence de l'article de Christy et al, l'article qui est le sujet de ce billet sera beaucoup plus difficile à "oublier" dans le prochain rapport AR5 du GIEC. Voici donc l'article en question, qui retrouve, avec une technique un peu différente, sensiblement les mêmes résultats qu'avaient publiés John Christy et ses coauteurs, l'année dernière.
Comme on le constate, l'un des trois auteurs n'est autre que Syukuro Manabe qui est un scientifique très célèbre (et apprécié) dans le microcosme de la modélisation du climat. S. Manabe mérite un encart spécifique :
Voici le résumé/conclusion de cet article. Ils nous disent tout. "5. Summary and Conclusions [20] One of the striking features in GCM‐predicted climate change due to the increase of greenhouse gases is the much enhanced warming in the tropical upper troposphere. Here we examine this feature by using satellite MSU/AMSUderived deep‐layer temperatures in the tropical upper‐ (T24) and lower‐ (T2LT) middle troposphere for 1979–2010. It is shown that T24‐T2LT trends from both RSS and UAH are significantly smaller than those from AR4 GCMs. This indicates possible common errors among GCMs although we cannot exclude the possibility that the discrepancy between models and observations is partly caused by biases in satellite data. "5. Résumé et Conclusions [20] Un des aspects remarquables du changement climatique dû à l'augmentation des gaz à effet de serre, prédit par les GCM (NdT : Global Climate (ou Circulation) Model, Modèles Globaux du Climat) est la grande augmentation du réchauffement dans la haute troposphère tropicale. Dans cet article, nous étudions cette caractéristique en utilisant la température de la couche épaisse de la haute troposphère tropicale (T24) et de la basse et moyenne troposphère tropicale (T2LT), en utilisant les données satellitaires MSU/AMSU, de 1979 à 2010. On montre que les tendances de T24-T2LT aussi bien pour les données RSS que UAH sont significativement plus petites que celles des modèles GCM du rapport AR4 (NdT : du GIEC). Ceci indique qu'il existe des erreurs communes aux différents modèles GCM, bien que nous ne pouvons exclure la possibilité que cette divergence entre les modèles et les observations soient, en partie, causées par des biais dans les données satellitaires. Voici maintenant quelques explications concernant la méthode utilisée par Fu, Manabe et Johanson pour parvenir à leurs résultats : Comme l'écrivent les auteurs de cet article, les modèles GCM prévoient tous qu'un HOTSPOT (un point chaud, c'est à dire une zone qui devrait se réchauffer nettement plus vite que la surface de la planète) doit se trouver dans une zone tropicale située à une altitude où la pression est d'environ 200 hPa comme indiqué dans le billet précédent (et quelques autres). Comme on le sait, par exemple en consultant le site officiel RSS-MSU/AMSU, les satellites (qui mesurent la température par voie optique) ne mesurent pas spécifiquement la température en un point donné de l'atmosphère, mais plutôt sur une certaine épaisseur de l'atmosphère avec un coefficient de réponse qui dépend de l'altitude et de la position (orientation) du satellite. De manière à cibler plus spécifiquement la zone intéressante où devrait se trouver le hospot, Fu, Manabe et Johanson, les auteurs de l'article auquel se rapporte ce billet, ont utilisé des combinaisons linéaires des différentes observations MSU/AMSU des satellites d'observation. Ils ont, en particulier, tiré profit de travaux antérieurs de John Christy et ses collaborateurs qui ont proposé d'utiliser une mesure appelée T2LT qui permet d'atténuer la fraction gênante émise par la stratosphère -donc impropre à l'usage recherché- du canal 2 des mesures MSU/AMSU. Ci-contre, une reproduction de la Figure 1 de l'article, accompagnée de sa légende que voici : Figure 1. Les fonctions de pondération de T24 et T2LT. La tropopause tropicale est placée à 100 hPa.
La figure maîtresse de l'article qui reflète les conclusions de l'article exposées ci-dessus est la Fig. 3. La voici accompagnée de sa légende.
"Figure 3. Différences entre les séries temporelles T24 et T2LT au dessus des tropiques ( de 20°N à 20°S) tirées des jeux de données résultant des observations du RSS (ligne fine rouge) et de l'UAH (ligne fine bleue) avec la moyenne des résultats de l'ensemble des modèles (ligne noire épaisse)" Comme on le constate et comme le font remarquer les auteurs, les mesures RSS et UAH de 1979 à 2010 sont très proches l'une de l'autre. A noter que Richard Lindzen (cf. sa récente communication) qui est, bien entendu, informé depuis longtemps de ce désaccord, mais qui semble réticent à supposer que les modèles puissent être erronés, a plusieurs fois avancé l'hypothèse que celui-ci ne pouvait probablement être expliqué que par une connaissance erronée des variations de la température terrestre, qui donc aurait beaucoup moins varié qu'on ne l'a dit. Cependant, comme vient de le déclarer le tout récent récipiendaire du Prix Nobel de Chimie, Daniel Schetchman (découvreur de quasi-cristaux dont l'existence était auparavant réputée impossible) : Et de fait, comme on le constate à la lecture de l'article sujet de ce billet, Syukuro Manabe et ses collègues envisagent, eux, la possibilité que les modèles GCM soient erronés… _______________________________________________________________________________ Comme on l'a constaté, Syukuro Manabe est, en quelque sorte, le grand "totem" des simulations numériques du changement climatique (dû à l'effet de serre des GES), revendiqué (et popularisé) par les climatologues proches du GIEC. Dans tout autre domaine de la science où les observations et les mesures priment sur toute modélisation théorique, cela aurait amplement suffi pour que les chercheurs remettent en question leurs théories. Ce n'est pas (encore ?) le cas en climatologie, semble-t-il. Richard Feynman, le très célèbre physicien Nobélisé, n'avait-il pas dit que : "Le fait que votre théorie soit belle n'a aucune importance. Le fait que vous soyez intelligent n'a aucune importance. Si la théorie n'est pas d'accord avec l'expérience, c'est qu'elle est fausse. " Comme le disent les auteurs de l'article, ce désaccord entre les modèles et les mesures est un problème crucial qui doit impérativement être résolu. C'est donc une affaire d'une grande importance… dont aucun grand média francophone ne vous a parlé. Libération : Rien. S'agissant d'un article récemment publié dans les Geophysical Research Letters par "le pape " des modèles climatiques, c'est curieux, n'est-ce-pas ? Stay tuned ! A suivre, donc. |
|||||||||||||||||||
2 Sept. 2009 : Une observation astucieuse : Le reflet de la Terre sur la lune nous montre que l'albedo de la Terre (résultant de ses nuages) est corrélée aux températures terrestres. Encore des observations qui vont dans le même sens que celles des articles précédents et, notamment, de celui, ci-dessus, de Lindzen et Choi… Nous avons souvent pu constater que les chercheurs ont plus d'un tour dans leur sac quand il s'agit d'obtenir des informations sur notre planète. S'agissant de l'albedo (le pouvoir réflecteur) de notre planète et ses nuages, plusieurs astrophysiciens ont eu une idée astucieuse qui consiste à utiliser ce que les anglophones appellent l"Earthshine", c'est à dire "le reflet de la Terre", plus poétiquement nommé "reflet cendré" par les francophones (merci au lecteur qui me l'a signalé). De quoi s'agit-il ? Lorsque la lune est en début de phase croissante, comme chacun le sait, la zone fortement éclairée par le soleil est un croissant très brillant tel qu'on le voit sur la photo ci-contre. Ce que peu de gens savent c'est que si on regarde un peu plus attentivement le disque lunaire, on s'aperçoit que la partie manquante, non éclairée par le soleil, n'est pas totalement noire. Dans les situations favorables, ont peut même percevoir l'ensemble du disque lunaire comme on le voit sur cette photo. Sachant que la lune est un corps froid qui n'émet pas de lumière visible, on peut se demander d'où provient cet éclairage… La réponse est simple. Cet éclairage de la partie sombre de la lune provient de la partie éclairée de notre planète, comme cela est expliqué dans le schéma ci-contre (source). La Terre éclaire la lune exactement comme le soleil nous éclaire. C'est ce que l'on appelle le "Earthshine" symbolisé par la flèche B sur ce dessin. L'observation sur Terre, indiquée par la flèche C, de la partie sombre du disque lunaire, donne donc une indication directe du pouvoir r&eac |