L’Académie des sciences présente sur son site une nouvelle rubrique destinée au
public, intitulée “Libres points de vue d’Académiciens”, afin de répondre à des
questions concernant des sujets de science et de société.
À l’approche de la Conférence de Copenhague sur le changement climatique en
décembre 2009, le premier sujet abordé s’intitule “Libres points de vue
d’Académiciens sur l’environnement et le développement durable”.
L’Académie des sciences a proposé à différents membres, spécialistes des
domaines en jeu, d’exprimer leurs points de vue sur les évolutions du climat, les
océans, les énergies, la biodiversité, la démographie et ses répercussions sur l’eau,
l’ alimentation et la santé.
Ces textes qui expriment, dans l’indépendance de chacun, les points de vue
d’Académiciens apportent, par leur richesse et leur diversité, un éclairage
scientifique actuel sur l’environnement et le développement durable.
Nous souhaitons rendre hommage à nos consoeurs et confrères qui ont accepté de
participer à ce projet et à notre consoeur Dominique Meyer qui l’a conçu et
coordonné.
Jean-François Bach et Jean Dercourt
Secrétaires perpétuels de l’Académie des sciences
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
Introduction
Il apparaît aujourd’hui opportun d’envisager, à la lumière des progrès scientifiques
récents, les changements climatiques en cours, leurs conséquences, et les solutions
énergétiques afin d’y faire face.
Les évolutions du climat ont pu être suivies globalement depuis une trentaine
d’années grâce aux satellites d’observation de la Terre qui ont permis d’intensifier les
mesures systématiques, notamment sur les mers et les glaces. Parmi les
phénomènes constatés, citons la diminution des débits de fleuves et de rivières, le
recul des glaciers, l’intensification de la fonte saisonnière des glaces de mer, les
vagues de chaleur en Europe, etc.
L’accroissement de la concentration en gaz carbonique a conduit à limiter la
combustion du charbon. Combiné à l’épuisement des ressources de carburants
(pétrole et gaz naturel), cela a mené à prévoir leur remplacement progressif par des
énergies renouvelables.
L’augmentation des populations humaines, leur urbanisation dans un air de plus en
plus pollué, ainsi que les sécheresses liées aux variations du climat, ont amenuisé
l’accès de chacun à l’eau douce. Les terres cultivables ont diminué par la
détérioration des zones arables. La pauvreté, la pénurie alimentaire, le manque
d’assainissement des eaux, les épidémies, ne cessent de s’aggraver et, par voie de
conséquence, des écosystèmes terrestres et marins sont progressivement détruits,
la situation étant cependant très différente selon les pays et les régions.
Tout ceci rend indispensable de traiter globalement et équitablement le partage des
ressources de la Terre et des mers, en sachant que l’arbitrage doit être effectué
entre des pays d‘exigences différentes. ll en résulte des difficultés à régler les
problèmes concrets de l’adaptation au changement global et aux transitions
énergétiques.
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
Ce sont tous ces faits, toutes ces incertitudes, tous ces espoirs autorisés par les
incessantes découvertes scientifiques, qui sont abordés dans ces ‘Libres points de
vue d’Académiciens sur l’environnement et le développement durable” ouverts au
public. Celui-ci peut, pour des compléments d’information concernant ces sujets,
s’adresser au rédacteur en chef (dominique.meyer@academie-sciences.fr) qui
transmettra leurs demandes aux auteurs concernés.
Dominique Meyer
Membre de l’Académie des sciences
Rédacteur en chef
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
1
Libres points de vue d’Académiciens
sur l’environnement
et le développement durable
I- LES EVOLUTIONS DU CLIMAT
L’évolution climatique actuelle fait l’objet de très nombreuses
mesures la replaçant dans son passé récent et lointain. Nous
faisons ici le point de ces travaux scientifiques :
I-1 Peut-on expliquer simplement ce qu’est l’effet de serre ? Comment en
mesure-t-on les conséquences ? Quelles sont-elles en France ?
Hervé Le Treut (Membre de l’Académie des sciences) :
« L’effet de serre est un processus atmosphérique naturel qui modifie la manière
dont s’établit l’équilibre radiatif de la planète, c'est-à-dire l’équilibre entre le
rayonnement solaire absorbé par la Terre, et le rayonnement thermique infrarouge
qu’elle émet (qui partagent la valeur commune de 235 W/m2). Le physicien Joseph
Fourier fut le premier, en 1824, à pressentir le rôle crucial de l’atmosphère dans cet
équilibre. L’atmosphère absorbe le rayonnement terrestre émis à la surface du globe,
et le réémet pour partie vers l’espace, pour partie vers la surface. En empêchant la
planète de se refroidir librement, l’effet de serre impose des températures beaucoup
plus chaudes à la planète. La température de surface moyenne de la Terre est
actuellement un peu supérieure à 15°C, alors qu’elle serait de -18°C sans l’effet de
serre. L’effet de serre tendrait même à provoquer des températures bien
supérieures, sans le rôle modérateur du brassage convectif de l’atmosphère.
Le rôle de l’effet de serre peut être illustré par l’exemple simple d’une voiture laissée
au soleil, dont les vitres laissent pénétrer le rayonnement solaire, mais retiennent le
rayonnement infrarouge émis en retour. L’atmosphère joue cependant un rôle plus
complexe que la vitre de la voiture, parce qu’elle constitue une couche absorbante
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
2
de près de 20 km d’épaisseur, dont la température varie avec l’altitude, un effet qui
module le rayonnement émis vers l’espace. Malgré son rôle majeur, l’effet de serre
ne doit paradoxalement rien ni à l’azote ni à l’oxygène. Il résulte entièrement de
l’action de composés minoritaires qui représentent moins de 1% de la masse
atmosphérique : des gaz que l’on appelle gaz à effet de serre (parmi lesquels : la
vapeur d’eau, le dioxyde de carbone, le méthane, l’ozone, l’oxyde nitreux, les
fréons), les nuages, certaines poussières.
Si la vapeur d’eau, premier des gaz à effet de serre, n’est pas modifiable de manière
directe par les activités humaines, parce que son temps de recyclage dans
l’atmosphère est très court (1 à 2 semaine(s)), la teneur atmosphérique des autres
gaz à effet de serre a subi une augmentation très rapide, qui a commencé avec le
début de l’ère industrielle, et s’est encore accélérée après les années 50. Ces
évolutions ne seront que lentement réversibles, d’une part parce que les émissions
de gaz à effet de serre se poursuivent à un rythme accéléré, d’autre part parce que
leur durée de vie atmosphérique est longue : plus de la moitié du dioxyde de carbone
émis dans l’atmosphère s’y trouve encore après 100 ans, une longévité
atmosphérique partagée par l’oxyde nitreux ou la plupart des fréons. La durée de vie
du méthane est plus courte (12 ans), mais même dans ce cas l’effet d’accumulation
atmosphérique est important. Alors que la teneur des gaz à effet de serre était restée
presque inchangée pendant près de 10 000 ans, l’augmentation du CO2 en quelques
décennies a été de 30%, celle de l’oxyde nitreux de 15%, le méthane a été multiplié
par plus d’un facteur 2, et certains fréons sont nouveaux venus dans l’atmosphère.
40 ans de mesures atmosphériques depuis l’espace, dans une gamme de longueurs
d’onde extrêmement variée, et 40 ans de développement théoriques, de mesures, de
modélisations associées, nous ont donné une très bonne maitrise du calcul des flux
radiatifs perturbés par ces différents gaz. Au total, on estime que l’augmentation de
l’effet de serre est actuellement de 3 W/m2 (calculé avant l’effet de réchauffement
qu’elle induit, et qui permet de rétablir l’équilibre radiatif) : cette valeur peut paraître
faible puisqu’elle représente 1,5% des échanges d’énergie entre la Terre et l’espace,
mais un calcul simple montre que, appliquée à une Terre dont la température est
proche de 300 degrés Kelvin, cette variation de l’effet de serre peut provoquer un
réchauffement de près de 1°C. Ces valeurs sont importantes : les reconstitutions des
variations de température au dernier millénaire montrent des fluctuations qui sont
généralement plus faibles, de l’ordre d’une fraction de degré.
La modification de la teneur atmosphérique en gaz à effet serre voit son effet à la fois
diminué par l’émission simultanée d’aérosols réfléchissant le rayonnement solaire,
mais aussi immédiatement augmenté par une rétroaction de la vapeur d’eau : plus il
fait chaud, plus le niveau de saturation en vapeur d’eau s’élève, ce qui conduit à un
effet de serre additionnel, qui double la réponse climatique. Au total, l’augmentation
déjà acquise de l’effet de serre est déjà susceptible de créer un réchauffement
climatique dont l’amplitude est supérieure aux variations naturelles des derniers
siècles, une tendance qui est maintenant confirmée par l’examen attentif des
données climatiques disponibles.
Mais c’est bien l’évolution future de cette part anthropique de l’effet de serre, qui
pose problème. La durée de vie atmosphérique des aérosols est très brève
(quelques semaines), et l’accumulation des gaz à effet de serre dans l’atmosphère
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
3
se poursuit. La combinaison de ces deux effets rend un réchauffement global de la
planète d’ampleur plus grande absolument inévitable.
Cette croissance de l’effet de serre a deux caractéristiques majeures :
(1) Elle est globale, parce que les gaz émis par les uns ou les autres sont mélangés
par l’atmosphère de manière rapide (en moins d’un an). Partout sur la planète on
retrouve les 5% de gaz émis par la France. La France comme tous les autres pays
du monde est exposée aux 95% d’émissions par les autres pays.
(2) Les conséquences de cette perturbation globale se déclinent localement : la
croissance anthropique de l’effet de serre provoque et provoquera une perturbation
de grande ampleur du système climatique, avec des conséquences régionales très
inégalement réparties. Des modèles climatiques plus complexes sont nécessaires
pour décrire cette réponse. Ils montrent que la température est appelée à augmenter
plus vite dans les régions polaires et sur les continents, que la réponse « hydrique »
(la modification des régimes de précipitation) sera au contraire plus forte dans les
régions intertropicales, le relèvement du niveau de la mer constituant bien sûr une
menace plus spécifique pour les régions côtières. »
Michel Petit (Correspondant de l’Académie des sciences) :
« On appelle effet de serre l’absorption par certains gaz présents dans l’atmosphère,
comme le dioxyde de carbone, le méthane ou le protoxyde d’azote, d’une partie du
rayonnement infrarouge qu’émet une planète dont la température est de l’ordre de
quelques centaines de kelvins. L’énergie de ce rayonnement sortant compense celle
de la fraction du rayonnement solaire reçu, absorbée par la planète dont la
température moyenne s’établit à une valeur permettant cet équilibre. Toutes choses
égales par ailleurs, plus l’effet de serre est important, plus la température est forte de
manière à compenser l’absorption. La composition naturelle de l’atmosphère
terrestre induit un effet de serre sans lequel la température de la Terre serait
inférieure d’une trentaine de degrés à celle que nous connaissons et qui a permis le
développement de la vie. L’effet de serre n’est donc pas intrinsèquement nocif. Par
contre, les hommes ne peuvent changer impunément la composition de l’atmosphère
de leur planète, sans en modifier le climat. Dans la pratique, on désigne souvent cet
effet de serre additionnel sous le vocable abrégé “d’effet de serre”, alors qu’on
devrait, en toute rigueur, parler d’effet de serre “additionnel” provoqué par les
émissions liées aux activités humaines. Il s’agit d’un phénomène mondial intégré qui
n’est pas mesurable localement, les circulations océaniques et atmosphériques
redistribuant géographiquement l’énergie thermique.
L’augmentation de la concentration atmosphérique du dioxyde de carbone, du
méthane et du protoxyde d’azote au cours des dernières décennies est un fait que
confirment toutes les mesures. Une augmentation de la température moyenne est
donc inéluctable et on observe effectivement une croissance moyenne de 0,75 °C
depuis la fin du XIXe siècle, même si sa variation est aléatoire d’une année à l’autre.
Le rythme de l’augmentation ne cesse de croître et atteint aujourd’hui l’ordre de
grandeur de 0,15 degré par décennie. Ces variations peuvent sembler faibles par
rapport aux écarts de température locale dont nous faisons quotidiennement
l’expérience. Elles sont cependant très significatives par rapport à l’écart de 6°C de
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
4
cette même température moyenne, qui existe entre une période glaciaire durant
laquelle l’Europe du nord était couverte d’une couche de glace de plusieurs km
d’épaisseur et un optimum interglaciaire, tel que celui que nous vivons.
L’augmentation de température n’est pas uniformément répartie et, en particulier,
l’inertie thermique bien connue des océans ralentit la croissance de leur température
par rapport à celle de terres émergées. C’est ainsi que la France connaît un
accroissement de sa température double de la moyenne mondiale. Les régions les
plus septentrionales du globe connaissent une croissance encore plus rapide.
Le réchauffement lié à l’effet de serre diminue avec l’altitude et finit par se traduire
par un refroidissement au niveau de la stratosphère. »
I-2 La question se pose pour certains de savoir s’il y a une modification du
climat due aux activités humaines. Si oui, par quoi se traduit-elle ?
Marie-Lise Chanin (Correspondant de l’Académie des sciences)
« Les observations des dernières années, depuis celles prises en compte dans le
dernier rapport du GIEC, nous confirment malheureusement que la communauté
scientifique n’a pas joué les Cassandre et qu’en fait le changement climatique
s’accélère comme le montre, pour ne prendre qu’un exemple, l’accélération de la
fonte des glaciers à toutes latitudes. La cause de cette accélération est simple à
trouver : le changement de la croissance des émissions de dioxyde de Carbone est
passé de 1%/an dans les années 90 à plus de 3%/an à partir de 2000. Ce
changement assez brutal s’explique par le développement de l’économie des pays
émergents, et l’on ne peut que conclure à l’urgence encore plus critique
qu’auparavant du développement d’énergie non-carbonée.
Certes le climat de la terre a toujours changé au cours de son histoire sous
l’influence de phénomènes naturels autres que l’augmentation du CO2. Qu’il s’agisse
de perturbations naturelles (éruptions volcaniques majeures, variations de l’activité
solaire), de cataclysmes comme l’arrivée d’une météorite, ou des changements
périodiques de la position de la terre par rapport au soleil, tous ont laissé des traces
dans les archives du climat et notamment sur la température de surface. Dans la
mesure où la question qui se pose à nous aujourd’hui concerne les changements
récents et en cours, oublions les perturbations de longues périodes et regardons
celles qui ont pu affecter la température moyenne de la planète au cours des
dernières décennies et pour laquelle les données sont d’excellente qualité, qu’il
s’agisse des mesures obtenues à la surface des continents et de l’océan ou dans la
basse atmosphère par satellite.
Pendant la période récente, l’impact d’une éruption volcanique, comme celle du Mont
Pinatubo en 1991, a été observé avec une très grande précision, grâce notamment
aux moyens spatiaux : les émissions de poussières dans la stratosphère ont
effectivement refroidi la surface d’environ 0.5°C en 1991/92 ; mais cet effet n’a duré
qu’un peu plus d’un an. De même les oscillations océaniques quasi-périodiques (El
Nino ou la Nina et l’oscillation Nord Atlantique) créent momentanément des
changements dans les températures moyennes respectivement plus élevées ou plus
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
5
basses, c’est-à-dire qu’elles génèrent une variabilité (un bruit) dans les observations,
mais ces variations de courte période n’affectent pas la tendance à long terme.
Le soleil étant la source d’énergie responsable de la vie sur notre planète, l’activité
solaire est un paramètre majeur affectant la température et le climat et nous savons
qu’elle est variable à toutes les longueurs d’onde et à toutes les échelles de temps.
Un des exemples de sa relation avec le climat dans le passé s’est traduit de façon
indubitable par le « petit âge glaciaire » qui correspondait à une période de fort
minimum d’activité solaire.
Grâce aux instruments très précis dont on dispose aujourd’hui dans l’espace,
l’activité solaire a été documentée avec beaucoup plus de précision qu’auparavant
depuis 1979. On a ainsi pu déterminer l’amplitude de la variation cyclique d’une
période de 11 ans qui correspond à 0.1% de l’intensité solaire totale moyenne. La
modulation de la température due à ce cycle de 11 ans (dont on sait qu’elle est très
importante dans la haute atmosphère) n’est que très faible au sol (inférieure à 0.1°C
en moyenne) et de toute façon ne peut que moduler la température avec une période
de 11 ans et non modifier la tendance sur quelques décennies. Mais surtout ce que
ces données récentes ont montré c’est que la variation moyenne d’activité solaire au
cours des 30 dernières années est très faible et ne correspond au plus qu’à 7% de
l’influence de l’augmentation des gaz à effet de serre pendant la même période. Bien
que les processus par lesquels l’influence solaire se transmet à la surface ne soient
pas encore élucidés, il est difficile de penser que l’augmentation de la température
moyenne observée au cours de cette période pendant laquelle les émissions de CO2
ont augmenté de quelque 80% puisse être attribuable à une augmentation si faible
de l’activité solaire.
Quant à prédire l’impact de la variabilité naturelle sur l’évolution future du climat, la
variabilité de l’activité solaire et de l’activité volcanique étant imprévisibles, il est
impossible de les prendre en compte dans les modèles prédictifs. Par contre
l’influence de l’augmentation du CO2 sur le climat est prévisible et chiffrée avec une
confiance suffisante pour s’en inquiéter.
Qui plus est, l’homme ne peut lutter contre les forces de la nature et donc contre les
conséquences des phénomènes naturels. Il peut par contre modifier par ses
décisions et son comportement ses émissions de gaz à effet de serre. C’est tout
l’objet des débats actuels. »
Vincent Courtillot (Membre de l’Académie des sciences) et
Jean-Louis Le Mouël (Membre de l’Académie des sciences) :
« Le climat est en général défini comme la moyenne de la météorologie sur
environ trente ans. Il est caractérisé par de nombreux paramètres observables :
température, pression, précipitations, vents, nébulosité, insolation,… Le paramètre le
plus couramment observé et représenté est la température. Il n’est pas si simple de
mesurer la température moyenne globale de la basse atmosphère ni de s’assurer
qu’elle a bien une signification thermodynamique (les températures ne s’additionnent
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
6
pas, contrairement par exemple aux volumes). De plus, les températures moyennes
diffèrent considérablement d’une région climatique à l’autre (voir réponse à la
question I-3 pour la France) et celles que nous avons recalculées diffèrent
sensiblement de celles qui sont représentées dans le rapport 2007 du GIEC (figure 1
de la réponse à la question I-3).
Si l’on admet cependant la validité de la courbe moyenne mondiale publiée sur
le site du centre de recherches britannique de Hadley (figure 1), on voit que la
température moyenne a crû de 1910 à 1930 environ, décrû de 1940 à 1970, crû à
nouveau jusqu’en 1998 qui en marque le maximum, et décrû à nouveau depuis.
Cette forme particulière de la courbe ressemble beaucoup plus aux variations de
divers indicateurs caractéristiques des variations d’activité solaire qu’à celles de la
concentration de CO2 dans l’atmosphère. La décroissance observée pendant la
dernière décennie correspond bien à la décroissance de l’activité solaire, qui semble
être rentrée dans une phase plus faible que lors des dernières décennies, et qui
pourrait durer plusieurs décennies, comme l’ont observé pour le passé les physiciens
du Soleil (de Jager, 2008).
Nous avons multiplié depuis 2005 les études qui font apparaître la présence
indiscutable de signaux solaires dans les températures et dans la variabilité des
températures en Europe et aux Etats-Unis (figure 2). Nous avons également pu
montrer dans les séries les plus longues (plus de deux siècles) de stations comme
Prague, Bologne ou Uccle, que le cycle de la température au cours de l’année
« sait » parfaitement si l’on est en période de fort ou de faible cycle solaire. Nous
avons retrouvé la signature solaire dans une oscillation du système océan-
atmosphère qui est importante pour le climat du Pacifique tropical nord, l’oscillation
de Madden-Julian. Ces observations, désormais publiées (voir références), semblent
bien indiquer que l’influence du Soleil a été sous-estimée et celle du CO2 surestimée
dans les modèles.
Deux articles récents révisent à la baisse la sensibilité de l’atmosphère au CO2
(Lindzen et Choi, 2009) et les variations de l’irradiance solaire à long terme à la
hausse (Scafetta et Willson, 2009) au point de peut-être inverser leurs contributions
respectives. Enfin, une ré-analyse des anneaux d’accroissement des arbres (Grudd
et al, 2008) confirme que la célèbre courbe en crosse de hockey de Mann est fausse
(à cause notamment d’un biais lié à l’épaisseur de ces anneaux en fonction de l’âge
de l’arbre) et que les températures actuelles et le réchauffement climatique des 150
dernières années ne sont ni exceptionnels ni exceptionnellement rapides. Quatre ou
cinq fois depuis 1500 ans la température moyenne a été aussi élevée, et pendant
deux siècles autour de l’an mille nettement plus élevée: on produisait du vin à
Londres et les Vikings occupaient un Groënland vert… »
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
7
Figure 1 : Température moyenne globale (« anomalie » ou différence par rapport à la moyenne
de 1961 à 1990) de la basse atmosphère évaluée par le Hadley Research Center. Echelle en degrés
Celsius. La tendance décennale ou multi-décennale indiquée en rouge est indicative seulement et
estimée par les auteurs de la présente note.
____________________________________________________________________________________
Figure 2 : En rouge la variabilité de la température moyenne (a, à gauche) et de la direction des
vents (b, à droite) pendant la saison d’hiver (10 janvier au 20 février) dans les stations
météorologiques de Hollande. En bleu, un indicateur de l’activité solaire (la variation quadratique
journalière de la composante verticale du champ géomagnétique à Eskdalemuir en Ecosse). (d’après
Le Mouël et al, 2009a).
Références :
Courtillot, V., Gallet, Y., Le Mouël, J.L., Fluteau, F. and Genevey, A., 2007. Are there connections
between the Earth's magnetic field and climate? Earth and Planetary Science Letters, 253(3-4):
328-339.
Courtillot, V., Gallet, Y., Le Mouël, J.-L., Fluteau, F., and Genevey, A., 2008. Response to comment
on “Are there connections between the Earth’s magnetic field and climate?”, Earth Planet. Sci.
Lett., 265, 308-311.
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
8
Courtillot, V., Le Mouël, J.L. Blanter, E., and Shnirman, M., sous presse, 2009. Evolution of seasonal
temperature disturbances and solar forcing in the US North Pacific, Journal of Atmospheric and
Solar-Terrestrial Physics.
Grudd, H., 2008. Tornetrask tree-ring width and density AD 500–2004: a test of climatic sensitivity and
a new 1500-year reconstruction of north Fennoscandian summers, Climate Dynamics, DOI
10.1007/s00382-007-0358-2.
de Jager, C., 2008. Solar activity and its influence on climate, Geol. Mijn., 87, 207-213,
Le Mouël, J.L., Kossobokov, V., and Courtillot, V., 2005. On long-term variations of simple
geomagnetic indices and slow changes in magnetospheric currents: the emergence of
anthropogenic global warming after 1990?, Earth Planet. Sci. Lett., 232, 273-286.
Le Mouël, J.L., Courtillot, V., Blanter, E. and Shnirman, M., 2008. Evidence for a solar signature in
20th-century temperature data from the USA and Europe. Comptes Rendus Geoscience,
340(7): 421-430.
Le Mouël, J.L., Blanter, E., Shnirman, M. and Courtillot, V., 2009a. Evidence for solar forcing in
variability of temperatures and pressures in Europe. Journal of Atmospheric and Solar-
Terrestrial Physics, 71(12): 1309-1321.
Le Mouël, J.L., Kossobokov, V., and Courtillot, V., sous presse, 2009b. A solar pattern in the longest
temperature series from three stations in Europe, Journal of Atmospheric and Solar-Terrestrial
Physics.
Lindzen, R.S., and Choi, Y.S., 2009. On the determination of climate feedbacks from ERBE data,
Geophys. Res. Lett., 36, doi: 10.1029/2009GL039628.
Scafetta, N., and Willson, R.C., 2009. ACRIM-gap and TSI trend issue resolved using a surface
magnetic flux TSI proxy model, Geophys. Res. Lett., 36, L05701, doi: 10.1029/2008GL036307.
Hervé Le Treut (Membre de l’Académie des sciences) :
« La température moyenne à la surface de la Terre est-elle un bon diagnostic
de l’évolution climatique ? Cela dépend bien sûr du contexte. Il s’agit
principalement d’un diagnostic à vocation pédagogique qui permet la présentation
simplifiée de résultats, mais ne correspond pas à la pratique des modèles, qui
calculent l’évolution de températures distribuées sur le globe, horizontalement
comme verticalement.
Le principal problème auquel nous sommes confrontés aujourd’hui est d’arriver à
estimer l’importance relative du changement climatique qu’annoncent les modèles
pour les prochaines décennies, et des fluctuations naturelles du climat. Nous savons
que les deux éléments naturels et anthropiques se superposent déjà, mais que la
part de la composante anthropique est appelée à croitre dans le futur. La
température globale fournit un ordre de grandeur utile, en montrant que le
réchauffement des prochaines décennies sera de plusieurs degrés, alors que les
fluctuations climatiques des derniers siècles, au mieux de ce que l’ont sait les
estimer, se chiffrent en dixièmes de degrés (en dépit de leurs conséquences souvent
importantes). Il faut remonter à la dernière déglaciation pour trouver trace d’un
réchauffement global de plusieurs degrés.
Mais ce diagnostic simple ne suffit pas, et l’analyse des modèles, la validation de
leurs résultats concernant le passé, le présent et le futur utilisent toujours des
diagnostics beaucoup plus précis. Les études destinées à détecter les premiers
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
9
signes du réchauffement dû aux activités humaines, par exemple, se font toujours en
utilisant l’ensemble des données tridimensionnelles des différents paramètres
météorologiques mesurés de manière régulière (température, mais aussi pression,
vent, pluie, humidité, manteau neigeux, composition de l’atmosphère, salinité des
… : en fait une longue liste, qui s’est encore allongée depuis 20 ans avec la
systématisation des mesures satellitaires).
Cette analyse utilise des méthodes complexes. Le système climatique subit des
variations continuelles : déterminer la part des fluctuations naturelles organisées, des
fluctuations naturelles aléatoires, et (maintenant) des fluctuations d’origine
anthropique, en distinguant tant les processus qui sont à leur origine que l’échelle de
temps où elles se manifestent, constitue la tâche première des climatologues, et
occupe des milliers de personnes en permanence. Il faut distinguer plusieurs étapes
dans ce travail :
– (1) le recueil des données observées, organisé depuis 1873 par l’Organisation
Météorologique Internationale, devenue depuis l’Organisation Météorologique
Mondiale. Les données météorologiques sont complétées par des données
océanographiques, des données multiples de paramètres de surface, mais
aussi des données relatives à un passé plus lointain. L’ensemble a conduit à
créer des archives colossales, de données « brutes », non analysées.
– (2) l’analyse de ces données, qui assure leur cohérence, et exploite les
informations supplémentaires que donnent les équations du mouvement. Il
s’agit donc d’utiliser les modèles comme un outil d’analyse objective du
système climatique. Cette analyse est effectuée de manière quotidienne pour
permettre les prévisions météorologiques, mais aussi les prévisions
océanographiques, celles des crues, des systèmes d’alerte sur la chimie
atmosphérique, etc. La qualité des prévisions, vérifiable quelques jours plus
tard, constitue le meilleur indice possible de qualité des analyses.
– (3) des réanalyses cohérentes de tout l’historique des données (en fait
principalement de la quarantaine d’année pendant lesquelles le système
actuel de mesure et de prédiction a été en place) . Elles sont nécessaires pour
étudier l’évolution climatique, c'est-à-dire l’évolution des différents moments
statistiques associés à ces données, avec un outil diagnostic invariant. Cette
tâche majeure (un cycle de réanalyse réclame plusieurs années de calcul sur
les plus gros ordinateurs actuellement disponibles) est effectuée de manière
régulière au Centre Européen de Prévisions Météorologiques à Moyen Terme,
dans plusieurs centres de recherche américains, et dans plusieurs autres
centres spécialisés.
– (4) La recherche des différents modes de fluctuations climatiques. Elle utilise
des techniques statistiques extrêmement variées, qui peuvent être purement
statistiques, s’appuyer sur les propriétés dynamiques des écoulements,
s’envisager à l’échelle globale, être déclinées de manière régionale. Il est
impossible de donner un aperçu même résumé de ces travaux dans le cadre
de ce petit paragraphe, mais il est essentiel de savoir qu’ils existent et
occupent une fraction importante de la communauté des chercheurs en
climatologie.
Ces études ont permis de mettre en évidence des modes climatiques nombreux :
l’ ENSO (El-Niño-Southern Oscillation), l’ONA ou NAO (Oscillation Nord Atlantique)
sont les plus célèbres, mais il en existe beaucoup d’autres. Une tradition
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
10
météorologique ancienne, initiée au début du XXe siècle par le climatologue anglais
Sir Gilbert Walker, consiste à décrire ces modes au travers d’indices : les calculs
effectués à l’ère moderne ont confirmé, près d’un siècle plus tard, la pertinence
d’indices définis par Walker : l’indice de l’oscillation australe (pression à Tahiti moins
pression à Darwin) ou de l’indice de l’ONA (pression à Reykjavik moins pression à
Lisbonne).
On peut de la même manière considérer la température moyenne à la surface de la
Terre comme un indice, décrivant la part des fluctuations du système climatique qui
ont un impact planétaire. La température de surface est calculée à partir d’un
ensemble de mesures au sol (bouées, bateaux, stations météorologiques), qui sont
depuis quelques décennies complétées et mises en synergie par des données
satellitaires. Les mesures satellitaires sont beaucoup plus précises sur les océans
que sur les continents, ce qui permet de couvrir l’Hémisphère Sud de manière
correcte. Les systèmes d’analyse évoqués plus haut permettent de vérifier la
cohérence de l’estimation des températures de surface avec celle des autres
paramètres météorologiques. On peut vérifier que l’indice « température moyenne à
la surface » rend effectivement compte des évolutions à moyen terme du climat
(quelques décennies et au delà), et qu’il est aussi sensible aux modes organisés des
variations climatiques qui se manifestent à plus courte échelle de temps. Il est donc
raisonnable d’étendre l’usage de cet indice à des périodes bien plus longues que les
dernières décennies, et de s’en servir comme d’un descripteur (partiel) des
évolutions climatiques à l’échelle des siècles, des millénaires ou centaines de milliers
d’années.
Au cours des dernières années la température moyenne à la surface de la Terre a
connu une augmentation progressive à laquelle se superposent des évènements
plus ponctuels. En 1998, un évènement El Niño d’amplitude exceptionnelle s’est
traduit par des températures moyennes très élevées, suivies bien sûr dans les
années suivantes par un refroidissement relatif. Ces évolutions seraient impossibles
à interpréter si elles n’étaient pas accompagnées d’études plus précises, visant à
faire la part des différents modes climatiques y participant. Les études de détection
du changement climatique vont un pas plus loin, en cherchant à déterminer si, dans
un espace statistique orthogonal à celui des variations naturelles du climat, des
évolutions ont lieu dans le sens des changements attendus en réponse à
l’augmentation des gaz à effet de serre (tels que les simulent les modèles). Ce sont
ces études, et non l’inspection visuelle de la courbe du réchauffement moyen de la
planète, qui permettent d’affirmer désormais avec une quasi-certitude qu’un
changement est en cours, et, avec une certitude à peine moindre, qu’il est attribuable
aux activités humaines. Ces mêmes études constituent aussi une validation de fait
de la prévision des évolutions climatiques futures par les modèles. »
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
11
Claude Lorius (Membre de l’Académie des sciences) et Jean Jouzel
LSCE/IPSL (CEA-CNRS)
« La température moyenne à la surface de la Terre est déterminée à partir de moyennes
mensuelles qui combinent les valeurs journalières de la température dans des milliers de
stations continentales avec celles de la surface de la mer réalisées à partir de milliers de
navires sillonnant les océans. Pour chacun des sites, on utilise comme référence la période
allant de 1961 à 1990, en prenant bien soin de corriger différents biais liés à des
changements d'instrument et de méthode de mesure ou à des modifications de
l'environnement de la station liées, par exemple, à l'urbanisation. A partir de ces données
on caractérise un maillage géographique couvrant, par exemple, 5° en latitude et longitude.
Trois équipes, une anglaise et deux américaines, produisent ces données sur la
température moyenne à la surface de la Terre. Leurs approches différent essentiellement
par les méthodes d'interpolation spatiale utilisées et par la façon de prendre en compte les
périodes pour lesquelles certaines séries de mesures sont interrompues, comme cela a été
le cas durant les première et seconde guerres mondiales.
On peut ainsi remonter jusqu'aux années 1850 avec cependant une couverture
géographique qui est loin d'être globale dans la seconde partie du XIXe siècle. Elle est de
très bonne qualité depuis 1957 date à laquelle ont commencé les mesures en Antarctique
et plus encore depuis 1980, avec le début des mesures satellitaires. Les estimations des
valeurs moyennes annuelles (2 écarts types) sont donc plus précises de nos jours (~ 0.1°C)
qu'au début du XXe siècle (~ 0.2°C). En tenant compte de toutes les sources d'incertitude,
les tendances observées depuis une centaine d'années sont tout à fait significatives
indiquant un réchauffement moyen de 0.74 ± 0.18 °C entre 1906 et 2005, et de 0.64 ± 0.13
°C entre 1956 et 2005.
Quelles sont les parts respectives de la variabilité naturelle du climat et de celle due
à l’Homme ?
Faire la part de ce qui est dû à la variabilité naturelle de notre climat – qui a toujours existé
et existera toujours – et de ce qui résulte des activités humaines est une des questions
importantes abordée dans les rapports successifs du GIEC. Grâce à l'accumulation de
nouvelles données, à l'amélioration des modèles climatiques et à une meilleure
connaissance des causes naturelles de la variabilité, le 4ème rapport publié en 2007 apporte
une réponse claire. Il y a moins de 10 chances sur 100 que le réchauffement tel qu'il a été
observé depuis le milieu du XXe siècle soit uniquement d'origine naturelle ; en fait, sur cette
période, les variations combinées de l'activité solaire et de celle des volcans auraient plutôt
contribué à un refroidissement. A l'inverse, il est très probable (plus de neuf chances sur
dix) que l'essentiel de ce réchauffement résulte de l'augmentation de l'effet de serre liée
aux activités humaines. Le refroidissement récent observé dans la stratosphère est l’un
des arguments clés de cette conclusion ; il est en accord avec un réchauffement de la
planète lié à l’effet de serre alors qu’à la fois stratosphère et surface auraient du se
réchauffer s’il était dû à l’activité solaire.
Cette variation moyenne de température est-elle un bon indicateur de ce changement
climatique ? Quelles en sont les conséquences ? ,
La température moyenne est un bon indicateur du réchauffement. Le diagnostic du GIEC
selon lequel "le réchauffement est sans équivoque" s'appuie de plus sur un ensemble
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
12
d'observations complémentaires : réchauffement observé dans la moyenne atmosphère et
dans la profondeur des océans, rythme de la fonte des neiges et des glaces, élévation du
niveau moyen de la mer, augmentation de la quantité de vapeur d'eau dans
l'atmosphère….
D'autres variables climatiques sont à prendre en compte lorsque l'on passe de la notion de
"réchauffement" à celle, plus large, de "changement climatique". Celles-ci concernent
l’importance des précipitations, la salinité de l'océan, les vents, la circulation atmosphérique
et les événements extrêmes incluant sécheresses, précipitations intenses, inondations,
vagues de chaleur et cyclones tropicaux. Notre environnement est également affecté que
ce soit sur les continents (période de gel des lacs et rivières, dates de floraison et des
vendanges, domaines de développement de la faune et de la flore) ou sur les océans
(habitats modifiés de certaines espèces d'algues, de plancton ou de poissons que l'on peut
associer avec une grande confiance au réchauffement des eaux océaniques et aux
variations d'autres paramètres tels que couverture de glace, salinité, circulation océanique
et teneur en oxygène). »
Michel Petit (Correspondant de l’Académie des sciences) :
« Comme chacun sait, le système climatique est affecté de variations aléatoires d’un
jour à l’autre. D’une année à l’autre, les hivers restent plus froids que les étés, mais
certains hivers sont plus froids que d’autres et certains étés plus chauds que
d’autres. Pour avoir une valeur statistiquement significative, il faut faire des
moyennes dans l’espace sur l’ensemble du globe et dans le temps sur plusieurs
décennies (30 ans de façon usuelle). La moyenne dans l’espace est faite à partir du
réseau mondial des stations météorologiques terriennes et des satellites
météorologiques. Bien entendu, les stations terriennes ne sont pas uniformément
réparties à la surface du globe et leur moyenne est pondérée en conséquence.
Quand on cherche à évaluer la température moyenne dans un passé où le réseau
mondial n’existait pas encore, on doit faire appel à des indicateurs dont un des plus
puissants est la composition des bulles d’air, d’âge pouvant atteindre un million
d’années, qu’on retrouve emprisonnées dans les calottes glaciaires des régions
polaires à des profondeurs de l’ordre de plusieurs kilomètres.
Le climat de la Terre évolue sous l’influence de causes naturelles qui ont toujours
existé et continueront à jouer un rôle.
– tout d’abord, la Terre ne tourne pas toujours de la même façon autour du Soleil, à
cause de l’attraction des autres planètes et de la Lune : l’axe de rotation autour
duquel la planète tourne sur elle-même en un jour est plus ou moins incliné par
rapport au plan dans lequel elle accomplit sa rotation annuelle autour du Soleil,
l’aplatissement de l’ellipse qu’elle décrit dans ce plan est plus ou moins marqué, le
mois au cours duquel la Terre est au plus près du Soleil varie régulièrement. Toutes
ces variations se produisent lentement, avec des périodes qui se mesurent en
dizaines de milliers d’années. Elles provoquent des changements dans la manière
dont le Soleil éclaire notre planète de l’angle et sont à l’origine des grands cycles
glaciaires interglaciaires qui ont une amplitude de l’ordre de 6 °C et une période de
100 000 ans. Nous sommes depuis 10 000 ans dans une période interglaciaire, donc
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
13
chaude, qui ne devrait s’achever que dans plus de 30 000 ans.
– le Soleil connaît lui-même une variabilité qui se manifeste en particulier par la
présence de taches dont le nombre varie avec un cycle de 11 ans. Toutefois, ce
cycle affecte le rayonnement solaire essentiellement dans la gamme de l’ultraviolet
et son influence est évidente sur le comportement des parties les plus élevées de
l’atmosphère terrestre qui l’absorbent : ionosphère (altitude de 100 km et au-delà) et,
dans une moindre mesure, stratosphère (altitude d’environ 30 km). Il n’affecte que
peu l’énergie totale rayonnée et son influence est détectée, mais très faible dans les
phénomènes climatiques. Des variations à long terme du rayonnement total, comme
un accroissement depuis le minimum, dit de Maunder, observé à la fin du XVIIe
siècle dans le nombre de taches solaires, sont possibles, mais d’amplitude très
inférieure à celle du cycle de 11 ans qui n’est pas visible dans la température au
niveau du sol et ne sauraient expliquer les variations du climat, au cours des
dernières décennies. Depuis quelques décennies, les satellites permettent une
mesure directe du rayonnement solaire dont la variation reste faible. De plus, on ne
voit pas par quel mécanisme une augmentation du rayonnement solaire pourrait
expliquer que le réchauffement récemment observé du climat décroisse avec
l’altitude jusqu’à devenir un refroidissement au niveau de la stratosphère.
– un autre paramètre jouant un rôle sur la température au sol est l’activité volcanique.
Lors des fortes éruptions volcaniques, des poussières atteignent la stratosphère (au-
dessus de 15 km d’altitude) et peuvent y rester pendant une ou deux années avant
de retomber vers le sol. Ces particules constituées essentiellement d’oxydes de
soufre jouent un rôle d’écran pour le flux solaire incident, ce qui a pour effet de
refroidir la surface. Lors de la dernière grande éruption du mont Pinatubo en 1991,
un tel refroidissement de 0,5 °C a été observé sur une grande partie de la planète.
Mais ces effets sont de courte durée (1 à 2 ans). Ils représentent seulement une
source de variabilité, mais ne peuvent expliquer la montée des températures que l’on
observe de façon quasi continue au cours des 30 dernières années.
Les activités humaines ont, depuis le début de l’ère industrielle, ajouté à ces causes
naturelles de nouvelles causes de variation liées au changement de la composition
de l’atmosphère qu’elles induisent : l’effet de serre additionnel qui est le seul à
expliquer quantitativement les observations des trente dernières années, comme le
montrent les modélisations actuelles du climat qui prennent en compte l’ensemble
des phénomènes naturels et des phénomènes anthropiques.
La variation de la température moyenne est le meilleur des indicateurs du
changement climatique mondial. Ce paramètre, pour significatif qu’il soit, ne doit pas
faire oublier l’existence de variations géographiques importantes et de variations des
précipitations dont l’importance pour les écosystèmes et l’humanité ne doit pas être
sous-estimée. L’augmentation de température entraîne une lente montée du niveau
de la mer en raison d’une part de la dilatation de couches de plus en plus profondes
de l’océan et d’autre part de la fonte des glaces de terre. Cette montée se poursuivra
pendant des siècles, même si la température est stabilisée. »
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
14
I-3 En France, comment verrions-nous, dans notre vie quotidienne, les effets
éventuels d’un réchauffement climatique ?
Jean-Claude André (Correspondant de l’Académie des sciences) :
« Il faut distinguer deux niveaux de réponse à cette question : d’une part la
perception du réchauffement que peut, ou ne peut pas, avoir une personne ne
disposant que de sa propre perception des températures, et d’autre part la réalité du
réchauffement telle qu’elle ressort des mesures spécialisées des climatologues.
La perception individuelle est limitée par la portée de la mémoire et par la trace qu’y
laissent certains événements plus ou moins exceptionnels. Le réchauffement
climatique s’apprécie sur des durées de plusieurs décennies, ce qui est tout juste
compatible avec la durée de vie de la plupart des Français ! L’expérience commune
peut donc être biaisée par un hiver particulièrement doux ou au contraire rigoureux,
ou par un été particulièrement chaud ou au contraire frais, sans que la tendance
lente sur 50 ans n’y laisse de trace !
Les enregistrements climatiques sont quant à eux de nature quantitative. Ils montrent
par exemple, sur la période 1951-2000, que le nombre de journées dites estivales
(c'est-à-dire avec une température supérieure à 25°C), a augmenté dans 90 % des
stations de mesure disposées sur le territoire national. Ils montrent qu’il y a 4
journées de gel en moins tous les 10 ans dans le sud (station de Toulouse) et 5
journées en moins dans le nord (station de Nancy). Ils indiquent aussi que
l’enneigement de moyenne montagne (altitude entre 500 et 1500 m) diminue, avec,
tous les 10 ans, 1 semaine de moins avec de la neige au sol et 2 semaines de
moins avec un enneigement supérieur à 1 m. Ils montrent d’autre part que nombre
d’oiseaux migrateurs restent en France en hiver au lieu de partir vers le sud, ou
encore que les dates de floraison des arbres fruitiers, ou les dates de vendanges,
sont de plus en plus précoces. Tous ces indicateurs sont régulièrement suivis sur le
site de l’ONERC1.
Qu’est-ce qui prouve que le réchauffement climatique est dû à l’augmentation
de l’effet de serre ?
Il est possible de montrer que beaucoup des effets décrits ci-dessus sont significatifs
du point de vue statistique, c'est-à-dire ne relèvent pas de fluctuations naturelles
affectant le climat d’une année à l’autre : il s’agit d’un signal véritable et non plus du
bruit de variations plus ou moins erratiques. Il faut par contre faire appel à la
modélisation du climat pour déceler l’explication de ce signal. Seuls les modèles
climatiques complexes, qui prennent en compte tous les mécanismes
atmosphériques et océaniques, de nombreuses interactions avec les autres milieux
et phénomènes (soleil, végétation et biosphère, volcanisme…) sont susceptibles de
mettre en relation de façon convaincante et quantifiée "causes" et "effets". Ce sont
eux qui démontrent que le réchauffement du climat actuel et futur est induit par
l’augmentation de la concentration atmosphérique des gaz à effet de serre (gaz
carbonique, méthane, ..).
1
Observatoire National des Effets du Réchauffement Climatique
(http://onerc.org/listAllIndicators.jsf)
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
15
Quelle est la région la plus touchée par ce changement climatique et de quelles
manières ?
A l’échelle globale ce sont les régions de haute latitude qui connaissent, et
connaîtront, le réchauffement le plus important. A échelle plus régionale, cette
grande tendance est modulée par des effets plus locaux comme la plus ou moins
grande proximité de masses océaniques ou montagneuses. Ainsi, pour la France,
c’est le sud-ouest qui, au cours du XXe siècle et en moyenne, s'est réchauffé plus
rapidement que les autres régions. Les différences interrégionales sont cependant
faibles (quelques dixièmes de degré). Pour des paramètres plus fins comme la
température minimale de fin de nuit, c’est l'ouest qui s'est réchauffé davantage que
l'est ; pour les températures maximales diurnes, c’est le sud qui s'est plus réchauffé
que le nord.
Y a-t-il des sécheresses nouvelles visibles dans le Sud ?
Il y a effectivement une tendance à l'assèchement des sols, en particulier de février
à avril, c'est-à-dire pendant la période où les pluies en principe plus abondantes
permettent de recharger les nappes phréatiques (ceci apparaît par exemple grâce à
des études de reconstitution de la quantité d’eau contenue dans les sols au cours
des 50 dernières années, de 1958 à 2008).
Cela frappe-t-il l’agriculture ?
L’agriculture est affectée par cet assèchement des sols, et ceci d’autant plus que la
demande en eau d’irrigation augmente ! C’est ainsi, par exemple2, qu’en 2005,
l'anticipation de la réduction de la ressource dès le mois de février a conduit à la
mise en place d'assolements intégrant cette perspective et à une réduction des
surfaces en maïs grain de 8 % en moyenne nationale. Au plan national, il était
attendu un rendement inférieur d'environ 10 % pour le maïs irrigué. La sécheresse a
pu entraîner des pertes allant jusqu'à 30 à 40 % dans certains départements, et 40
départements ont été reconnus éligibles aux calamités agricoles concernant les
récoltes fourragères.
Les incendies de forêts ont-ils augmenté ?
Il n’est pas possible à l’heure actuelle de répondre à cette question de façon
définitive, en particulier quant au lien possible entre augmentation du nombre de feux
de forêts et réchauffement climatique. Des études viennent d’être lancées pour
rassembler des éléments de réponse.
Jean-Louis Le Mouël (Membre de l’Académie des sciences) et
Vincent Courtillot (Membre de l’Académie des sciences)
« Pour ce qui est de la France, ou (parce que la réponse climatique y est
voisine) de l’Europe occidentale, regardons d’abord le passé récent, jusqu’à la
période actuelle. Les courbes en noir de la partie haute de la Figure 1 montrent
2
Source INRA (Institut National de la Recherche Agronomique)
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
16
l’évolution de la température moyenne en Amérique du Nord (à gauche) et en
Europe (à droite) d’après le rapport du GIEC (fondées sur les données du Hadley
Research Center). Ces courbes sont assez semblables, avec une croissance
jusqu’en 1940, une décroissance de 1940 à 1970 et une forte croissance
ininterrompue depuis. Les données brutes étant hélas inaccessibles, nous avons
recalculé ces courbes moyennes en partant des données de température minimale,
moyenne et maximale journalières de 44 stations en Europe et 150 aux Etats-Unis.
Ces données plus complètes (Figure 1 en bas) ne donnent pas vraiment la même
image que celles du GIEC. En Amérique du Nord, par exemple, le refroidissement de
1940 à 1970 a eu la même ampleur que les deux périodes de réchauffement qui le
précèdent et le suivent. On comprend pourquoi les articles de journaux évoquaient
au début des années 1980 (de manière alarmiste, comme souvent) la crainte d’un
retour vers un nouvel âge glaciaire (démenti rapidement, et dont les temps
caractéristiques ne sont pas les mêmes…). Après 30 ans de réchauffement, on
comprend que certains extrapolent et s’inquiètent d’une terre surchauffée…
En Europe, la courbe n’a pas du tout la même allure. La tendance qu’on décèle
derrière des variations plus rapides et assez amples (avec par exemple un
refroidissement considérable mais bref en 1940), c’est l’absence de toute évolution
entre 1910 et 1987 (ni réchauffement, ni refroidissement), puis un saut brusque
d’environ un degré Celsius vers 1987, et depuis un nouveau plateau. Cette courbe
en marche d’escalier ne ressemble guère à celle du GIEC, ni à celle des Etats-Unis,
ni à celle de l’évolution du CO2. Quel seuil critique a donc été franchi vers 1987 qui
fait sauter le climat européen d’un état stable à un autre, certes plus chaud ? La
signature du réchauffement est donc régionale. Pour ce qui est de la France, des
indicateurs agricoles confirment cette évolution. C’est ainsi que la date de floraison
des poiriers a été stable (avec de fortes variations autour de cette moyenne stable,
comme la courbe de température de la figure 1 en bas à droite) jusqu’en 1987, et a
avancé de deux semaines vers cette période, mais n’a plus évolué sensiblement
depuis, en bon miroir de la température européenne moyenne (ou de celle de la
France qu’on peut trouver sur le site de Météo-France ; voir Figure 2).
Pour ce qui est des causes de ces évolutions, on se reportera à notre réponse à
la question I-2. Nous y expliquons qu’à notre avis l’influence du CO2 a été surévaluée
et celle du Soleil sous-évaluée, sans qu’il soit encore possible d’en donner des
estimations quantitatives précises. Nous pensons que les incertitudes restantes dans
l’étude de ce problème complexe qu’est l’évolution du climat ont été très sous-
évaluées. Les prévisions sont d’autant plus incertaines. Il faut souligner l’extrême
variabilité du climat dans l’espace et dans le temps. Et naturellement les prédictions
dépendent de la compréhension que l’on a des causes du phénomène. Si le Soleil
est bien (comme il l’a été depuis des milliards d’années et à toutes les échelles de
temps) un déterminant majeur du climat de la Terre, on comprend mieux la
décroissance de la température à l’échelle globale depuis une dizaine d’années, en
liaison avec une décroissance de l’activité solaire. Certains physiciens du Soleil
pensent qu’il vient de passer dans un mode de fonctionnement plus modéré qu’au
cours des dernières décennies, et la baisse des températures pourrait se poursuivre
quelques décennies, pour nous ramener peut-être (à l’échelle globale) aux
températures des années 70… Quant à l’évolution à l’échelle de la France, elle est
très difficile à évaluer, au vu de la variabilité régionale observée au cours du siècle
qui vient de s’écouler. Bref, le climat devrait continuer à évoluer, avec des constantes
de temps d’une à quelques dizaines d’années, tantôt vers le haut, tantôt vers le bas.
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
17
Savoir si l’accumulation poursuivie du CO2 déclenchera un réchauffement
anormal dans les années qui viennent est un sujet de recherche important. Mais dire
que ce réchauffement anormal a déjà commencé, et ce avec un seuil de confiance
de 90% comme le dit le rapport du GIEC aux décideurs politiques, ne nous semble
compatible ni avec la complexité du problème , ni avec les nombreuses observations
qui semblent indiquer d’autres causes. Savoir si les évolutions climatiques sont une
bonne ou une mauvaise chose, où et pour qui, est un problème distinct, qu’il vaudrait
mieux ne pas mélanger sans précaution avec l’analyse scientifique de faits. »
____________________________________________________________________________________
Figure 1 : en haut, en noir, températures moyennes « observées », en bleu prédictions des
modèles en l’absence de gaz à effet de serre, en rose prédictions avec effet de serre ; en bas nos
courbes moyennes correspondantes. (d’après Le Mouël et al, 2008).
____________________________________________________________________________________
Figure 2 : Température moyenne annuelle en France de 1950 à 2005 (source Météo-France).
Deux tendances multi-décennales sont indiquées grossièrement. Celle en rouge correspond à la
représentation commune du réchauffement climatique (type « GIEC »), celle en bleu à l’interprétation
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
18
« en marche d’escalier » suggérée par la moyenne européenne de la figure 1. Il n’est pas simple de
trancher « mathématiquement » entre les deux…
Références (voir question I-2)
Michel Petit (Correspondant de l’Académie des sciences) :
« Les variations aléatoires du système climatique rendent délicate l’attribution de
phénomènes locaux à une cause générale. En ce qui concerne la France, les
sources de préoccupation concernent plutôt l’avenir que le présent, l’amplitude du
changement climatique passé étant faible par rapport à celle qu’on redoute. En outre,
les conséquences les plus sérieuses dans un pays à forte capacité d’adaptation
comme le nôtre sont de nature géopolitique et viendront vraisemblablement de
l’extérieur, en particulier sous forme de pressions migratoires venant de pays moins
développés.
On peut cependant noter les observations suivantes qui sont cohérentes avec le
changement climatique mondial, lui-même très vraisemblablement lié à l’effet de
serre anthropique : recul des glaciers, croissance du nombre de journées estivales
partout (4 jours tous les 10 ans à Paris, 5 à Toulouse), décroissance du nombre de
jours de gel (4 jours à Toulouse tous les 10 ans, 5 à Nancy), date des vendanges à
Châteauneuf du Pape (avance de 3 semaines en 50 ans, avec une accélération du
phénomène depuis les années 1990), extension vers le nord de la zone de présence
de la chenille processionnaire du pin qui, progressant au rythme de 5 km par an,
atteint le sud du Bassin parisien.
Les régions les plus menacées à terme par le changement climatique sont
vraisemblablement les régions de montagne à cause du tourisme hivernal affecté par
le manque de neige, les régions méditerranéennes à cause de la sécheresse et
d’une moindre attractivité pour le tourisme estival et la Camargue à cause de la
montée du niveau de la mer. »
I-4 La Terre a-t-elle connu, dans le passé, des modifications importantes de
température?
Jean Dercourt (Membre de l’Académie des sciences) :
« Les variations du climat ont pu être mises en évidence dans les séries géologiques
formées durant les périodes de l'histoire de la Terre où existèrent des calottes
glaciaires aux pôles (au permo-carbonifère, à l'ordovicien et au précambrien). Des
forages dans la calotte glaciaire antarctique actuelle ont permis, par l'étude des
isotopes de l'oxygène de la glace et la composition des bulles d'air emprisonnées
(CO2 et méthane), de déceler 4 cycles climatiques successifs en 400 000 ans
(époque à laquelle l'Homme savait utiliser le feu). Chaque cycle comporte un
minimum thermique (importante glaciation polaire, niveau marin bas) et, par étapes,
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
19
irrégulières mais en général assez rapides, atteint un maximum thermique (fonte de
la banquise arctique, élévation concomitante du niveau marin). Le cycle s'achève par
un retour à une période froide, lui aussi irrégulier mais beaucoup plus lent. Ainsi
défini, on peut dire que le cycle actuel a commencé il y a 30 000 à 20 000 ans ; le
niveau moyen des océans était alors à -120 mètres par rapport à l'actuel, la calotte
glaciaire arctique atteignait la région de Londres et de Bruxelles, etc. La remontée de
la température se fait par étapes, chacune marquée par une phase froide à laquelle
succède une phase plus chaude. Les données géologiques, archéologiques et
même historiques pour les plus récentes, le mettent en évidence. Pour les périodes
plus récentes, où la résolution est meilleure, on distingue des cycles dont les
périodes (ou pseudo-périodes) sont de l’ordre de quelques siècles. On reconnaît
ainsi une période froide au début du Moyen-âge passant progressivement, du XIIème
au XIVème siècle, à une période chaude (l’optimum climatique médiéval) suivie à
nouveau d'un refroidissement fort (le petit âge glaciaire) aux XVIIème et XVIIIème
siècles. A partir des années 1840, très progressivement, la température croît à un
rythme irrégulier qui a été assez élevé du début du XXème siècle aux années 1930-
1940, et à nouveau entre 1970 et 2000.
La variabilité du climat est donc un phénomène toujours présent dans l'histoire
récente et ancienne de la Planète.
Les causes de cette variabilité sont l'objet de recherches scientifiques importantes.
Le système climatique est extrêmement complexe et associe l'activité du soleil et des
autres planètes, d'une part, des diverses enveloppes de la planète, d'autre part, et
met ainsi en jeu :
1) les rythmes astronomiques (cycles de Milankovitch) ;
2) les variations de l'énergie solaire ;
3) la dynamique des enveloppes terrestres et, en particulier des enveloppes fluides :
celle de l’atmosphère (où sont présents les gaz à effet de serre) et de l’océan
naturellement, mais aussi peut-être celle du milieu liquide dans le noyau qui
entretient le magnétisme de la Planète ;
4) bien d'autres effets encore comme l'abondance des nuages (liée au cycle de l’eau,
principal gaz à effet de serre et le moins bien pris en compte dans les modèles), le
rôle des rayons cosmiques et des émissions volcaniques …
Alors que le rôle du Soleil avait fait l'objet de nombreuses études, celui-ci n'est que
peu considéré actuellement. En revanche, le rôle des gaz à effet de serre (vapeur
d'eau, CO2 et méthane, …) a été particulièrement souligné à partir des moyens
technologiques et de concepts théoriques novateurs (modélisations). Ainsi, certaines
variations climatiques, principalement les plus récentes, leur ont été attribuées. Il me
semble que les autres causes sont négligées ou très insuffisamment travaillées,
rendant ainsi incomplète la compréhension du système climatique, un système non
linéaire très complexe. Il s'agit de comprendre le rôle de chacune des causes du
réchauffement climatique actuel, ainsi que celui de l'ensemble des variations
antérieures.
Il importe, désormais, de déterminer si les gaz à effet de serre expliquent seuls
l'élévation thermique rapide du cycle actuel qui serait, alors, liée seulement à
l'activité humaine.
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
20
Il est indéniable que l'augmentation de la population mondiale et des activités
industrielles et agricoles entraîne un accroissement de ces gaz à effet de serre.
Toutes les mesures prises pour diminuer la pollution qui en découle sont bienvenues.
En revanche, attribuer l'augmentation de la température aux gaz à effet de serre
principalement ou à eux seuls mérite que toutes les autres causes soient examinées
avec autant d'études et d'attention que la communauté scientifique a portées à ces
gaz. Affirmer que cette lutte contre la pollution interviendra pour éviter l'élévation des
niveaux des mers, réguler l'extension des déserts, stabiliser les zones écologiques,
etc., est une toute autre affaire. Il serait prudent de ne pas leurrer les peuples des
zones les plus en danger. Pour ce faire, il importe que la communauté scientifique
internationale et les décideurs de la politique mondiale étendent leurs préoccupations
à l'ensemble des causes décelées, d'une part, et à une étude approfondie des cycles
thermiques antérieurs. Ceci permettrait d’évaluer de manière plus rigoureuse les
incertitudes qui subsistent, incertitudes sans lesquelles il n’est pas de travail
scientifique utilisable et qui semblent pour l’instant n'avoir pas été suffisamment
étudiées. N'oublions pas que le climat actuel n'est que celui du dernier cycle
climatique ayant affecté la Planète depuis plusieurs millions d'années. »
I-5 La France a vécu dans le passé des évènements climatiques extrêmes
avec comme conséquences des pollutions. Que peut-on faire pour en diminuer
les impacts ?
Henri Décamps (Membre de l’Académie des sciences) :
« Les eaux de pluie se chargent en polluants par contact avec l’air et par
ruissellement sur les surfaces imperméabilisées, en ville comme à la campagne :
chaussées, aires de parking, toits des bâtiments. Parmi ces polluants figurent des
hydrocarbures, du plomb, des métaux lourds provenant de la circulation automobile,
mais aussi des déjections animales, des déchets rejetés dans les bouches des
égouts, et divers produits apportés par lessivage de la végétation (azote, phosphore,
pesticides, herbicides). De plus, l’acidité de la pluie lui confère un fort pouvoir de
dissolution.
En ville, une partie de ce ruissellement peut être capturée, filtrée et traitée au moyen
de systèmes mis en place pour compenser l’imperméabilisation des sols. Les
solutions consistent en bassins de rétention ou d’infiltration, en chaussées poreuses
intégrées à la voirie, en fossés orientant les écoulements, en tranchées de stockage
ou d’infiltration placées dans les trottoirs ou sous les allées piétonnes, en toits
recouverts de végétation sur les maisons et les immeubles. Des « jardins pluviaux »
peuvent être aménagés dans des dépressions peu profondes, sur des sols
perméables, pour accueillir les eaux de pluie et les infiltrer dans le sol. En milieu
rural, les pratiques culturales peuvent permettre de stocker l'eau dès le haut des
bassins versants, de freiner et d’étaler le ruissellement via un réseau de talus, de
haies, de prairies, prés et fossés inondables, évitant ainsi des pointes de débit
polluant en aval.
Lutter contre cette pollution consécutive aux précipitations demande des efforts
constants de vérification, d’entretien, de maintenance et de nettoyage tant des
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
21
bouches des égouts que des déversoirs, des branchements et des raccordements.
Des efforts de surveillance sont aussi indispensables, à partir de pluviomètres, de
capteurs, de préleveurs, afin de collecter les quantités d’eau tombées, les conditions
d’écoulement, les pollutions déversées, les débits traités – toutes données
nécessaires à la gestion des eaux pluviales. Des modélisations doivent permettre
d’établir des scénarios de crise et de dresser des cartes prédictives de débordement
ou de mise en charge du réseau selon l’intensité des épisodes pluvieux. Un pilotage
automatique des écoulements dans le réseau doit pour sa part permettre de gérer
les flux en temps réel et d’éviter les débordements.
Indépendamment des pluies, les inondations entraînent dans leur sillage de forts
risques de pollution. En débordant, l’eau emporte tout ce qu’elle trouve sur son
passage : des débris, des déchets, des ordures, des boues plus ou moins
contaminées, des liquides dangereux et des fûts de produits toxiques. Ce qui est
ainsi emporté est largement répandu, sur de longues distances. Le mazout d’une
seule cuve peut endommager de nombreuses maisons, rendre des logements
irrécupérables, et des sols impropres à toute culture. Tout stockage en zone
inondable doit donc être évité ou, à défaut, réalisé dans des enceintes parfaitement
étanches et inamovibles.
Plus généralement, il importe :
• de prévoir des espaces surélevés pour mettre hors d’eau les produits tels que
batteries, insecticides, engrais, herbicides, peintures,
• de nettoyer et de désinfecter tous les objets et meubles qui ont été en contact
avec l’eau,
• d’aérer et de désinfecter les pièces, et de les chauffer dès que les conditions
de sécurité le permettent.
Les vagues de chaleur ont, de leur côté, souvent pour effet d’augmenter les taux
d’ozone et d’autres types de polluants atmosphériques sous l’action du rayonnement
solaire ultra-violet. Cette augmentation se produit à partir de composés précurseurs
tels que des oxydes d'azote émis par les véhicules, des composés organiques
volatils entrant dans la composition des carburants, et de nombreux autres produits
comme la colle, la peinture, les encres, les détachants, les cosmétiques ou encore
les solvants. Les augmentations des taux d’ozone atmosphérique affectent surtout
les villes où elles sont à l’origine d’irritations oculaires, de toux, d’altérations
pulmonaires. Les effets sur la santé dépendent de la sensibilité de chacun ; ils
varient en fonction de l’âge, de l’état de santé, de la consommation de tabac et de
diverses prédispositions (maladies respiratoires ou cardio-vasculaires).
Tous les conseils de base pour lutter contre la chaleur sont à suivre, particulièrement
éviter de sortir aux heures les plus chaudes et ne pas hésiter à venir en aide aux
personnes en difficulté. Il importe aussi de bien comprendre la signification des
niveaux d’alerte pollution, établis à partir de l’évaluation des teneurs de l’air en
particules en suspension, en oxydes d’azote, en dioxyde de soufre, en composés
organiques volatils ou en ozone. Sur une échelle de 0 à 10, le niveau 8 caractérise
une concentration atmosphérique de 180 μg/m3 d’ozone pendant une heure : c’est le
niveau de l’information du public, des recommandations et, éventuellement, des
mesures prises à l’initiative des préfets. Le niveau 10, pour une concentration de 240
μg/m3 d’ozone pendant trois heures, est celui de l’alerte et des mesures d’urgence
telles que le ralentissement de la vitesse des véhicules sur autoroutes, la circulation
alternée en ville, la gratuité des parkings en périphérie des villes, la gratuité des
transports en commun.
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
22
En fait, les inondations, les vagues de chaleur, les tempêtes ne sont que les
révélateurs de pollutions préexistantes dont ils exacerbent les effets. Ces
événements doivent inciter à une vigilance constante vis-à-vis des pollutions, quels
que soient les milieux affectés, sols, eaux ou air. »
I-6 Quelle est la crédibilité des modèles mathématiques pour prévoir les
changements climatiques éventuels et leurs conséquences ?
Roger Temam (Membre de l’Académie des sciences) :
« Les sciences de l’atmosphère et des océans font partie des sciences pour
lesquelles l’expérimentation n’est pas toujours possible ; la compréhension des
phénomènes dépend donc de leur observation, de leur modélisation mathématique
et des simulations numériques que l’on peut en faire. Toutes ces étapes du travail
scientifique sont bien sûr choisies suivant l’objectif de connaissances que l’on veut
atteindre, et les moyens dont on dispose.
L’observation met en jeu des appareillages et des expériences très importants et très
variés : par delà les données météorologiques bien connues, ceux-ci incluent la mise
en place de sondes dans les océans et le relevé des mesures qu’elles fournissent, la
bathymétrie, perforation et observation du sous-sol dans la mer, la glace et sur terre,
les observations et mesures aériennes (tours, ballons et avions) et les observations
par satellites. L’interprétation de ces observations dépend de la compréhension des
mesures irrégulières et parsemées que l’on peut obtenir, et des statistiques que l’on
peut en déduire. Bien sûr l‘accumulation et le stockage des quantités colossales de
données qui sont ainsi recueillies, sont rendus possibles par les grandes capacités
en mémoire des ordinateurs. Leur gestion fait appel aux outils de la théorie des
bases de données.
Nous reviendrons plus loin sur la modélisation qui s’étend depuis les phénomènes
bien compris comme la mécanique des fluides jusqu'à des phénomènes mal compris
en cours d’étude et d’autres qui demanderont sans doute encore dix, vingt ou trente
ans pour être finement décrits. Cela inclut des processus physiques, physico-
chimiques, chimiques et biologiques tels que :
– les températures, les précipitations, les courants des océans, les vents de
l’atmosphère, les échanges avec la stratosphère ;
– les grands cycles biogéochimiques ;
– les aérosols ;
– les grandes structures climatiques comme les moussons, etc.
Un modèle ayant été obtenu, il sera en général impossible d’en résoudre
explicitement les équations en raison de leur infinie complexité et on fera donc appel
à la simulation numérique. L’idée de décrire par des équations des phénomènes
aussi complexes est déjà contenue dans un paragraphe court mais très prémonitoire
dans l’Introduction du Traité des Probabilités de Simon de Laplace en 1814. Après le
développement de la thermodynamique dans le restant du XIXe siècle, des
scientifiques commencent, au début du XXe siècle, à formuler un programme très
précis de simulation des phénomènes de l’atmosphère. Ce programme commence à
prendre corps au milieu du XXe siècle avec l’apparition des ordinateurs.
De nos jours deux sortes de prévisions climatiques sont faites. Les unes reposent
sur les méthodes statistiques et consistent à comparer les observations présentes
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
23
aux mesures accumulées ; elles supposent donc l’accumulation de nombreuses
données et l’outil statistique ; elles ne peuvent prévoir que des phénomènes qui se
sont déjà produits. L’autre approche pour la prévision du climat consiste à modéliser
la physique des phénomènes en jeu, à les représenter en simplifiant beaucoup par
des modèles mathématiques, des équations d’évolution le plus souvent, et à
résoudre les équations mathématiques ainsi obtenues par des méthodes
numériques. Au niveau le plus général on trouve les MCG, Modèles de Circulation
Générale des océans, de l’atmosphère, ou du couplage Océans-Atmosphère-Glaces.
Après discrétisation, on obtient des systèmes de millions d’équations à des millions
d’inconnues, dont la résolution se situe à la limite des ordinateurs les plus puissants
et pour lesquels des méthodes numériques performantes doivent être développées.
Les équations utilisées sont les équations de la mécanique des fluides décrivant le
mouvement de l’eau pour l’océan ou de l’air pour l’atmosphère, l’équation du bilan
d’énergie donnant la température, les équations de la cinétique chimique décrivant
l’évolution des concentrations des différents composés chimiques de l’air, en
particulier les pollutions (oxyde de carbone, etc.), et bien d’autres encore. Les
équations mettent aussi en jeu, dans les termes sources ou dans les conditions aux
limites, des termes mal connus.
La crédibilité des résultats obtenus est encore à améliorer pour caractériser
l’évolution climatique de régions de plus en plus petites. On considère que la plus
grande source d’incertitude est due aux nuages qui modifient fondamentalement le
bilan d’énergie de l’atmosphère par leur capacité à absorber ou non les radiations du
soleil (ultra-violet) et de la terre (infrarouge) et par les phénomènes de condensation,
gel, dégel ou évaporation qui s’y produisent, Ainsi des hypothèses plus ou moins
vérifiées sont faites sur l’ennuagement de la colonne d’air au-dessus de chaque point
du maillage numérique, c’est à dire tous les 10 à 50 kilomètres. On a déjà mentionné
les phénomènes mal compris qui nécessitent une modélisation en cours ou à venir,
et qui incluent, outre les nuages, la modélisation des glaces, les mers glacées, les
échanges radiatifs avec la terre et la glace (albédo), les influences mécaniques,
thermiques et chimiques de la végétation, le cycle de l’eau et du carbone dont une
partie significative est absorbée par une composante inconnue du système
atmosphère-océans, plus généralement les grands cycles biogéochimiques, les
aérosols, etc. Pour la prévision de l’avenir, l’autre inconnue significative est l’apport
anthropogénique qui dépendra des décisions politiques qui seront prises, de
l’évolution des technologies, en particulier dans le domaine des économies d’énergie
et dans celui des nouvelles sources d’énergie, et également du comportement de
chacun en matière d’isolation, d’économie d’énergie et de consommation. La
crédibilité de ces prévisions dépend en outre de l’horizon visé à 10, 20 ou 50 ans, ou
pour la fin du siècle. »
Jacques Villain (Membre de l’Académie des sciences) :
1. Chaos météorologique et stabilité climatologique
Aux travaux des climatologues, une objection inévitable est celle soulevée par
Claude Allègre dans un de ses livres : « J’ai peine à croire qu’on puisse prédire avec
précision le temps qu’il fera dans un siècle alors qu’on ne peut pas prévoir celui qu’il
fera dans une semaine ». Le paradoxe n’est qu’apparent puisque la météorologie
cherche à prévoir le temps à tel endroit et tel moment, alors que la climatologie
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
24
s’intéresse à des valeurs moyennes sur une longue durée et une vaste région. La
coexistence du chaos météorologique et de la stabilité climatologique, hypothèse
non démontrée, est toutefois fortement suggérée par les calculs basés sur les
modèles.
2. L’incertitude est grande et difficile à évaluer
Pourtant, la seule complexité des phénomènes entraîne une grande incertitude sur
les résultats. Cette incertitude est exprimée dans les rapports du GIEC (Groupe
d'Experts Intergouvernemental sur l'Evolution du Climat) par des appréciations telles
que « very likely », « likely », « more likely than not »… Il semble toutefois difficile
d’attribuer à ces qualificatifs un sens précis comme ils en ont dans la théorie
mathématique des probabilités. La « probabilité » des climatologues semble être un
concept un peu subjectif qui inclut les facteurs physiques négligés, le quadrillage trop
grossier, l’accord entre les différents modèles, l’accord entre les modèles et les
observations… Il est d’ailleurs remarquable que l’incertitude estimée par le GIEC ne
s’améliore pas tellement au fil des ans (par exemple entre 2002 et 2007) malgré les
progrès indiscutables des modèles. Tout le monde est d’accord pour reconnaître que
les incertitudes sont grandes. Les prévisions du GIEC concernant le réchauffement
au cours du siècle présent comportent une différence d’un facteur 3 entre la valeur
supérieure et la valeur inférieure. Plus incertaines encore sont les évaluations sur les
évènements extrêmes (tempêtes, sécheresses…). Ceux-ci semblent avoir augmenté
au cours des dernières décennies, mais est-ce dû aux activités humaines ? « More
likely than not », selon le GIEC !
3. L’incertitude ne justifie pas un acte de foi
Quelles ques soient les incertitudes, on ne peut ignorer le fait que, à partir du XX e
siècle, l’ordre de grandeur du réchauffement de la terre résultant des activités
humaines n’est pas a priori négligeable. Sa valeur précise est en effet la somme de
contributions dont certaines (comme l’effet des nuages) sont difficiles à évaluer, mais
dont d’autres sont calculables et importantes. Supposer que les diverses
contributions vont se compenser, ce serait un acte de foi non justifié.
II- ENVIRONNEMENT ET OCEANS
Les océans, par leur masse, leurs courants et le rôle essentiel du
vivant qu’ils abritent, jouent un rôle de premier plan dans les
évolutions climatiques. Nous examinons ici ce que les possibilités
de mesures nouvelles apportent :
II-1 La hausse du niveau des mers et ses conséquences sur certaines régions
côtières basses et peuplées du globe sont souvent citées. Qu'en est-il
exactement pour les littoraux de la France ?
Anny Cazenave (Membre de l’Académie des sciences) :
« Au cours du dernier maximum glaciaire, il y a environ 20 000 ans, le niveau de la
mer était plus bas qu’aujourd’hui d’environ 120 mètres en moyenne. Avec la fonte
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
25
des grandes calottes de glace qui recouvraient alors le nord de l’Amérique et de
l’Europe, la mer est remontée puis s’est stabilisée il y a environ 3 000 ans. Mais les
observations marégraphiques disponibles depuis 150 ans indiquent que la mer a
recommencé à monter au cours du XXe siècle. Ces deux dernières décennies, cette
hausse a presque doublé par rapport aux décennies précédentes (c’est ce que
montrent les observations des satellites altimétriques franco-américains
Topex/Poseidon, Jason-1 et Jason-2, développés par le Centre National d’Etudes
Spatiales et la NASA depuis 1992). Elle atteint aujourd’hui 3,5 millimètres par an en
moyenne. Tout suggère que la hausse actuelle du niveau de la mer est liée au
réchauffement climatique affectant la planète depuis quelques décennies. Au cours
de la deuxième moitié du XXe siècle l’océan s’est beaucoup réchauffé. Il stocke
actuellement près de 80 % de l’excès de chaleur accumulée dans le système
climatique au cours des 50 dernières années. La dilatation thermique des océans
causée par l’augmentation de la température de la mer explique une partie de la
hausse observée de leur niveau. Depuis quelques années, on assiste à un déclin
important des glaces continentales. Les glaciers de montagnes fondent et les
glaciers périphériques du Groenland et de l’Antarctique de l’ouest s’écoulent dans
l’océan à une vitesse accélérée. C’est l’autre grande cause de l’élévation actuelle du
niveau de la mer. Pour les deux dernières décennies, ces facteurs (dilatation
thermique de l’océan, fonte des glaciers de montagne, perte de masse des calottes
polaires) contribuent chacun pour environ un tiers à la hausse observée du niveau de
la mer.
Grâce à leur couverture complète du domaine océanique, les satellites altimétriques
nous ont révélé que la hausse du niveau de la mer est loin d’être uniforme. Dans le
Pacifique ouest par exemple, la mer s’est élevée 2 à 3 fois plus vite qu’en moyenne
depuis 20 ans. Nous savons aujourd’hui que cette importante variabilité régionale est
causée par le réchauffement non uniforme de l’océan. Résultat : la mer monte plus
vite dans certaines régions que dans d’autres.
La hausse du niveau de la mer constitue une menace pour de nombreuses régions
côtières basses, souvent très peuplées, de la planète. On s’attend à une hausse
accrue du niveau de la mer au cours du XXIe siècle ; à cause de la dilatation
thermique de l’océan qui se poursuivra, et surtout à cause de la fonte des glaces
continentales. Si la calotte polaire du Groenland venait à disparaître, le niveau de la
mer s’élèverait de 7 m ! Un tel événement, s’il se produisait, prendrait cependant
plusieurs siècles, voire plusieurs millénaires. On ne connaît pas encore avec
précision ce que sera la contribution des calottes polaires au niveau de la mer des
prochaines décennies. Mais certaines estimations récentes suggèrent qu’une hausse
moyenne de la mer de l’ordre de 1 m n’est pas à exclure à l’horizon 2100; avec
cependant de fortes variations d’une région à une autre. Dans nombre de régions
côtières basses de la planète, la hausse du niveau de la mer se combine avec
d’autres facteurs non climatiques, ce qui les rend encore plus vulnérables. C’est le
cas par exemple de l’enfoncement du sol lié à des phénomènes naturels (par
exemple, la surcharge des sédiments accumulés dans les deltas des grands fleuves)
ou aux activités humaines (le pompage des eaux souterraines ou du pétrole).
D’autres facteurs, tels la diminution des apports sédimentaires à la mer par les
fleuves, causée par la construction de barrages, l’urbanisation intensive du littoral, la
modification des courants côtiers, etc., contribuent aussi à modifier la morphologie de
la côte. Pour de nombreuses régions du monde (y compris la France et ses
départements et territoires d’outre-mer), la contribution respective de ces différents
facteurs à l’érosion du littoral est encore incertaine. Des « modèles » d’évolution et
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
26
de vulnérabilité des zones côtières en réponse aux forçages anthropique et
climatique sont des outils d’aide à la décision devenus indispensables pour les
responsables politiques en charge de l’aménagement du territoire. »
II-2 L’acidification des océans est-elle réelle ? Menacerait-elle la vie
marine ?
Anny Cazenave (Membre de l’Académie des sciences) :
« La teneur en gaz carbonique dans l’atmosphère augmente de façon exponentielle
depuis le début de l’ère industrielle. Alors que depuis 650 000 ans environ, celle-ci
n’a jamais dépassé 280 ppm (parties par million), elle atteint actuellement plus de
380 ppm (383 ppm en 2007) ; soit une augmentation de plus 30% en deux siècles (et
particulièrement rapide depuis 30 ans). Il est largement admis aujourd’hui que cet
accroissement récent du CO2 dans l’atmosphère résulte des activités humaines :
combustion des énergies fossiles (charbon, gaz, pétrole) et déforestation dans les
régions tropicales. Les émissions atteignent actuellement 8.5 milliards de tonnes de
carbone par an (6.2 en 1990). Une partie seulement (environ 3.7 milliards de tonnes
par an en 2007) s’accumule dans l’atmosphère. Le reste (4.8 milliards de tonnes par
an) est absorbé par la végétation pour sa croissance et par l’océan (respectivement
2.6 et 2.3 milliards de tonnes par an en moyenne sur 2003-2007). L’océan est donc
un puits de carbone et sans lui, la teneur atmosphérique en gaz carbonique serait
bien supérieure.
L’absorption du gaz carbonique par l’océan résulte de deux phénomènes : la
photosynthèse par le phytoplancton et la dissolution partielle du gaz dans les eaux
superficielles de l’océan. Ce second mécanisme est de loin dominant dans
l’absorption du carbone atmosphérique. En se dissolvant dans la mer, le gaz
carbonique se combine avec l’eau pour former des ions hydrogénocarbonate et
libérer des ions hydrogène, ce qui a pour effet de diminuer le pH de l’eau ou
accroître son acidité (l’acidité est généralement exprimée au moyen d’un paramètre,
le pH, fonction logarithmique de la concentration des ions hydrogène). Depuis
environ un siècle, le pH de l’océan superficiel a diminué de ≈ 0.1 en unité pH (ce qui
correspond à une augmentation de 20 à 26 % de la teneur en ions hydrogène). On
s’attend à une diminution accrue du pH dans les prochaines décennies, de l’ordre de
0.3 à 0.4.
Cette augmentation de l’acidité des océans a des effets pervers sur la vie marine.
Différents organises marins ont un squelette ou une coquille formés de carbonate de
calcium (par exemple, les coraux). L’eau de mer plus acide a un effet corrosif en
freinant la croissance de ces organismes. Malgré les efforts de certains pays pour
réduire les émissions de gaz à effet de serre, il n’est pas exclu de voir, d’ici la fin du
XXIe siècle, la teneur atmosphérique en CO2 doubler par rapport à l’état préindustriel
(soit 560 ppm). Outre l’impact sur les récifs coralliens, l’augmentation de la teneur en
gaz carbonique dans l’océan et de l’acidité des eaux peuvent avoir d’autres effets
néfastes ; en créant des troubles du métabolisme de certaines espèces marines,
avec des conséquences incertaines sur la pêche ou en réduisant la capacité de
l’océan à absorber le carbone anthropique. »
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
27
Bernard Kloareg (Correspondant de l’Académie des sciences) avec
Colomban de Vargas, chercheur au CNRS, Station biologique de
Roscoff :
« On appelle « acidification des océans » le phénomène physico-chimique
relativement simple qui lie l’augmentation de la pression partielle de dioxyde de
carbone dans l’atmosphère ([pCO2]) à l’augmentation de la concentration des ions
hydrogénocarbonate ([HCO3-]) et de protons ([H+]) dans les eaux océaniques.
Depuis la révolution industrielle, il y a environ 200 ans, l’humanité a brûlé une partie
importante de la matière organique piégée dans la lithosphère et transformée en
hydrocarbures ou charbon au cours des temps géologiques. Cette combustion des
énergies fossiles a brusquement augmenté la concentration du CO2 atmosphérique :
les mesures issues des carottes glacières indiquent que nous serions passés de 280
à 380 ppmv (partie par million en volume), soit une augmentation de 30% du taux de
CO2 atmosphérique depuis le début du XIXe siècle. Or environ un tiers du CO2 rejeté
dans l’air par les activités humaines a été absorbé par les océans, où il est soit
photosynthétisé par les macro-algues littorales et les micro-algues (le
phytoplancton), puis recyclé en O2 et en matière organique, soit associé à l’eau pour
produire des ions HCO3- et H+. La diminution du pH s’accompagne également d’une
paupérisation en ions carbonate (CO32-).
L’augmentation des teneurs en gaz carbonique dans l’atmosphère se traduit donc
par une acidification marquée (diminution du pH) de l’eau de mer. Si l’acidification et
les changements corrélatifs de la composition ionique de l’eau de mer sont
relativement bien connus et prédictibles, les effets de l’ensemble de ces
modifications sur la physiologie et l’adaptation des organismes marins le sont
beaucoup moins. Il est certain néanmoins que les modifications de la chimie des
océans corrélées à l’acidification de l’eau auront des conséquences très grandes sur
le métabolisme des organismes marins. Deux processus cellulaires fondamentaux,
en particulier, seront affectés, les mécanismes de concentration du carbone
inorganique, à la base de la photosynthèse, et les processus de calcification, qui sont
essentiels pour le développement des organismes à squelette calcaire, interne ou
externe. En effet, les substrats de départ de ces métabolismes sont respectivement
le CO2 et les ions CO32-.
Or, la photosynthèse et la calcification sont deux processus fondamentaux pour les
grands équilibres biogéochimiques de notre planète, parce que ces derniers mettent
en jeu l’action des organismes vivants. Le plancton océanique photosynthétique, en
particulier, produit environ la moitié de la matière végétale (et donc de l’oxygène) sur
Terre. Il joue un rôle prépondérant dans le cycle du carbone, notamment par la
production d’exosquelettes calcaires, qui exportent du carbone vers le fond des
océans quand ces micro- algues meurent (un phénomène à l’origine des formations
sédimentaires calcaires). Une question importante sur le plan de la régulation du
climat est donc l’adaptation des micro- algues aux conséquences des changements
climatiques en cours, que ce soit l’augmentation de la température de l’eau de mer
ou son acidification.
Comment la photosynthèse et les processus de calcification du phytoplancton marin
vont-ils réagir aux changements de concentrations en ions HCO3- et CO32-,
respectivement ? Malheureusement, il est très difficile de mesurer aujourd’hui, et
donc de prédire, les réponses physiologiques et génétiques de ces algues
unicellulaires. Ni les expériences en laboratoire sur des souches isolées, ni même
les expériences de terrain de type « mésocosme », ne reproduisent de façon réaliste
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
28
la complexité spatio-temporelle des populations de plancton, qui contiennent une
énorme diversité génétique à l’échelle globale. Il est possible que certaines espèces
puissent s’adapter parce que capables d’évoluer rapidement en raison des effectifs
très élevés de leurs populations et de la rapidité de leur reproduction, mais ces
questions restent très peu étudiées.
De même, diverses expériences, par exemple sur l’oursin ou l’ophiure, ont déjà
montré qu’une diminution du pH de l’eau de mer de quelques dixièmes d’unité
affecte grandement le développement des larves de ces organismes. Là encore
l’adaptation des organismes marins au changement climatique va dépendre à la fois
de la vitesse de ces changements, de la biologie et des ressources génétiques chez
ces organismes. Mais il est à craindre que cela se traduise par une diminution très
forte de la biodiversité marine, certains prédisant même des extinctions massives en
raison de l’ampleur et de la vitesse des changements désormais inéluctables au
niveau des paramètres physico-chimiques de l’eau de mer.
Sans aller jusqu’à ce scénario aussi catastrophique, il est certain que les
écosystèmes marins vont subir des changements importants, avec une érosion
rapide de la biodiversité ou, pour le moins, un déplacement des aires de répartition
biogéographique des espèces. Les chaînes trophiques en seront affectées avec
toutes les conséquences que l’on peut en attendre au niveau des services que
fournissent ces écosystèmes pour les activités humaines : pêche, aquaculture,
tourisme… Un écosystème emblématique des ces enjeux, les récifs coralliens, subit
déjà de plein fouet les effets combinés du réchauffement et de l’acidification de l’eau
de mer, avec des phénomènes massifs de blanchiment et de mortalité.
Au total, parvenir à diminuer très significativement les rejets de gaz carbonique dans
l’atmosphère est un enjeu essentiel dans l’évolution des écosystèmes marins et pour
l’Homme. »
III- ENVIRONNEMENT ET ENERGIES
L’énergie est présente dans tous les aspects de la vie des hommes.
Les contraintes qui pèsent sur leur abondance et sur les produits
de la combustion du charbon et des carburants conduisent à
rechercher d’autres sources d’énergie. En voici la revue :
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
29
III-1 En France, les émissions de gaz à effet de serre ont considérablement
diminué avec notre parc de centrales électronucléaires. Comment peut-on
améliorer encore les performances ainsi que la sécurité de ce parc et de son
cycle de combustibles ?
Robert Guillaumont (Membre de l’Académie des sciences) :
« En effet, l’électronucléaire émet très peu de CO2. Les combustibles fossiles
(charbon, produits pétroliers, gaz naturel) sont des composés de carbone. L’énergie
fournie sous forme de chaleur par leur combustion provient de l’oxydation du
carbone en CO2 par l’oxygène de l’air. C’est une réaction chimique. La combustion
d’une tonne de produits pétroliers ou de 1000 m3 de gaz naturel produit une énergie
de 11,6 MégaWatt.heure, MWh (1 tonne équivalent pétrole = 1 tep) et la combustion
d’une tonne de charbon produit entre 0,6 et 0,4 tep. Les rendements de conversion
de l’énergie produite par la combustion en énergie électrique sont de 0,4 pour les
centrales à charbon ou à fioul et de 0,5 pour les centrales à gaz.
Les combustibles nucléaires sont des composés de métaux lourds (thorium,
uranium, plutonium). L’énergie fournie sous forme de chaleur par leur « combustion »
provient essentiellement de la fission des noyaux de ces éléments placés dans un
flux de neutrons. Il s’agit d’une réaction nucléaire. On utilise le terme de combustion
par analogie avec la combustion des combustibles fossiles (où les neutrons seraient
l’équivalent de l’oxygène) mais il s’agit ici de la libération de l’énergie des noyaux des
atomes et non de l’énergie résultant de la combinaison d’atomes comme dans une
combustion classique. La combustion nucléaire produit des déchets radioactifs de
natures très diverses (le mot de « déchet radioactif » n’a pas le même sens dans les
divers pays de l’Union Européenne ni de ceux de l’OCDE) qui sont, pour la plupart,
entreposés d’une manière provisoire. Des recherches sur la gestion de certains de
ces déchets sont en cours en France, définis par une première loi en 1991 (prévue
pour une durée de 15 ans) puis par une seconde loi en 2006 (prévue elle aussi pour
une deuxième durée de 15 ans). Aujourd’hui les réacteurs nucléaires à neutrons
thermiques des parcs électronucléaires permettent d’extraire en moyenne une
énergie de 15 000 tep d’une tonne d’uranium naturel. Leur rendement de conversion
de l’énergie produite par le réacteur nucléaire en énergie électrique est de 0,33. Les
réacteurs à neutrons rapides de la prochaine génération de réacteurs, si elle est
déployée, permettront d’extraire 20 à 30 fois plus d’énergie d’une tonne d’uranium en
un seul passage en réacteur (la limite théorique est de 140 en plusieurs passages) et
d’améliorer le rendement de conversion en énergie électrique.
Le combustible nucléaire en brûlant n’émet pas de CO2. Pour autant on crédite
l’énergie électrique d’origine nucléaire de la production de 4 à 6 kg de CO2 par
MWhe produit (MégaWatt.heure.électrique), à comparer avec 0,8 à 1,2 tonne de CO2
par MWhe pour l’électricité produite à partir du charbon, 0,4 à 0,6 tonne par MWhe si
on utilise du gaz et 0,9 tonne par MWhe si on utilise du fioul. Ces valeurs résultent
d’analyses dites de « cycle de vie » prenant en compte toute l’énergie émettant du
CO2 qu’il faut dépenser pour assurer la construction, le fonctionnement et la
déconstruction des installations produisant l’électricité. Pour l’électricité nucléaire, il
s’agit de l’énergie dépensée aux étapes du cycle du combustible (extraction de
l’uranium, enrichissement de l’uranium, fabrication du combustible, fonctionnement
du réacteur, gestion des déchets, ..). Ces valeurs dépendent de l’origine de l’énergie
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
30
utilisée, nucléaire ou non, et du temps pendant lequel les installations existent. Elles
varient selon les pays.
Quels efforts doit-on consentir dans l’avenir?
Un réacteur nucléaire d’une puissance de 1 GWe (GigaWatt électrique) de la
génération actuelle (deuxième génération) produit environ une énergie de 7,5
TeraWatt.heure,TWhe, par an. Le parc français a une puissance de 60 GWe et
assure 85 % des 550 TWhe d’énergie électrique consommée. Le complément est
essentiellement apporté par l’hydraulique (puissance de 25 GWe installée), puis les
centrales thermiques à flamme (charbon, gaz, fioul, puissance totale installée 27
GWe), et encore très peu, par l’éolien (puissance installée de 2,24 GWe). Le CO2
évité par l’utilisation de l’énergie nucléaire pour produire de l’électricité est
considérable par rapport à une situation virtuelle de référence où l’essentiel de
l’électricité serait produit avec du gaz. Les crédits CO2 pour l’hydraulique et l’éolien
sont très faibles (respectivement de 3 à 4 kg/MWhe d’énergie produite et de 10 à 15
kg/MWhe d’énergie produite).
Il n’est pas prévu d’augmenter la part du nucléaire dans les années qui viennent
dans la production massive de l’électricité. L’augmentation de la demande en
électricité devrait être couverte par les énergies à bas carbone notamment par une
croissance de l’éolien (puissance de 25 GWe prévue en 2020, soit environ 6 000
éoliennes en plus des 2 000 déjà installées), seule source capable d’apporter un
complément supplémentaire substantiel au nucléaire car les ressources hydrauliques
ne peuvent augmenter. L’éolien est mature et ne demande pas d’effort particulier de
recherche et développement hormis l’insertion sur le réseau électrique de l’électricité
instantanée fournie et le stockage de l’énergie électrique ne pouvant pas y être
injectée. En revanche le parc nucléaire doit être progressivement renouvelé avec des
réacteurs EPR, « European Pressurized Reactor » (version améliorée des réacteurs
actuels, dits de troisième génération). L’épuisement des ressources en uranium
pourrait conduire à partir de 2050 à l’exploitation de réacteurs à neutrons rapides
(nucléaire de quatrième génération). Il s’agira alors d’un changement considérable
dans le nucléaire de fission appelant un nouveau cycle du combustible fermé
(retraitement des combustibles usés et de transmutation). Les efforts de R et D sont
d’ores et déjà engagés dans cette voie. C’est à ce prix et en complétant ses besoins
par 20 à 25 % d’énergie renouvelable que la France continuera à conserver son
indépendance énergétique (objectif initial du programme nucléaire) et à n’émettre
que peu de CO2 pour produire son électricité. »
Bernard Tissot (Membre de l’Académie des sciences) :
« Il faut, dans les engagements qui pourront être pris par les divers pays, tenir
compte des évolutions déjà faites. Trois étapes peuvent contribuer de façon
importante à la diminution des émissions de gaz à effet de serre: (i) le remplacement
des centrales électriques thermiques (charbon, produits pétroliers) par des centrales
utilisant les énergies nucléaire ou renouvelables ; (ii) les économies d’énergie dans
l’habitat et les automobiles ; (iii) un transfert modal dans le transport des
marchandises.
Dans le cas particulier de la France, la première étape (i) a déjà été franchie : le
bénéfice sur les émissions est déjà « comptabilisé » et nous pouvons seulement,
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
31
pour l’avenir, maintenir élevée à environ 95 % de la production électrique la part du
domaine nucléaire/hydraulique qui ne génère pas de gaz à effet de serre (et non pas
bloquer cette production à sa valeur actuelle). Un engagement international à diviser
nos émissions de gaz à effet de serre par quatre en 2050 serait donc beaucoup plus
difficile à tenir que pour les pays qui ont encore beaucoup de centrales classiques à
charbon. La promesse de la France devra alors jouer essentiellement sur l’efficacité
énergétique (ii) dans l’habitat et le transfert de modes et de vecteurs de
consommation de l’énergie, tels que l’utilisation de la voiture électrique, et (iii) dans le
transport des charges lourdes par conteneurs acheminés prioritairement par voie
ferrée électrifiée, puis livrés par route. Ces diverses évolutions posent des problèmes
difficiles.
Dans le domaine résidentiel et tertiaire, le chauffage solaire de l’eau sanitaire dans
des panneaux posés sur des toitures ou des façades est déjà largement appliqué
dans certains pays européens ou méditerranéens. Les pompes à chaleur permettent
de réduire les dépenses de chauffage. Cependant les uns et les autres rencontrent
en France des difficultés sociologiques (style de vie, longévité des habitations,
service après vente) ou économiques (prix excessif des matériels appropriés tels que
double-fenêtres et leurs huisseries, lampes à faible consommation).
C’est dans les transports, en particulier terrestres, que les économies seront les plus
difficiles. Ce domaine est déjà le plus fort émetteur annuel de CO2 au niveau mondial
et présente la plus forte croissance annuelle. La solution la plus efficace à long
terme, notamment dans les agglomérations de plusieurs millions d’habitants, est le
transport électrique en site propre (train, métro, tramway ou combinaison de ces
divers modes). Sur les longues distances, le trajet Paris-Marseille génère pour un
passager 5 kg de CO2 en TGV, 20 fois plus en avion et 30 à 50 fois plus en voiture.
Le mode de transport par rail est privilégié au Japon.
Le fret routier lourd s’est largement développé en Europe, réduisant la part des
transports ferroviaires et de la voie d’eau. L’élargissement de l’Union européenne a
renforcé cette tendance. Ce mode de transport est gros consommateur d’énergie, et
le captage du CO2 n’est pas possible. Le seul choix reste entre l’émission toujours
croissante de gaz à effet de serre (surtout si, comme certains le demandent, le poids
maximum autorisé passe de 40 tonnes à 44 ou 48 tonnes) et le transfert modal. Les
charges lourdes (matériaux de construction, véhicules neufs, conteneurs et
équipements divers, etc.) sont transportables par des voies ferrées électrifiées ou par
voie d’eau, puis livrables au client par route sur quelques dizaines de kilomètres. La
France a vécu un siècle sur ce mode. La Suisse a ainsi trouvé un équilibre qui lui
permet actuellement d’économiser à la fois sur la consommation de carburant et sur
l’entretien coûteux d’un réseau routier de montagne. »
III-2 Faut-il utiliser des biocarburants, les mélanger avec les carburants
fossiles? Quels en sont les avantages et les inconvénients?
Sébastien Candel (Correspondant de l’Académie des sciences) :
« La politique de développement des biocarburants menée en Europe depuis le
début des années 1990 s’est bâtie autour de trois objectifs : soutenir la filière
agricole, lutter contre les gaz à effet de serre, favoriser le démarrage d’une filière
assurant une plus grande indépendance énergétique. Cette politique a conduit à la
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
32
mise en oeuvre de biocarburants de première génération dont les principaux sont
actuellement :
(1) L'éthanol produit par fermentation de sucres (canne à sucre, betterave) ou
d’amidon (blé, maïs) est maintenant largement utilisé pour les moteurs à essence. Il
est généralement mélangé à l’essence à hauteur de 10 à 25 % mais peut aussi être
utilisé à l’état pur dans certains moteurs. En Europe, on utilise plutôt un dérivé de
l’éthanol obtenu par combinaison avec de l’isobutène l’ETBE (Ethyltertiobutyléther),
qui peut être mélangé jusqu’à hauteur de 15 % dans l’essence et ne pose pas de
problème de démixtion en présence d’eau.
(2) Le biodiesel (EMHV) est un ester méthylique d'huile végétale issu de la
transformation d’huile de colza et de méthanol et commercialisé sous le nom
Diester™. L’EMHV possède des propriétés physiques proches de celles du gazole. Il
est actuellement disponible à la pompe en mélange avec le gazole dans des
proportions variant de 2 à 5 %.
Dans les deux cas, le mélange avec des carburants fossiles permet de réduire la
consommation de ces derniers. L’addition d’une faible quantité de biocarburant ne
nécessite aucune adaptation ou des adaptations mineures des moteurs et s’applique
facilement au parc automobile actuel. L’utilisation de biocarburant en proportion plus
élevée (par exemple 85 % d’éthanol) demande des modifications plus importantes et
des moteurs adaptés ou qui peuvent s’adapter aux nouveaux mélanges (moteurs
flex- fuel utilisés au Brésil).
Les biocarburants accroissent l’indépendance énergétique vis-à-vis du pétrole mais
dans une mesure encore faible (la consommation européenne d’EMHV est
actuellement de l’ordre de 4 Mtep (millions de tonnes d’équivalent pétrole) et celle de
bioéthanol de l’ordre de 0.9 Mtep).
Ils permettent de lutter contre les émissions de gaz à effet de serre puisque le CO2
libéré lors de la combustion de biocarburants rentre dans le cycle du carbone
assurant la croissance des plantes. Une analyse de cycle de vie montre cependant
que le gain, tout en restant positif, est moins important. Il faut en effet utiliser des
machines agricoles, des engrais et des pesticides, collecter, transformer les plantes
pour les convertir en biocarburant, ce qui nécessite de l’énergie mais les chiffres
divergent en fonction des hypothèses retenues et pour les diverses filières. Pour
l’EMHV extrait du colza, le gain de consommation énergétique serait d’environ 65%
et le gain en émission de gaz à effet de serre atteindrait 70 %. Un intérêt mis en
avant pour les biocarburants est l’utilisation à des fins non-alimentaires des terres
mises en jachère dans le cadre de la politique agricole commune (PAC).
On estime qu’une consommation de 5% de biocarburants (soit 2 Mtep) nécessiterait
quasiment toute la surface de jachère disponible en France (soit environ 1 500 000
hectares).
Un des dangers de la généralisation des biocarburants, souvent évoqué au niveau
mondial, est celui de la concurrence entre l’utilisation des terres agricoles pour les
cultures vivrières et de celles qui seraient consacrées à la culture de plantes matière
première des biocarburants.
Pour que la production de biocarburants dans les années à venir ne soit pas limitée
par les surfaces disponibles, il faudra augmenter les rendements à l’hectare en
utilisant des plantes à croissance rapide et chercher à utiliser une plus large gamme
de matières premières et notamment des déchets et des sous produits de l’activité
agricole ou forestière. De nouvelles technologies qui sont actuellement en
développement devraient permettre l’apparition de filières de production de
biocarburants de deuxième génération utilisant par exemple, des résidus agricoles
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
33
comme la paille ou la sciure de bois pour produire par gazéification des
hydrocarbures par synthèse de type Fischer-Tropsch qui pourront ensuite être
mélangés au gazole. Il y a clairement des besoins de recherche importants pour
mettre au point ces filières de production de deuxième génération.
Au delà de cette deuxième génération, les recherches portent notamment sur les
possibilités de production de biocarburants à partir d’algues. Les algues sont
intéressantes car elles n’utilisent pas de surfaces dédiées à la production de
nourriture, elles absorbent le gaz carbonique et la lumière du soleil pour produire en
milieu aqueux des huiles dont la structure est proche de celle des produits pétroliers.
Les biocarburants tirés des algues pourraient constituer à terme une source
importante de produits de substitution au pétrole. Une estimation d’Exxon Mobil, qui
a investi récemment des sommes importantes dans ce domaine, donne un
rendement de 20 000 litres par hectare et par an, mais la production à grande
échelle de biocarburant à partir d’algues pose des défis majeurs qui nécessitent un
effort important de recherche et développement avec notamment une optimisation de
la production des algues et des procédés d’extraction d’huile. »
Bernard Tissot (Membre de l’Académie des sciences) :
« La biomasse intervient ordinairement dans le bilan énergétique par son utilisation
traditionnelle comme combustible de chauffe. Il s’agit certainement là de l’utilisation
la plus directe et efficace : les pays industrialisés pourraient reconsidérer cet usage.
Dans les villes moyennes, des réseaux de chauffage urbain en permettraient
l’utilisation.
L’usage des biocarburants (alcools, esters) issus de cultures dédiées (maïs, colza)
peut faciliter en Europe une période de transition. Dans chaque cas, il serait très
important de disposer de données précises et fiables sur l’énergie fossile
consommée dans l’ensemble du cycle de vie du produit, pour faire un bilan
énergétique « du sol à la roue ». Certainement rentables au Brésil (alcool produit à
partir de la canne à sucre), ils ne paraissent pas constituer en France une importante
voie d’avenir (bilan énergétique, subventions, dispositions fiscales). Déjà, la totalité
des terres arables de la France ne suffirait pas à faire rouler le parc de véhicules
actuel ; il en serait de même au niveau mondial en 2030. Il existe, à terme, un risque
certain de compétition entre la production de carburants pour les véhicules et celle
de nourriture pour 9 milliards d’habitants au milieu du siècle. Une autre forme de
compétition s’installerait entre l’usage de l’eau douce (qui n’est pas inépuisable) pour
les cultures alimentaires et son usage pour celles visant la production de
biocarburants.
En revanche, l’utilisation de l’ensemble de la biomasse ligno-cellulosique, comme
des futaies à courte rotation, pourrait privilégier des terres peu favorables à la
production alimentaire et viser la totalité de la plante (c’est cette voie qu’on désigne
sous le nom de 2ème, voire de 4ème génération, sans toujours préciser ce que sont les
précédentes). Cette voie plus complexe permettrait de produire par gazéification
suivie d’une synthèse chimique, des carburants de qualité, en particulier pour les
moteurs diesel.
Gardons cependant toujours à l’esprit que le plus grand apport de la biomasse dans
la lutte contre le changement climatique existe et nous le détruisons : il s’agit de la
forêt primaire qui joue un rôle capital dans les échanges de CO2 entre l’atmosphère,
la végétation et les sols. »
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
34
III-3 Quel sera pour la France l’apport des éoliennes ?
Bernard Tissot (Membre de l’Académie des sciences) :
« L’énergie renouvelable d’origine éolienne est souvent citée et présentée comme
une source envisageable pour répondre à une demande concentrée et constamment
croissante d’électricité, sans générer de CO2. Certains pays, qui ont décidé de
fermer leurs centrales nucléaires, veulent les remplacer par des éoliennes. Le
problème principal de cette énergie est son caractère intermittent (vent trop faible ou
trop fort) : cette limitation s’exprime par un « average capacity factor » de 15 à 20 %
au lieu de 80 à 90 % dans les centrales thermiques ou nucléaires. C’est la classique
distinction entre puissance nominale et énergie produite, si souvent oubliée dans les
annonces faites au public. Pour une puissance installée de 1 000 MW, la quantité
d’énergie produite en un an est de 8 000 GWh (gigawatts.heure) dans le cas du gaz
ou du nucléaire et de 2 000 GWh dans l’autre cas. Il ne faut pas que l’enthousiasme
pour cette forme d’énergie renouvelable masque la réalité : elle sera le plus souvent
une énergie d'appoint dans les pays à forte concentration de population et demande
électrique importante.
L’énergie éolienne peut constituer un élément significatif dans la production
d’électricité en Allemagne, au Danemark et dans d’autres pays de l’Union
Européenne, pour limiter la part, actuellement élevée, du charbon, fort producteur de
gaz à effet de serre. Au-delà de 15 ou 20 % de la production, on doit s’interroger
sur la nécessité d’adosser celle-ci à un réseau interconnecté important et robuste, et
d’assurer le relais en cas de vent trop faible ou trop fort (par exemple, les éoliennes
du Danemark relayées par l’hydroélectricité de Norvège).
Une telle démarche en France aboutirait à substituer cette source intermittente à du
nucléaire en base ou à de l’hydroélectricité (décision anti-écologique, s’il faut avoir
des centrales à charbon de type classique en secours).
On notera enfin les réserves formulées par des Membres de l’Académie Française et
de l’Académie des Beaux Arts ainsi que par diverses associations, sur les sites à
protéger et les monuments historiques, ainsi que celles portant sur les conditions de
rachat de l’électricité produite et l’économie globale du projet, formulées par des
Membres de l’Académie Française et de l’Académie des Sciences Morales et
Politiques.
Une production photovoltaïque d’électricité qui soit significative au niveau de la
demande européenne paraît encore lointaine. Par contre, fournir par une aide directe
aux villages des pays du Tiers monde, non reliés à un réseau, un minimum
d’électricité pour une antenne médicale ou pour rompre l’isolement relève de
l’éthique, et permettrait aux industriels européens d’acquérir une expérience
précieuse. »
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
35
III-4 a) En Europe : peut-on donner un calendrier de l’utilisation du gaz naturel
et du pétrole dans les prochaines décennies ?
b) Certaines des nations ayant de fortes réserves de charbon s’impliquent
dans la capture des fumées et le stockage du gaz carbonique.
Comment ? Quel rôle l’Europe va-t-elle jouer ?
Bernard Tissot (Membre de l’Académie des sciences) :
« Les produits pétroliers, gaz naturel et dérivés du pétrole brut, sont largement
utilisés pour le chauffage dans le domaine résidentiel et tertiaire, les transports, la
production d’électricité, et certaines industries (métallurgie, cimenteries). Le charbon,
autrefois dominant, reprend une place importante notamment dans les pays en
développement rapide, quand ils en possèdent des réserves importantes. Les
centrales électriques utilisant le charbon représentent dans ces pays une part
majeure des nouvelles capacités construites pour répondre à la demande croissante
en électricité. D’autres pays souhaitent poursuivre l’exploitation du charbon qui a
joué un rôle historique dans leur développement industriel, et offre des emplois à une
partie importante de la population. L’ensemble de ces combustibles fossiles – gaz
naturel, pétrole et charbon – fournit actuellement près de 90 % des énergies
primaires commercialisées dans le monde.
Trois facteurs éventuellement limitatifs interviennent pour ces combustibles
fossiles :
• Les réserves qui progressivement s’épuisent (il faut des millions
d’années pour que l’évolution géologique produise du pétrole ou du charbon à partir
de la matière organique contenue dans certains sédiments). On peut situer
l’épuisement du pétrole au milieu du siècle et celui du gaz avant la fin du siècle. Le
charbon pourrait atteindre deux siècles. Le facteur coût de l’énergie sera également
un facteur important mais il résultera probablement de beaucoup d’autres facteurs en
plus de l’épuisement des ressources.
• Ils produisent des gaz à effet de serre, en particulier du gaz
carbonique ; le charbon en produit plus que les autres, sans oublier divers autres
polluants atmosphériques nocifs. La capture du gaz carbonique et son stockage
(CCS) sont une nécessité, dans tous les secteurs où l’on pourra le faire, pour
permettre le relais du pétrole et du gaz par le charbon. Ce stockage pérenne risque
d’exiger un considérable effort de recherche, un surcoût important pour l’usage du
pétrole ou du gaz (doublement du prix ?) et de poser un grave problème
environnemental. Il est difficile de prévoir quand les « catastrophes naturelles »,
évènements abrupts tels que canicule, sécheresse, inondation, tempête, cyclone,
seront ressenties comme inacceptables par la société.
• La sécurité des approvisionnements, qui relève plus de la politique
internationale que de la science ou de la technique. Ce problème est plus accusé
pour le gaz (majoritairement transporté par gazoducs sur lesquels des pays tiers
peuvent intervenir) que pour le pétrole brut et le charbon dont le transport par mer
est plus souple. La France est cependant moins menacée que les pays d’Europe
centrale pour le gaz, car ses approvisionnements sont plus diversifiés.
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
36
La consommation annuelle mondiale d’énergie, actuellement d’environ 10 milliards
de tonnes d’équivalent pétrole (10 Gtep), dépassera 20 Gtep en 2040 ou 2050, dans
l’hypothèse du laisser faire (business as usual, BAU), si aucun accord international
contraignant n’est intervenu auparavant pour limiter la consommation de
combustibles fossiles et les émissions de CO2 qui en résultent. Les estimations
retenues par notre Académie dans ses rapports de 2005 et 2007 sont en accord
avec les évaluations de consommation d’hydrocarbures dans les années 2030 ou
2050 faites tant par le Département de l’énergie des États-Unis que par l’Agence
internationale de l’énergie.
Il convient alors de garder à l’esprit qu’une erreur considérable sur l’évaluation des
réserves ultimes en pétrole et en gaz, telle que 100 milliards de tonnes d’équivalent
pétrole, ne ferait que décaler de dix ans, dans un sens ou dans l’autre, l’épuisement
de ces réserves, si nous ne changeons pas notre mode de vie. Ainsi, la fin de ces
réserves de combustibles au cours du siècle est inéluctable. L’exigence d’un
développement mondial durable et celle d’une indépendance énergétique minimale
de la France et de l’Europe imposent une modification profonde de l’ampleur et des
sources de notre consommation énergétique.
Les investissements des 20 prochaines années auront une influence déterminante
sur la situation de la planète au milieu du siècle et même bien au-delà. La capture et
le stockage du CO2 coûteront cher et demanderont des réponses à de nombreux
problèmes techniques qui ne sont pas tous prévus. Si les États laissent construire de
grandes centrales thermiques au charbon, sans capture et stockage des émissions,
et capables de fonctionner pendant 40 ou 60 ans, notre avenir est irrémédiablement
compromis. S’il est difficile d’empêcher la construction de telles installations, il est
encore bien plus difficile de les fermer prématurément. »
Question III-4 a) : En Europe : Pourra-t-on continuer à utiliser le pétrole
pendant les prochaines décennies ? Pourra-t-on utiliser sans inconvénient le
gaz naturel tant du point de vue des émissions de gaz carbonique que de la
sécurité des approvisionnements ?
Sébastien Candel (Correspondant de l’Académie des sciences) :
« Les ressources fossiles pétrole et gaz sont surtout importantes pour le transport et
la production d’énergie. Ainsi par exemple, le pétrole est essentiel pour le transport
aérien, et la disponibilité future d’un carburant comme le kérosène ou de substituts
au kérosène, est une question centrale dans ce secteur. Plus généralement, la
disponibilité du pétrole dans l’avenir dépend de nombreux facteurs. Pour analyser
cette question, il faut envisager les réserves de pétrole et considérer l’évolution de la
consommation et du prix. Le problème est aussi politique car les ressources,
inégalement réparties dans le monde, se trouvent souvent dans des régions dont la
stabilité politique n’est pas assurée. Le niveau de consommation sera aussi influencé
par l’évolution de la sensibilité du public au problème des émissions de gaz à effet de
serre.
Les principaux producteurs de pétrole sont les pays de l’OPEP (Arabie Saoudite,
Iran, Irak, Koweit, Quatar, Emirats, Algérie, Libye, Nigéria). Ces pays assurent une
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
37
part importante (40 %) de la production mondiale. D’après une étude de BP réalisée
en 2006, les réserves prouvées seraient de l’ordre de 150 Milliards de tonnes
équivalent pétrole (150 Gtep) ou encore 1200 Milliards de barils (1 200 Gb, un baril
de pétrole correspondant à 159 litres). Un peu moins de trois quart des réserves (743
Gb) se trouvent au Moyen Orient. Au rythme de production actuel d’environ 83 Mb
par jour soit 30 Gb par an, les réserves seront épuisées en 40 ans. Selon cette
étude, il ne resterait donc que quelques décennies de consommation de pétrole. La
disponibilité du pétrole est souvent discutée en termes de pic de production ou «peak
oil ». On se réfère ainsi aux prévisions réalisées par le géophysicien américain King
Hubbert qui, constatant que la production suivait une courbe en cloche, avait conclu
avec justesse que la production américaine passerait par un pic dans les années
1970. Sur le problème du « peak oil », le point de vue optimiste consiste à noter que
les prévisions de raréfaction des ressources ne se sont pas réalisées dans le passé
et que des réserves existent dans des gisements profonds qui pourront être
exploitées avec l’amélioration des techniques d’exploration et de forage. Le point de
vue pessimiste s’appuie sur les connaissances géologiques désormais très
complètes et sur le fait que les découvertes majeures sont de moins en moins
nombreuses. L’analyse appliquée aux ressources mondiales donnerait la date de
2020 pour le « peak oil » si on suppose des réserves totales de l’ordre de 3 000 Gb
et 2030 si ces réserves sont de 4 000 Gb. D’après Yves Mathieu (IFP) (2006) le
scénario le plus probable est celui où la production fluctue autour de 90 Mb/j. Cette
valeur pourrait se maintenir jusqu’en 2030 grâce aux pétroles non-conventionnels
(huiles lourdes, sables asphaltiques).
La question du coût du pétrole est assez complexe mais on peut s’attendre, très
schématiquement, à un renchérissement avec l’épuisement des ressources les plus
facilement accessibles. A la différence de la période antérieure, le coût marginal de
production ne devrait plus être négligeable car il faudra exploiter des pétroles plus
difficilement accessibles (grandes profondeurs, sables asphaltiques…). Ces coûts
seraient de l’ordre de 30 $/b pour la récupération de pétrole à partir de sables
asphaltiques, une valeur qui devient comparable aux 80 $/b ou 60 $/b nécessaires à
la fabrication de carburants de synthèse à partir de charbon ou de gaz naturel
respectivement par procédé Fischer-Tropsch (voir plus loin). A ces coûts internes, il
faudra probablement ajouter des coûts externes induits par les mesures qui seront
prises pour limiter les émissions de gaz à effet de serre. Les méthodes de
récupération utilisées pour l’exploitation des pétroles non-conventionnels induisent
des besoins d’énergie et des rejets supplémentaires de CO2. L’internalisation de ces
coûts externes et de ceux qui pourraient être induits par la capture et la
séquestration du CO2 pourraient constituer un frein à la consommation du pétrole.
Alors que la consommation de pétrole pourrait être amenée à plafonner, la
consommation de gaz naturel est actuellement en plein essor avec un doublement
prévu pour la prochaine décennie. On passerait ainsi des 2 Gtep/an consommés à
l’heure actuelle à environ 4 Gtep en 2020. Cette croissance rapide est induite par les
besoins en énergie et notamment ceux de pays émergents (Chine et Inde) mais la
demande de gaz augmente aussi dans les pays développés avec une certaine
désaffection pour le charbon, le désengagement de l’énergie nucléaire dans des
pays comme l’Allemagne et la recherche de substituts au pétrole pour les transports
terrestres. Les réserves de gaz naturel prouvées sont de l’ordre de 140 Gtep pour un
total espéré de 250 Gtep. Les besoins pourraient ainsi être couverts jusqu’aux
environs de 2060. Les réserves sont un peu plus uniformément réparties que celles
du pétrole (70 % au Moyen Orient et dans les pays de l’ex-URSS) mais les réserves
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
38
européennes correspondent à une faible part (5 %) du total. La localisation
géographique des pays exportateurs fait qu’une partie importante des ressources se
trouve dans des régions sensibles politiquement, ce qui peut conduire à des
difficultés d’approvisionnement, une situation illustrée par les problèmes rencontrés
récemment pour les livraisons de gaz russe traversant l’Ukraine. Elle implique aussi
le transport du gaz sur de grandes distances et elle est aussi une source de
préoccupations portant sur la stabilité des approvisionnements. Le transport du gaz
est majoritairement réalisé par gazoduc (à 90 %) ce qui consomme 2.5% de l’énergie
transportée sur 1 000 km. Le gaz naturel est aussi transporté par des navires
méthaniers sous forme liquéfiée (à une température de 110 K) ce qui nécessite là
encore une consommation d’énergie pour la liquéfaction du gaz et pour sa
gazéification ultérieure.
Constitué de 70 à 100 % de méthane (CH4), le gaz naturel est caractérisé par de
bonnes performances en matière de rejets de gaz à effet de serre (CO2). Cela vient
du fait qu’il y a quatre fois plus d’atomes d’hydrogène que d’atomes de carbone dans
la molécule de méthane alors que le rapport n’est que de deux à un pour les
hydrocarbures liquides tirés du pétrole. Pour la même quantité d’énergie produite, les
rejets de CO2 sont plus faibles. Le gain en termes de rejets de CO2 peut même être
amélioré en utilisant des cycles combinés dans lesquels les produits issus de la
combustion sont d’abord utilisés dans une turbine à gaz fonctionnant à haute
température puis servent dans un circuit plus classique à chauffer de la vapeur qui
alimente un second groupe turboalternateur. Le rendement passe ainsi d’une valeur
typique de 35 % à une valeur d’environ 50 % ce qui réduit encore la quantité de
rejets de CO2 pour la même quantité d’énergie. Le gaz naturel est ainsi très
intéressant pour la production d’énergie électrique, parfois combinée avec l’utilisation
de la chaleur résiduelle à basse température (le rendement peut alors atteindre les
85 %). Les performances sont donc très bonnes mais l’utilisation du gaz naturel
dans des processus de combustion à haute température peut conduire à des niveaux
importants d’émissions d’oxydes d’azote (NOx) qu’il faut pouvoir contrôler. Cela
conduit à utiliser des concepts de combustion avancés suivant un mode prémélangé
pauvre. Les niveaux d’émission de NOx sont alors réduits, mais la stabilité de la
flamme est diminuée et les phénomènes d’instabilité qui peuvent apparaître doivent
être maîtrisés. Les autres polluants comme les oxydes de soufre doivent aussi être
traités. Il faut pour cela éliminer les composés sulfurés (H2S) qui sont très souvent
présents dans le gaz naturel. Un autre problème qui réduit l’efficacité du gaz naturel
par rapport aux rejets de gaz à effet de serre est celui des fuites induites par le
transport à grande distance et la distribution du gaz. Or le méthane est un gaz
particulièrement efficace pour l’effet de serre (par unité de masse, il est 23 fois plus
efficace que le CO2). Les fuites ne dépasseraient pas 0.5% en masse dans les
réseaux modernes mais elles pourraient être beaucoup plus importantes dans des
réseaux plus anciens et moins bien entretenus, ce qui réduirait d’autant l’attractivité
du gaz naturel par rapport au problème de rejets de gaz à effet de serre. »
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
39
Question III-4 b): Certains pays possédant des réserves de charbon
importantes s’impliquent dans la capture des fumées et le stockage du gaz
carbonique. Quels sont les enjeux dans ce domaine ? Quel rôle l’Europe et la
France peuvent-elle jouer dans ce domaine ? Qu’en est-il des techniques de
fabrication de carburant liquide à partir du charbon ?
Sébastien Candel (Correspondant de l’Académie des sciences) :
« Le charbon est principalement utilisé pour la production d’électricité dans des
grandes centrales thermiques et dans une moindre mesure pour produire de l’acier
(0.6 t de charbon pour une tonne d’acier soit environ 460 millions de tonnes de
charbon pour produire 780 millions de tonnes d’acier à partir de minerai de fer). Le
charbon représente actuellement 22 % de l’ensemble des sources d’énergie primaire
d’origine fossile et minérale. Il représente 75 %, 57 %, 24 % et 5 % des
consommations d’énergie primaire respectivement en Chine, en Inde, aux Etats-Unis
et en France. La France ne dispose plus de ressources de charbon facilement
exploitables et elle ne tire qu’une faible part de son énergie de sa combustion.
Les réserves au niveau mondial sont considérables ce qui constitue une ressource
importante (peut-être même ultime) d’énergie fossile. Cependant, l’exploitation à
grande échelle de cette ressource ne pourra se faire qu’en minimisant son impact sur
l’environnement global.
Les réserves prouvées de charbon dépassent 3 500 milliards de tep et sont 5 fois
plus importantes que celles de pétrole ou de gaz. Alors que ces dernières plus
faciles à exploiter seront épuisées vers le milieu du siècle actuel, l’épuisement des
réserves de charbon ne devrait intervenir que dans plusieurs centaines d’années. Au
rythme actuel de consommation de combustibles fossiles (8 milliards de tep) il
faudrait environ quatre siècles pour épuiser les ressources de charbon mais
beaucoup moins (170 ans) si la consommation de combustibles fossiles augmente
par exemple de 1% par an. Le charbon apparaît, dans cette perspective, comme la
ressource fossile ultime mais c’est aussi la plus polluante. Sa combustion génère, en
plus du CO2, des oxydes d’azote (NOx) et de soufre (SOx), des hydrocarbures
aromatiques, des composés halogénés, des cendres et poussières, des métaux
lourds.
Alors que le dépoussiérage électrostatique des fumées est efficace à 99%, la
réduction des autres polluants et la capture et séquestration des gaz à effet de serre
pose des problèmes plus complexes. Des technologies existent pour éliminer une
part significative des SOx et des NOx, soit par traitement des fumées issues de la
combustion dans les centrales à charbon pulvérisé (les plus courantes), soit en
réalisant une combustion en lit fluidisé circulant (LFC) qui permet de réduire la
température de combustion et de réaliser la désulfuration au moyen d’une injection
simultanée d’additifs. La combustion du charbon génère aussi la plus grande
quantité de gaz à effet de serre (CO2) par kWh d’énergie. Ainsi, pour obtenir la
même énergie, la combustion du charbon produit environ deux fois plus de CO2 que
celle du gaz naturel.
La réduction des émissions de gaz à effet de serre (CO2) peut être réalisée par
plusieurs voies : (1) la modernisation des installations pour améliorer leur rendement.
On peut utiliser à cet effet des cycles supercritiques où la vapeur est portée à une
température de 580°C et une pression de 28 MPa et obtenir un rendement de l’ordre
de 45 % alors qu’il n’est actuellement que de 32 % au niveau du parc mondial et
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
40
38 % en Europe. A l’horizon 2020, il est envisagé d’utiliser des cycles
« ultrasupercritiques » fonctionnant à une température encore plus élevée de 720°C
et à 35 MPa, ce qui permettrait d’approcher les 50% de rendement et de diviser par
1.5 les émissions de CO2 par kWh d’énergie. (2) la capture puis la séquestration du
CO2 est envisagée au moyen de plusieurs filières. La capture est effectuée en aval
par dissolution dans une solution d’amines qui est ensuite regénérée. Cette capture
est plus efficace si la combustion est réalisée à l’oxygène, ce qui augmente la
concentration en CO2 dans les fumées. Une solution plus avancée consiste à
réaliser une gazéification intégrée du charbon dans un cycle combiné (IGCC ou
« Integrated Gasification Combined Cycle »). Du gaz de synthèse (CO+H2) est
obtenu par combustion à l’oxygène. Ce gaz, après épuration sélective (H2S, COS),
alimente une turbine à gaz et la chaleur récupérée est utilisée dans une turbine à
vapeur classique. La capture du CO2 dans les effluents est facilement réalisée car sa
concentration est élevée. Ce concept conduit en principe à des rendements élevés
de l’ordre de 45 % mais il est complexe techniquement, sa conduite est plus délicate
que celle des centrales classiques et son coût est élevé. Très subventionné aux
Etats-Unis, l’IGCC est actuellement développé dans des unités de taille intermédiaire
de 100 à 500 MW. Un prototype de 300 MW a été mis en place à Puertollano en
Espagne avec une subvention européenne. Le concept IGCC et toutes les solutions
qui conduisent à la capture du CO2 n’ont d’intérêt que dans le cadre d’une
séquestration de ce gaz. Mais la séquestration du CO2, déjà difficile au niveau
technique et économique, est subordonnée à une acceptation sociale. Il s’agit de
passer à très grande échelle (les émission de CO2 dépassent déjà les 25 Giga
tonnes par an) un procédé qui n’a été démontré que sur de très faibles quantités de
gaz (de l’ordre du million de tonnes). Les difficultés sont aussi économiques car les
coûts de capture et de stockage sont élevés. Le comportement à long terme du
stockage géologique reste à préciser. Enfin, pour que ces solutions puissent être
adoptées, il faudrait lever toutes les incertitudes associées à un enfouissement de
longue durée pour obtenir l’acceptation par le public.
Malgré toutes ces problèmes, il est difficile de penser que les réserves de charbon
pourront être exploitées pour produire de l’énergie sans que le CO2 qui en résulterait
ne soit capté et séquestré. Si tout le CO2 était rejeté dans l’atmosphère (en l’absence
de capture) on atteindrait un niveau de fraction volumique de CO2 dans l’atmosphère
qui serait plusieurs fois supérieur à celui qui existe actuellement (une estimation
donne une valeur de 1 200 ppm, parties par million, à comparer aux 380 ppm
actuels).
Une autre méthode d’utilisation du charbon qui ne résout pas le problème qui vient
d’être décrit est celle de sa conversion en pétrole (CTL ou « Coal To Liquid »). Cette
solution paraît attrayante a priori et elle peut effectivement être réalisée au moyen
de procédés connus depuis longtemps. On forme d’abord du gaz de synthèse
(CO+H2) à partir de charbon, de vapeur d’eau et d’oxygène dans un réacteur à haute
pression et haute température. Ce gaz est ensuite utilisé pour hydrogéner du coke
dans un procédé catalytique et obtenir des hydrocarbures paraffiniques, des
oléfines, du gaz de pétrole et du méthane. On peut aussi procéder par hydrogénation
directe du charbon au moyen d’hydrogène dans un réacteur à haute pression en
présence d’un catalyseur. Dans la synthèse de Fischer-Tropsch, le charbon est
brûlé en présence d’oxygène et de vapeur d’eau. Le gaz de synthèse est purifié et
passe dans un réacteur catalytique où il est converti en méthanol et hydrocarbures
de poids moléculaire élevé. Le procédé peut être orienté vers la production
d’essence et de substitut de gaz naturel. Dans tous ces procédés, de l’eau sous
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
41
forme vapeur constitue la source d’hydrogène qui doit être additionné au charbon
pour le convertir en pétrole et en gaz. On estime que la conversion devient rentable
lorsque le cours du pétrole dépasse environ 40 $ le baril, mais cette estimation
semble optimiste. Le procédé a été utilisé à grande échelle par l’Allemagne pour
produire du pétrole pendant la Deuxième Guerre mondiale et il est utilisé
actuellement en Afrique du Sud pour produire du pétrole et du gaz. La Chine et les
Etats-Unis sont très intéressés par ces procédés car ces deux pays disposent de
réserves de charbon importantes. L’Institut Français du Pétrole et le pétrolier italien
ENI-tecnologies poursuivent des travaux sur l’amélioration du procédé.
Dans ce contexte général et bien que leurs réserves de charbon soient presque
épuisées, l’Europe et la France ne peuvent se désintéresser d’un secteur qui
occupera dans l’avenir (peut-être dès le milieu de ce siècle) une place centrale dans
la génération combinée d’électricité, de chaleur, de matière première pour la chimie
et de sources de combustibles liquides pour les transports et qui nécessitera la mise
en œuvre de solutions efficaces pour la capture et la séquestration du CO2.
III-5 Tous les grands pays font des progrès constants vers la mise au point
de l’énergie photovoltaïque. La France peut-elle accroître son rôle dans ce
domaine ?
Marc Fontecave (Membre de l’Académie des sciences) :
« Il ne fait pas de doute que la source d’énergie renouvelable la plus abondante, très
largement supérieure aux contributions potentielles de l’énergie éolienne,
géothermique ou hydroélectrique par exemple, est l’énergie solaire. Le soleil envoie
sur la terre environ 100 000 TW par an, à comparer aux 13-14 TW consommés par
la population mondiale, et va continuer à le faire pendant quelques milliards
d’années. Lorsque l’on parle d’énergie solaire, en général on pense aux panneaux
photovoltaïques, cette technologie qui permet de collecter l’énergie lumineuse et de
la transformer en énergie électrique. L’un des enjeux est d’en diminuer le coût ; un
facteur 10 est raisonnable et permettrait un développement substantiel de cette
technologie. Evidemment, comme l’électricité non consommée est perdue, la
question du stockage de l’électricité est également centrale et J-M Tarascon a
évoqué cette question (voir III-6) en discutant des perspectives en matière de
batteries, qui sont encore trop chères, avec des capacités de stockage d’énergie
encore insuffisantes.
Il existe une autre façon d’exploiter l’énergie solaire. Ce n’est pas pour demain
mais peut-être pour après-demain. Il s’agit de transformer l’énergie du soleil
directement en énergie chimique, de la stocker sous la forme d’un carburant
chimique, par exemple l’hydrogène. Ce dernier constitue, on le sait, un carburant très
intéressant, à la fois en raison de la grande quantité d’énergie qu’il restitue lors de
son oxydation (piles à combustibles, piles à hydrogène), et du fait que le seul sous-
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
42
produit de cette oxydation est l’eau. Il ne faut bien-sûr pas cacher les inconvénients
de l’hydrogène, le plus important étant lié à son état gazeux à température et
pression ambiantes, qui a des implications fortes en ce qui concerne son stockage et
son transport. De nombreux projets à travers le monde s’attachent à la mise au point
de nouvelles technologies de stockage et de transport de l’hydrogène et la chimie va
jouer dans ces développements un rôle majeur, notamment à travers l’invention de
matériaux capables par exemple d’intégrer des quantités massives d’hydrogène
dans des volumes réduits (matériaux solides poreux) ou l’élaboration de procédés
de synthèse de molécules à forte densité d’hydrogène (boranes, hydrures
métalliques).
La conversion de l’énergie solaire en carburant est en fait admirablement
réalisée par le monde vivant qui utilise en permanence le soleil pour transformer
l’eau et le dioxyde de carbone en molécules à haute valeur énergétique qu’on
retrouve dans la biomasse. Certains organismes vivants, comme les microalgues ou
les cyanobactéries, ont même la capacité de réaliser une simple photolyse de l’eau :
ils utilisent l’énergie solaire pour transformer l’eau en oxygène et en hydrogène.
Parce que l’eau n’absorbe pas les photons du soleil et parce que les processus mis
en jeu dans cette photolyse sont des processus multiélectroniques complexes, les
microorganismes réussissent ce tour de force car ils possèdent des systèmes
enzymatiques incroyablement sophistiqués et efficaces pour collecter ces photons,
traduire cette absorption de lumière en énergie chimique et pour catalyser les
réactions de transfert d’électrons, le photosystème pour l’oxydation de l’eau en
oxygène et les hydrogénases pour la réduction de l’eau en hydrogène. Ce qui est
remarquable, c’est que ces systèmes utilisent des métaux abondants comme le
manganèse, le nickel ou le fer alors qu’aujourd’hui les chimistes utilisent, dans les
dispositifs d’électrolyse de l’eau ou les piles à combustible, des métaux nobles
comme le platine, très chers et peu abondants dans la croûte terrestre. On oublie
souvent de dire qu’il n’y a pas de futur pour une économie à hydrogène si on ne
résout pas ces problèmes de catalyseurs. Il y a aujourd’hui environ 700 millions de
véhicules à la surface de la terre. Si on les fait fonctionner avec une pile à
hydrogène, même en intégrant un taux de recyclage du platine de 50%, il n’y aura
plus de platine disponible au bout de 15 ans.
La connaissance de ces systèmes naturels, photosystème et hydrogénase,
que les biologistes et chimistes ont acquise au cours des 30 dernières années, alliée
à la puissance de la chimie bioinspirée, qui permet de traduire les principes de
fonctionnement d’un site actif d’enzyme en photocatalyseurs originaux, utilisant des
métaux non nobles, conduit à penser, un peu partout dans le monde, que la
photosynthèse artificielle est à notre portée. En témoignent certains grands
programmes de recherche aux Etats-Unis impliquant les centres de recherche du
Ministère de l’Energie (DoE) ou des universités prestigieuses comme CalTech, MIT,
en Europe avec le projet SolarH2 et dans de nombreux pays européens.
Transformer l’eau en hydrogène simplement en utilisant la lumière du soleil ne sera
bientôt plus un rêve. Des résultats très encourageants dans ce sens ont fait l’objet de
publications dans des revues comme Science et Nature très récemment. »
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
43
Jacques Friedel (Membre de l’Académie des sciences) :
« L'intérêt pour ce domaine s'est développé en France lors de la première crise de
l'énergie pétrolière des années 1970. Une conférence internationale organisée à
l'époque à Bucarest par la Société Européenne de Physique sous la présidence de
H. Casimir (alors Associé Etranger de l'Académie des sciences) soulignait déjà trois
aspects différents, repris récemment dans un rapport largement distribué de deux
Nobels américains, W. Kohn et A. Heeger de Californie :
Collecte de l'énergie solaire par procédés optoélectroniques.
La lumière solaire excite les électrons d'un semiconducteur à travers une bande
d'énergie interdite, ce qui change localement son potentiel, dont on peut extraire une
énergie électrique. Un grand nombre de semiconducteurs ont été développés, à
commencer par les composés AsGa pour les cellules solaires utilisées dans
l'espace, parce que, dans ce corps, l'excitation électronique est directe et facile dans
le visible. Le silicium a été beaucoup étudié parce que plus facile à produire, sous
forme amorphe, ou polycristalline ou en couches nanométriques. Des progrès
peuvent encore être espérés dans des dispositifs à couches nanométriques ou dans
l'emploi systématique de polymères de structure et de dopage convenables. La
production des plaques mises au point actuellement permet une collecte locale sur le
toit ou les murs d'un bâtiment et notamment dans les villages isolés. La production,
jusqu'ici assez minime, au niveau mondial, devrait rejoindre dans quelques
décennies le niveau de la production éolienne. Un plan récemment mis en avant
propose de capter une grande quantité d'énergie solaire dans le Sahara pour le
redistribuer en Europe mais semble largement prématuré. La difficulté principale
pour faire jouer un rôle dominant à ces deux énergies est en effet leur prix actuel,
indépendamment du problème de stockage pendant la nuit pour le soleil (ou
l'absence de vent pour l'éolien). Ce problème de stockage ne se résout facilement
qu'en présence d'un réseau parallèle majoritaire, fonctionnant sur d'autres sources
(combustibles fossiles, nucléaire).
Procédés de chauffage direct par le soleil.
Ce sont les plus anciens, qui expliquent notamment pourquoi les maisons ont peu de
chauffage d'appoint dans le midi de la France. De nouveaux procédés de
construction (nouveaux matériaux, nouvelles structures notamment de double
vitrage), couplage avec une source froide souterraine, permettent d'utiliser mieux la
chaleur apportée par le soleil, ou minimisent le refroidissement constaté la nuit. Avec
une gestion électronique automatique, il y a là, avec l'adjonction éventuelle de
panneaux solaires, une nouvelle méthode de construction en développement
actuellement et qui peut sans doute représenter une part très sensible des dépenses
actuelles d'isolation et de chauffage des bâtiments. Mais les temps impliqués, liés au
renouvellement des bâtiments, sont longs et l'optimisation n'est sans doute pas
encore atteinte.
Des tentatives anciennes comme le four solaire d'Odeillo ou l'utilisation par le
physicien russe Joffé du pouvoir thermoélectrique développé par chauffage de corps
idoines, lancées dans les années 1970, n'avaient pas abouti à des réalisations
industrielles. Elles sont aujourd’hui devenues des réalités industrielles et
commerciales sous l’appelation de CSP (Concentrated Solar Power).
Réactions chimiques
La nature utilise depuis très longtemps l'énergie solaire dans des réactions
chimiques, la plus connue étant l'absorption du CO2 par la chlorophylle dans le
développement de la végétation. Un chercheur de la General Electric Co estimait
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
44
ainsi en 1970 qu'un Américain moyen du XIXe siècle dépensait autant d'énergie
solaire qu'un de ses compatriotes du XXe siècle entre sa nourriture, celle de ses
chevaux et le bois de chauffage. Indépendamment des biocarburants traités dans la
question 11, d'autres réactions chimiques produites par l'énergie solaire pourraient
être utilisées en parallèle avec la conversion photoélectronique directe évoquée plus
haut. Des travaux de longue haleine ont été entrepris dans ce but, notamment en
Australie ».
Antoine Labeyrie (Membre de l’Académie des sciences) :
« Parmi les énergies renouvelables, celle qui provient du soleil par l’intermédiaire
des panneaux photovoltaïques est particulièrement intéressante car elle nous
rapproche de la voie naturelle qu’est la photosynthèse biologique. Certes, ses voies
de mise en oeuvre sont encore bien différentes des réactions photochimiques
compliquées que la nature a fait évoluer sur Terre depuis quelques milliards
d’années, mais elles pourraient converger ou s’hybrider avec elles. La nature
biologique, surtout végétale mais aussi en symbiose animal-végétal comme chez les
lichens, des méduses et les coquillages tridacnes géants, etc…, utilise la lumière du
soleil pour produire son énergie, mais sous la forme de sucre essentiellement ou
d’huiles, alors que les photopiles de notre industrie produisent du courant électrique .
Les deux formes ne sont pas foncièrement incompatibles : les poissons électriques
gymnotes convertissent le sucre en électricité, et les piles à combustible en font
autant à partir de l’hydrogène ou du méthanol, etc… Des panneaux solaires
produisent de l’hydrogène, et pourront sans doute produire du sucre, ou encore de
l’huile comme certains panneaux à micro-algues récemment expérimentés.
Aujourd’hui, la fabrication des panneaux photovoltaïques croît de façon
spectaculaire, avec un doublement tous les deux ans . Pendant l’année 2009, c’est
déjà l’équivalent en production électrique de plusieurs centrales nucléaires qui a ainsi
été ajouté au parc existant de photopiles dans le monde. En 2021, avec la
croissance régulière que prévoient les fabricants, ce nombre pourrait atteindre
plusieurs centaines. Les compagnies électriques qui annoncent la revente en gros
d’électricité solaire mentionnent les avantages suivants : suppression des risques
liés aux prix du pétrole, de l’uranium, et des permis d’émission de carbone,
limitations minimales pour les sites de captage, absence d’utilisation d’eau, et durée
de construction réduite .
Pourtant l’électricité solaire reste aujourd’hui plus coûteuse que celle du réseau ,
mais les experts estiment que ce ne sera plus le cas en 2015. Avec la baisse
continuelle du coût des photopiles et systèmes associés, il est prévu que la “parité
réseau” sera atteinte à cette date. C’est déjà le cas sur des îles comme Hawaï et
dans le sud de l’Italie.
Un autre aspect fascinant du photovoltaïque est la floraison de voies différentes
que cette approche a inspiré aux chercheurs, d’abord dans des laboratoires de
physique, puis de chimie et maintenant de biochimie, génie génétique, etc… Depuis
quelques années, un nombre croissant de chercheurs imaginent de nouvelles façons
de faire des photopiles, avec de nouveaux matériaux dont certains se rapprochent de
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
45
ceux utilisés par la nature. Après les premières photopiles en silicium, qu’il fallait
laborieusement scier en fines plaquettes, sont apparues des photopiles en couches
minces de matériaux différents: silicium amorphe, CuInSe, CdTe, TiO2 dopé,
nanoparticules, fullerenes, etc… . La liste des possibilités semble infinie, et
l’émulation qui en résulte dans les laboratoires puis dans l’industrie contribue à faire
baisser les coûts et à accélérer la progression des surfaces équipées .
Mais il ne faudrait pas que ces surfaces au soleil prennent la place de la verdure .
Ce n’est pas nécessaire, car les toits, façades et autres infra-structures existantes
peuvent suffire à produire l’électricité nécessaire à la civilisation. Et il y a sur chaque
continent des déserts bien ensoleillés , dont une petite partie suffirait à alimenter la
civilisation qui les entoure.
Les chimistes, biochimistes et généticiens travaillent aussi sur le problème connexe
du stockage électrique, qu’il serait fort utile de pouvoir utiliser pour s’accommoder,
comme le fait la nature, des variations diurnes et saisonnières d’ensoleillement. Il
est efficacement résolu par celle-ci, par exemple sous la forme d’une betterave à
sucre qui passe l’hiver sous la neige avant d’alimenter au printemps la croissance de
nouvelles feuilles. Les versions artificielles de la chimie naturelle qui récupère
l’énergie au printemps, c’est ce que l’on appelle les piles à combustible, qui
récupèrent par exemple l’électricité que des photopiles ont investi pour produire de
l’hydrogène. Elles-mêmes commencent tout juste à exploiter aussi les
extraordinaires nano-machines que sont les enzymes, perfectionnés par des
milliards d’années d’évolution. C’est un autre élément de la convergence qui semble
s’amorcer entre les voies du vivant et celles de notre industrie la plus évoluée, la
nanotechnologie, vers de nouvelles filières de captation et stockage de l’énergie
solaire .
L’Espagne, l’Allemagne, le Japon et les Etats-Unis dominent l’industrie
photovoltaique. La France pourra-t-elle rattraper ceux qui ont investi avant elle dans
la recherche et le développement ? Ou bien dépendrons-nous de l’importation de
panneaux photovoltaïques qui vont produire une part croissante de notre électricité
? Dans le foisonnement actuel des procédés, il n’est pas exclu que de bonnes idées
jaillissent de nos laboratoires en matière solaire, et que notre industrie soit capable
de les mettre en oeuvre.
Parmi les nombreuses filières du photovoltaïque qui entrent en concurrence, il est
difficile de prédire lesquelles sont les plus prometteuses, compte-tenu des nouvelles
idées qui peuvent émerger dans un mois ou dans un an . Et cela ne favorise pas
l’investissement privé, qui se concentre plutôt sur l’importation de photopiles
étrangères pour équiper les toits et les centrales solaires en France. Mais les
filières photovoltaiques déjà industrialisées dans d’autres pays pourraient aussi faire
l’objet de fabrication en France, ce qui devrait ultérieurement permettre à l’industrie
de notre pays d’intégrer plus facilement les améliorations prévisibles.
Ces évolutions indiquent que les voies photovoltaïques et de la photosynthèse
artificielle ou domestiquée vont jouer un rôle majeur dans notre civilisation,
notamment avec l’approvisionnement local qu’elles permettent, même pour les
grandes villes et les zones industrielles. »
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
46
Didier Roux (Membre de l’Académie des sciences) :
« L’énergie solaire se décline en trois grandes applications : le solaire thermique
pour la production d’eau chaude sanitaire, le solaire à concentration pour produire de
l’électricité industriellement, le solaire photovoltaïque pour une production diffuse
d’électricité.
Le solaire thermique permet de produire de l’eau chaude à température modérée
pour les besoins sanitaires d’un habitat. C’est une technologie classique qui se
développe bien et ne pose pas de problématiques particulières sauf peut-être dans
sa version couplée avec le photovoltaïque (voir plus loin).
Le solaire à concentration (ou solaire thermodynamique) est une technologie qui
concentre le rayonnement solaire sur un liquide caloporteur (qui transporte la
chaleur) et le chauffe à relativement haute température (plusieurs centaines de
degrés). Avec cette chaleur transportée par ce liquide on peut évaporer de l’eau et
alimenter une turbine fabriquant de l’électricité comme avec toute autre source de
chaleur (gaz, fioul, charbon, nucléaire…). Plusieurs techniques utilisant des miroirs
plans où courbés peuvent être utilisées. Les projets se développent, pour des
raisons économiques, principalement dans les pays ou l’ensoleillement est important
et la surface au sol facilement accessible, par exemple les pays de l’Arc
Méditerranéen.
Le solaire photovoltaïque est certainement le domaine ou l’on peut espérer les
progrès scientifiques et technologiques les plus significatifs dans les années à venir.
Il a été développé sur la base de l’effet photoélectrique (pour l’explication duquel
Albert Einstein a eu le prix Nobel en 1921), dans les années 50-60 pour avoir une
source d’électricité afin d’alimenter les satellites. C’est le seul exemple ou l’énergie
électromagnétique du rayonnement du soleil est transformée directement (sans
passer par un mouvement mécanique) en énergie électrique. Le rendement actuel
(i.e. le pourcentage d’énergie électromagnétique transformée en énergie électrique)
des différentes cellules varie énormément de quelques % à plus de 40% en
laboratoire dans le meilleur des cas. Il n’y a pas de limites théoriques à l’amélioration
de ce rendement et les cellules dites multi jonctions ont fait des progrès
spectaculaires. Cette technologie de production électrique a une particularité qui la
rend quasiment unique : il n’y a pas de gain financier en concentrant la production de
cette électricité (pas d’économie d’échelle). On peut installer des panneaux
photovoltaïques indifféremment sous la forme d’usine de production en équipant des
champs de panneaux solaires mais aussi en produisant localement à partir de petites
unités disposées sur les toits ou le sol. Ces panneaux installés dans des unités
locales permettent : soit d’alimenter un équipement non relié au réseau, soit de
produire de l’électricité de façon diffuse en alimentant ainsi le réseau avec des
sources disséminées. Ce caractère diffus de la production est une particularité qui
permet à la fois de varier les sources de production sur un réseau mais aussi de faire
appel à l’investissement direct des citoyens individuellement. Pour avoir une réalité
économique durable ne nécessitant pas d’aides des états il faut baisser encore
fortement les coûts des modules et de leur installation. L’objectif est d’arriver à un
coût de production d’électricité par des panneaux photovoltaïques identique à celui
du prix d’achat de l’électricité sur le réseau ; notons que dans certains cas nous n’en
sommes pas loin (c’est le cas de certains pays ou l’électricité est chère et le soleil
abondant). La technologie largement dominante utilise du silicium mono cristallin ou
poly cristallin, c’est celle développée dès son origine pour les satellites. De nouvelles
Libres points de vue d’Académiciens sur l’environnement et le développement durable – 25 novembre 2009
47
technologies apparaissent sur le marché qui, à terme, permettront de faire baisser
les coûts. Les nouvelles technologies les plus avancées sont celles nommées
couches minces qui permettent, en déposant sur un support rigide ou flexible
quelques microns de film d’un matériau semi conducteur, de réaliser des cellules.
Pour le moment les technologies couches minces industrielles sont celles à base de
silicium amorphes, de CdTe (Tellure de Cadmium) et de CIGS (mélange de Cuivre
Indium, Gallium et de Selenium). Notons que d’un point de vue scientifique, on peut
encore s’attendre dans le domaine des couches minces photovoltaïques à des
ruptures technologiques. En effet, nous sommes loin d’avoir exploré (et même
découvert) tous les matériaux semi conducteurs ayant des propriétés adaptées au
photovoltaïque ; le cas du CIGS à 4 constituants est de ce point de vue
emblématique car il préfigure (comme pour les supraconducteurs hautes
températures) que des alliages composés de plusieurs constituants (> 2) peuvent
avoir des propriétés bien meilleures que des corps purs ou des mélanges binaires.
Compte tenu que l’on voit se développer de nouvelles techniques d’échantillonnage
à haut débit particulièrement adaptées aux films minces composés de mélanges, de
nouvelles découvertes sont possibles permettant de trouver éventuellement de
nouveaux semi conducteurs à très bon rendement et fabricables industriellement à
des coûts faibles. Plus récemment de nouvelles technologies basées sur des
molécules organiques (polymères conducteurs) ou mixtes minéral/organique
(cellules dites de Grätzel) donnent aussi l’espoir de développer des procédés de
fabrication peu coûteux ».
III-6 Que pourrions-nous faire en France de plus pour résoudre les
problèmes énergétiques et déployer leurs solutions à l’échelle industrielle, soit
seuls, soit dans un cadre européen ?
Robert Dautray (Membre de l’Académie des sciences) :
« En ce qui concerne les recherches en énergie, nous pouvons avoir un
repère européen : de grands laboratoires de l’Union Européenne se sont concertés,
pour mener ensemble, avec un seul laboratoire par pays (pour la France le CEA
avec l’IFP, pour l’Allemagne, une nouvelle institution , appelée Association des
laboratoires de Julich et de Karlsruhe, tous deux anciens laboratoires nucléaires,
reconvertis aux disciplines scientifiques demandant de grands instruments, etc..),
une Alliance Européenne de Recherches concernant l’Energie (European Energy
Research Agency, EERA, dont le site est EERA-set.eu).
Dans un premier temps, les domaines de recherche choisis par l’EERA sont :
7 réflexions sur « Libres points de vue d’Académiciens »