Éric Guilyardi, Université Pierre et Marie Curie (UPMC) – Sorbonne Universités et Juliette Mignot, Université Pierre et Marie Curie (UPMC) – Sorbonne Universités
Un an après l’Accord de Paris, l’objectif est plus que jamais de mettre en œuvre la réduction drastique et rapide des émissions de gaz à effet de serre, responsables du réchauffement du climat. L’urgence de l’action, enfin reconnue par tous les pays, vient de ce qu’au rythme actuel (plus de 45 milliards de tonnes de CO2 par an), les émissions cumulées engendreraient un réchauffement de 2 °C dans 20 ans seulement.
Une telle action internationale demande d’abord des outils de suivi : mesure des émissions, mesure du CO2 dans l’atmosphère, mesure des échanges avec les puits de carbone que sont l’océan et la biosphère continentale. Elle demande également de prévoir l’évolution du climat dans les prochaines décennies.
Ce dernier point est un véritable défi car les variations « naturelles » du climat se superposent à la tendance due aux émissions engendrées par les activités humaines. Et, de la même façon que l’arrivée du printemps n’est pas linéaire – elle se fait à travers une alternance de jours plus chauds (anticyclones) et plus froids (dépressions) de laquelle émerge peu à peu l’effet de l’ensoleillement qui augmente – le réchauffement du climat ne l’est pas non plus (voir la figure ci-dessous).
Les variations décennales du climat
Les climatologues connaissent de mieux en mieux l’origine de ces variations « naturelles » internes au climat : d’une année sur l’autre, ce peut être l’alternance des phénomènes El Niño/La Niña dans l’océan Pacifique ou celle d’anomalies chaudes et froides de part et d’autre de l’océan Indien ; d’une décennie sur l’autre, cela peut être l’alternance entre une phase chaude et une phase froide de l’oscillation décennale de l’Atlantique Nord ou de celle du bassin Pacifique (voir la figure ci-dessous).
Une constante cependant : ces variations à l’échelle de quelques années à quelques décennies – les climatologues parlent de variations « décennales » – font intervenir l’océan. Grâce à son importante capacité calorifique – l’océan se réchauffe à la fois moins vite et plus longtemps que l’atmosphère par exemple – il peut stocker l’essentiel de la chaleur liée aux variations du climat.
À titre de comparaison, les 70 kilomètres de la colonne atmosphérique contiennent autant d’énergie que les deux premiers mètres de l’océan. Ce dernier faisant en moyenne 4000 mètres de profondeur, on comprend dès lors que 93 % de la chaleur additionnelle due aux activités humaines y soit stockée. De la même façon, cette gigantesque capacité calorifique joue un rôle tampon pour les variations du climat.
Distinguer les types de variations
Ces modulations décennales naturelles et internes au climat sont relativement faibles à l’échelle de la planète : elles se traduisent par quelques dixièmes de degré sur la température globale. Néanmoins, elles peuvent contrecarrer pour quelque temps (10-15 ans) le réchauffement dû aux émissions de gaz à effet de serre provoquées par les activités humaines.
C’est pourquoi les acteurs de la gouvernance climatique mondiale ont absolument besoin de connaître ces évolutions pour pouvoir ajuster leurs actions.
Prenons un exemple : si les oscillations naturelles du climat tendent vers un refroidissement, nous pourrons alors avoir l’impression que nos actions de limitation du réchauffement climatique portent leurs fruits plus rapidement que prévu et, du coup, relâcher nos efforts. Inversement, si les variations naturelles tendent vers un réchauffement, nous pourrons avoir l’impression que nos actions sont sans effet et, du coup, soit les abandonner, soit les intensifier inutilement.
Des prévisions essentielles pour les sociétés
Au-delà des négociations des COP, anticiper ces variations décennales du climat a un intérêt très marqué au niveau économique et social. On pense, par exemple, à la sécheresse persistante du Sahel dans les années 1970-1980 qui a été attribuée à une phase froide l’oscillation décennale de l’Atlantique Nord (voir la figure ci-dessus). Anticiper la prochaine phase froide représente dès lors un enjeu fondamental pour que les sociétés concernées puissent s’organiser.
De la même façon, les producteurs d’énergie souhaitent connaître les investissements qu’ils pourront faire pour les 20 années à venir. Cela concerne, par exemple, la disponibilité en eau pour de futurs barrages, le débit des rivières pour le refroidissement des centrales nucléaires à implanter ou encore l’évolution des vents moyens pour l’énergie éolienne.
Pour répondre à ces attentes, le Programme mondial de recherches sur le climat a initié la mise en place de services climatiques, dont la faisabilité scientifique, technique et sociale est en cours d’exploration. Un service pilote dédié à l’agriculture a ainsi vu le jour en Afrique de l’Ouest.
Grâce à cette capacité d’anticipation plus fine que les projections basées sur le seul effet des émissions dues aux activités humaines, les prévisions décennales pourront aider à la prise de décision concernant l’adaptation au changement climatique. Elles pourront ainsi permettre d’identifier les régions qui auront besoin d’aide en premier pour affronter les changements climatiques.
Mais si ces besoins sociaux et économiques sont clairs, la prévision décennale n’est pas encore opérationnelle, au sens où le sont aujourd’hui les prévisions météorologiques et saisonnières.
Pour des prévisions climatiques à l’échelle de la décennie, les chercheurs doivent relever trois défis : comprendre les mécanismes à l’œuvre, les observer et les modéliser.
Comprendre les variations internes et externes
Le premier défi consiste donc à comprendre les origines de ces variations décennales du climat, qu’elles soient internes ou externes. Nous avons déjà décrit les sources de variabilité interne (comme l’oscillation décennale de l’Atlantique Nord ou du bassin Pacifique).
Si ces phénomènes internes sont difficiles à comprendre – ils font intervenir des processus physiques complexes, à grande échelle d’espace et de temps, pour lesquels les observations directes font souvent défaut –, ils sont néanmoins essentiels car potentiellement prévisibles, ce qui n’est pas le cas des sources externes.
Les variabilités naturelles externes sont dues aux éruptions volcaniques et aux variations du soleil. Lors d’une éruption volcanique, les poussières et gaz éjectés restent dans la haute atmosphère (la stratosphère) pendant plusieurs mois : cela provoque un « effet parasol » qui limite le rayonnement solaire, entraînant un refroidissement global mais temporaire du climat. En 1991, l’éruption du Pinatúbo avait ainsi entraîné un refroidissement de près de 0,5 °C pendant 6 mois.
À l’échelle décennale, les variations du soleil sont essentiellement dues au cycle des taches solaires. Outre une fréquence observée de 11 ans relativement stable, il existe des périodes de plus faible activité solaire qui peuvent durer plusieurs décennies. Le petit âge glaciaire du XVIIe siècle est, par exemple, probablement dû à la conjonction d’une forte activité volcanique et d’une absence de taches solaires.
L’autre source de variations externes du climat est liée à l’activité humaine et concerne notamment les émissions de gaz à effet de serre ; ces dernières sont continues, de même que leur effet climatique. Il y a aussi les émissions de poussières (en particulier celles générées par l’exploitation du charbon) qui ont, elles, connu d’importantes variations.
Au cours de l’après-guerre, par exemple, on a constaté une forte augmentation de l’utilisation du charbon et par conséquent des émissions de poussières entraînant « l’effet parasol » ; ce phénomène est ainsi venu contrecarrer le réchauffement lié aux émissions de gaz à effet de serre des années 1950-1960. À l’inverse, dans les années 1970, les lois sur la qualité de l’air instaurées aux États-Unis et en Europe ont contribué à l’accélération du réchauffement en limitant drastiquement ces émissions « refroidissantes » (voir la première figure).
Observer et reconstruire
Le second défi concerne les observations, essentielles pour comprendre ces variations. Or nous n’avons que peu d’observations avec le recul temporel suffisant, en particulier au niveau de l’océan dont le rôle est central.
La « reconstruction » du passé est donc une activité de recherche très active. Le travail d’enquête des chercheurs va de l’utilisation d’indicateurs indirects du climat – comme les archives environnementales (stalagmites, cernes de croissance des arbres, coraux, coquillages…) et historiques – à l’utilisation de modèles numériques du climat contraints par les quelques observations dont nous disposons depuis 100 ans.
Les observations de l’océan, acteur clé du climat, sont également essentielles. Mais son opacité, qui fait qu’on ne peut pas observer ses profondeurs depuis la surface, oblige à mener ces observations in situ, soit en campagne en mer avec un bateau océanographe, soit en déployant des réseaux de bouées automatiques (on pense au réseau Argo) ; soit encore par satellite pour certaines mesures, comme la température de surface de la mer ou le niveau de la mer. Cette difficulté technique explique pourquoi nous avons peu de données, en particulier dans les régions éloignées comme le Pacifique sud ou l’océan circumpolaire Antarctique.
Modéliser pour « simuler » le climat
Le troisième défi concerne la modélisation du climat pour l’horizon décennal, qui s’appuie sur la compréhension des mécanismes et les observations.
La modélisation du climat représente une entreprise titanesque qui a commencé à la fin des années 1960 avec l’arrivée des premiers ordinateurs. Il s’agit en effet de résoudre les équations des écoulements fluides sur toute la planète, en 3 dimensions et avec le plus de détails possibles : le nombre d’opérations à réaliser est gigantesque et seuls les plus puissants supercalculateurs peuvent simuler le climat dans toute sa complexité.
Du fait des propriétés chaotiques de la circulation de l’atmosphère et de l’océan, il faut en outre de nombreuses simulations qui diffèrent très légèrement dans leur état initial pour explorer la distribution des futurs possibles. C’est pourquoi les prévisions décennales seront d’abord probabilistes comme le sont les prévisions saisonnières et météorologiques aujourd’hui. Il faut en effet se souvenir que quand Météo-France nous dit qu’il va pleuvoir demain, c’est que 80 simulations de prévision sur 100 le montrent. Mais il se peut qu’il ne pleuve pas !
Il apparaît donc aujourd’hui essentiel d’établir des ponts entre les scientifiques qui mettent au point les prévisions décennales (et qui en connaissent les limites) et les utilisateurs futurs (qui connaissent le risque que fait courir l’aléa climatique sur leur activité). C’est tout l’enjeu des services opérationnels en cours d’élaboration partout dans le monde ; ces derniers ont pour ambition de transformer ces prévisions en facteur de risque pour de nombreux secteurs et, in fine, en outil d’aide à la décision.
Christophe Cassou du Cerfacs est co-auteur de cet article.
Éric Guilyardi, Directeur de recherches au CNRS et à l’Université de Reading (Grande-Bretagne), Laboratoire d’océanographie et du climat, Institut Pierre-Simon Laplace, Université Pierre et Marie Curie (UPMC) – Sorbonne Universités et Juliette Mignot, Océanographe à l’IRD, membre du laboratoire LOCEAN, Université Pierre et Marie Curie (UPMC) – Sorbonne Universités
La version originale de cet article a été publiée sur The Conversation.