Pour de nombreux secteurs et disciplines du domaine de l’environnement (ressources en eau, biodiversité, risques naturels etc.), la question de l’adaptation au changement climatique est devenue primordiale. Si l’exploitation des projections climatiques à l’échelle du territoire apporte des réponses, elle ne prend pas suffisamment en compte les incertitudes liées aux scénarios d'évolutions socio-économiques et aux modèles numériques (globaux, régionaux, d’impacts) utilisés pour obtenir ces projections, et celles liées à la variabilité naturelle du climat. Pour pallier le manque d’outils efficaces, les auteurs de cet article proposent de nouvelles méthodes statistiques qu’ils ont appliquées à un exemple concret, celui des projections climatiques pour le massif de la Chartreuse dans les Alpes françaises, et pour trois variables, la température, les précipitations et la hauteur de neige moyenne en hiver.

Pour le scientifique comme pour le gestionnaire, la prise en compte des incertitudes est devenue une nécessité bien comprise autant qu'un impératif affiché. Ceci résulte autant de connaissances imparfaites du fait de la complexité des processus en jeux et de l'insuffisance des données disponibles que de multiples sources de variabilité intrinsèque se combinant.  Pourtant, en pratique, il s'agit bien souvent d'un vœu pieu faute d'outils efficaces intégrés par l'ingénieur et le décideur plus habitués à raisonner dans un monde déterministe.

Le cas des projections climatiques est un exemple parfait de cette dichotomie. Pour des nombreux secteurs et/ou disciplines du domaine de l'environnement (ressources, biodiversité, risques, etc.), la réponse au changement climatique est devenue une question primordiale. Alors que l'analyse statistique des données du passé permet de mettre en évidence les évolutions déjà avérées, l'anticipation des changements futurs et la définition de stratégies d'adaptation passent par l'obtention et l'exploitation de projections climatiques. Ces dernières reposent sur des scénarios d'évolution socio-économiques régulièrement mis à jour (IPCC, 2014) et sur l'utilisation en cascade d'un ensemble de modèles numériques permettant de passer de l'échelle globale à l'impact sectoriel d'intérêt. Historiquement, les premières projections climatiques et d'impact étaient effectuées avec une seule chaîne de modèles et un seul (ou au mieux quelques) scénario(s) socio-économique(s). Un relatif consensus scientifique existe à présent quant à la nécessité de travailler avec un ensemble de projections représentant au mieux la variabilité des futurs possibles. Cette multiplicité devrait être prise en compte jusqu'aux actions de gestion, mais en pratique cela reste rarement le cas du fait de la lourdeur qu'implique le traitement d'un ensemble de projections et d'un déficit de méthodes simples et efficaces permettant de s'en accommoder.

Dans le détail, les scénarios sont générés après formulation de nombreuses hypothèses, tandis que les modèles reproduisent au mieux nos connaissances des caractéristiques principales du climat et des phénomènes étudiés. Les projections obtenues comportent donc de nombreuses incertitudes dont les principales sources identifiées sont :

  • l’incertitude « scénarios ». Cette incertitude résulte des différents scénarios sur l'évolution des concentrations des gaz à effet de serre correspondant aux diverses trajectoires d'évolution socio-économiques considérées. Elle est liée aux décisions de politique climatique et à leur implémentation à l'échelle planétaire, ainsi qu'à la façon dont les différentes voies d'évolution possibles sont synthétisées dans des scénarios d'émission de gaz à effet de serre (Representative Concentration Pathways, RCP [1], tableau 1). Les évolutions en jeu (démographie, transition énergétique, croissance économique) étant mal contraintes, cette source d'incertitude est potentiellement importante, en particulier pour les horizons lointains ;
  • les incertitudes « modèles ». Les incertitudes associées aux modèles sont une conséquence des hypothèses simplificatrices de notre compréhension et de nos représentations imparfaites des processus géophysiques. Elles se traduisent par le fait que différents modèles présentent des réponses climatiques différentes pour un même forçage. Par exemple, différents modèles de circulation générale (GCMs, tableau 1), utilisés pour simuler le système Terre et le système climatique au niveau planétaire, produisent, pour le même scénario d'émission, des réponses climatiques globales différentes. C'est aussi le cas pour les modèles de climat régionaux (RCMs, tableau 1) ou pour les modèles d'impact spécifiques. Différents RCMs, forcés par le même GCM, donnent des réponses climatiques régionales différentes. Différents modèles d'impact (hydrologie, biodiversité, etc.) produisent des effets locaux différents pour le même climat régional.

À ces incertitudes se conjugue la variabilité « interne » du climat. La nature chaotique du climat terrestre se traduit par des fluctuations des variables climatiques sur des échelles temporelles multiples (de la journée à quelques dizaines d’années) indépendantes des modifications de long-terme associées aux forçages anthropiques. Elle est irréductible au sens où il s'agit d'une caractéristique propre du système climatique. Contrairement aux différentes sources d'incertitude qui peuvent éventuellement être réduites si notre connaissance augmente (évolution des gaz à effet de serre mieux connue, engagements politiques fermes, ou élimination de certains défauts des modèles climatiques), cette variabilité conduira toujours à un éventail de futurs possibles. Elle est souvent estimée à partir de plusieurs expérimentations d'une même chaîne de modèles.

L’émergence récente des nouvelles théories de l'incertain offre des solutions intéressantes pour gérer ces sources combinées de variabilité et d'incertitude. Toutefois le formalisme sous-jacent reste encore discuté et les outils de calculs peu disponibles. Au contraire, la statistique s'appuie sur un langage assez universellement accepté, le calcul des probabilités, et de nombreuses techniques se rattachant à ce champ disciplinaire peuvent être implémentées dans un environnement logiciel libre et gratuit. L'objet de cet article est d'illustrer, sur un exemple concret, que la statistique offre une boite à outils complète pour traiter un ensemble de projections climatiques. Ces outils peuvent être de simples résumés descriptifs de l’information, mais également des modèles explicites permettant l'évaluation des contributions respectives des différentes sources d'incertitude et de variabilité à l'incertitude totale des projections. L'exemple choisi est celui des projections climatiques en zone de montagne (Verfaillie et al., 2018).

Projections climatiques en un point des Alpes du Nord (Chartreuse, 1 500 m)

Le réchauffement en Europe a été très marqué et s’est accéléré pendant la période 1985-2000 (IPCC, 2014). Les régions montagneuses sont très sensibles au changement climatique (Beniston, 2005) et de nombreuses problématiques sont liées à l'enneigement (tourisme, biodiversité, risques naturels, etc.). Or, les conditions d’enneigement sont particulièrement affectées par le réchauffement via l’élévation progressive de l'isotherme 0 °C, en particulier aux altitudes moyennes de transition entre précipitations solides (neige) et liquides (pluie).

Nous illustrons ces évolutions à partir des scénarios d'émission RCP 4.5 (médian) et RCP 8.5 (pessimiste) [2] et pour différentes combinaisons de modèles globaux de circulation (6 GCMs) et de modèles de climats régionaux (5 RCMs), comme l’indique le tableau 2. Ces simulations ont été produites pour les périodes 1950-2005 (runs historiques, certains runs ne sont disponibles qu'à partir de 1981) et 2006-2100 (runs futurs à partir des scénarios RCP) sur la base des expériences climatiques Euro-Cordex par les GCMs de l'ensemble CMIP 5. Elles ont été utilisées par Verfaillie et al. (2018) pour étudier les conditions futures de neige dans les Alpes françaises. Les scénarios bruts d'Euro-Cordex ont en particulier été adaptés à la topographie des massifs montagneux via la méthode AdaMont v1.0 en utilisant la réanalyse Safran comme base d'observations. Les scénarios adaptés ont été utilisés pour forcer le modèle de neige Crocus permettant de simuler la dynamique  temporelle du manteau neigeux pour ces différents massifs. À titre d'exemple, nous considérons ici le massif de la Chartreuse à 1 500 m, ce qui correspond approximativement au Col de Porte, France (45.3°N, 5.77°S, altitude de 1 325 m). Sont analysés les résultats des simulations obtenues pour trois variables agrégées à une échelle annuelle: deux variables météorologiques, la température annuelle moyenne et le cumul annuel de précipitation, et une variable d'enneigement, la hauteur de neige moyenne de l'hiver (définie comme la période de décembre de l'année N à avril de l'année N +1 inclusivement, soit cinq mois).

La figure 1 présente les moyennes glissantes sur quinze ans des projections climatiques de température annuelle moyenne [°C], totaux annuels de précipitation [kg m-2] et de hauteur de neige moyenne en hiver [m], obtenus avec les scénarios d'émission RCP 4.5 et RCP 8.5 et les treize combinaisons GCM/RCM.  Quel que soit le scénario d'émission, les tendances sur les températures sont claires, puisqu'on gagne entre 1 °C et 3 °C en température annuelle moyenne entre la période centrée sur 1995 et celle centrée sur 2085 avec le scénario RCP 4.5 et entre 3 °C et 5 °C avec le scénario RCP 8.5. Malgré une évolution beaucoup moins nette des précipitations totales (pluie et neige), cette forte évolution des températures se traduira logiquement en une baisse des quantités de neige au sol, la proportion de précipitation sous forme de neige diminuant au cours du vingt-et-unième siècle.

Résumer l'information par des statistiques descriptives pertinentes

Une manière directe de résumer la variabilité présente dans les projections est d'utiliser des statistiques descriptives sur une fenêtre glissante (Verfaillie et al., 2018). Nous calculons les quantiles Q05, Q17, Q50, Q83 et Q95 de toutes les paires RCM/GCM, sur une fenêtre glissante de quinze ans, pour les scénarios RCP 4.5 et RCP 8.5. Ces statistiques permettent d'obtenir assez directement une idée de la variabilité des projections, en examinant les intervalles inter-quantiles (intervalle à 90 %, Q05-Q95 et intervalle à 66 %, Q17-Q83), même si elles ne permettent pas de distinguer la variabilité interne de la variabilité inter-modèle (figure 2). Clairement, l'impact du scénario d'émission devient significatif pour la seconde moitié du vingt-et-unième siècle pour la température et la hauteur de neige moyenne, les intervalles à 66 % et 90 % se superposant beaucoup moins à cet horizon.

Partitions des incertitudes

L'estimation des différentes sources d'incertitude (incertitude liée au scénario d'émission, au GCM, au RCM, évaluation de la part de la variabilité interne dans la variabilité totale des projections) est une problématique importante au sein de la communauté des sciences du climat. Classiquement, il est supposé que leur partition peut être effectuée à partir des différents membres disponibles pour les différentes combinaisons de modèles climatiques GCM/RCM, pour chaque scénario d'émission. De cette façon, les méthodes d'analyse de variance (ANOVA) peuvent être directement appliquées (Hawkins et Sutton, 2009 ; Hingray et Saïd, 2014). Cette section présente les résultats obtenus avec la méthode décrite dans Evin et al. (2019), qui utilise une une méthode inspirée de Hingray et Saïd (2014) et enrichie d'une méthode d'estimation bayésienne afin de pouvoir caractériser les différentes sources d'incertitude même lorsque la matrice des expériences (combinaisons scénarios/GCM/RCM) n'est pas complète.

Pour une combinaison spécifique GCM/RCM/RCP et une année t, Yi,j,k (t) désigne les projections climatiques brutes d'une variable climatique (par exemple : la température, les précipitations), où i est l'indice du GCM, j celui du RCM et k celui du scénario d'émission RCP.

Réponse au changement climatique versus variabilité interne

Quand il n'y a aucune répétition des scénarios pour chaque combinaison de modèles climatiques, une solution possible est de considérer que la réponse climatique d'une chaîne correspond à sa composante basse fréquence. Cette variation doit être graduelle et lisse, la variabilité à plus haute fréquence des séries temporelles correspondant à la variabilité interne. Cette hypothèse de quasi-ergodicité a conduit à la méthode QE-ANOVA proposée par Hingray et Saïd (2014).

Ici, des signaux de basse-fréquence sont extraits à l'aide de splines cubiques RC i,j,k (t). Les projections climatiques brutes peuvent alors être décomposées selon l'expression suivante :

Yi,j,k (t) = RC i,j,k (t) + VI i,j,k (t)
équation 1

où RC i,j,k (t) est la réponse au changement climatique obtenue pour l'année t sous le scénario RCP k avec la chaîne de modélisation constituée du GCM i et du RCM j , et VI i,j,k (t) est l'écart à la réponse  au changement climatique résultant de la variabilité interne. Par la suite et pour des raisons de simplification, nous utiliserons le terme de réponse climatique en lieu et place du terme réponse au changement climatique. Notons que dans la littérature, Yi,j,k (t) correspond souvent à une moyenne sur de longues périodes (par exemple quinze ans) centrées sur t. Dans ce cas, une partie de la variabilité interne (la variabilité haute fréquence) VI i,j,k (t) disparaît. Ce n'est pas le cas ici, l'analyse présentée traitant directement les variables annuelles.

Différences absolues et relatives

Les projections climatiques sont habituellement analysées en terme de différences absolues Y*i,j,k (t) =Yi,j,k (t) – RC i,j,k (c) (par exemple pour la température) ou relatives Y*i,j,k (t) =Yi,j,k (t) / RC i,j,k (c) – 1 (par exemple pour les précipitations), par rapport à à la réponse climatique RC i,j,k (c) pour l'année de « contrôle » c. Analyser ces différences (au lieu des projections « brutes ») permet d'éliminer une partie des biais dans les simulations des modèles climatiques. Ici RC i,j,k (c) correspond à l'estimation robuste de la réponse climatique pour l'année c = 1990, obtenue à l'aide de splines cubiques en utilisant l'ensemble du signal (et non pas seulement une sous-période).

De manière similaire à l'équation 1, Y*i,j,k (t) peut être décomposé entre réponse climatique et variabilité interne :

Y*i,j,k (t) = RC* i,j,k (t) + VI*i,j,k (t)
équation 2

où RC* i,j,k (t) correspond à la réponse climatique et VI*i,j,k  (t) à la variabilité interne.

Décomposition de la réponse climatique

La réponse climatique RC* i,j,k (t) est décomposée selon l'expression suivante :

RC* i,j,k (t)  = M(t) + Gi (t) + Rj (t) + Sk (t) + ei,j,k (t) 
équation 3

où :

  • M(t) est la réponse climatique moyenne associée à toutes les combinaisons RCM/GCM/RCP,
  • Gi (t) est l'écart à la réponse climatique moyenne lié au GCM i,
  • Rj (t) est l'écart à la réponse climatique moyenne lié au RCM j,
  • Sk (t) est l'écart à la réponse climatique moyenne lié au scénario RCP k,
  • ei,j,k (t) = RC* i,j,k (t) – M(t) – Gi (t) – Rj (t) – Sk (t) sont des termes résiduels qui ne sont pas attribués aux effets principaux des modèles GCMs, RCMs ou scénarios RCPs.

Une approche bayésienne permet d'estimer les différents effets en présence de scénarios manquants, qui sont considérés comme des paramètres additionnels à estimer. Pour chaque type d'effet (RCM, GCM et RCP), la somme des effets est contrainte de telle manière qu'elle soit nulle (par exemple : ∑ i Gi (t) = 0).

La figure 3 présente les différents effets estimés pour les changements absolus de température (°C), les changements relatifs de précipitation (–) et les changements absolus de hauteur de neige moyenne en hiver (m) par rapport à l'année de référence 1990. La réponse climatique moyenne (figure 3a) permet de détecter clairement les tendances, de manière beaucoup moins bruitée qu'avec les signaux bruts présentés en figure 1. La tendance à la hausse des températures est quasi linéaire, avec un gain d'environ 2,5 °C et 5,5 °C d'ici la fin du vingt-et-unième siècle  pour les scénarios d'émissions RCP 4.5 et RCP 8.5, respectivement, par rapport à l'année 1990. Concernant les précipitations, aucune évolution notable n’apparaît avec le scénario RCP 4.5. Une légère baisse est projetée avec le scénario RCP 8.5, de l'ordre de 10 % d'ici la fin du vingt-et-unième siècle, l'incertitude sur cette évolution étant cependant élevée. Les hauteurs de neige moyennes en hiver devraient respectivement baisser de 0,4 m et 0,7 m en moyenne pour les scénarios RCP 4.5 et RCP 8.5. Les différences des scénarios d'émission RCP 4.5 et RCP 8.5 sont notables très rapidement pour la température et la hauteur de neige, dès 2010, ce qui montre bien l'influence des hypothèses d'émission de gaz à effets de serre sur les projections de température et de neige. Pour la précipitation, ce n'est qu'à partir de 2050 que les réponses climatiques moyennes se distinguent, avec une plus forte incertitude.

Les effets des différents GCMs et RCMs sont représentés à la figure 3b-c. Pour la température et la hauteur de neige, les GCMs D et A se distinguent clairement des autres GCMs (ils sont respectivement « plus chauds »/« plus froids » que les autres) et contribuent donc fortement à l'incertitude liée aux GCMs. Les différents RCMs conduisent aussi à des climats régionaux plus ou moins chauds (b est « plus chaud », c est « plus froid »), mais la dispersion entre les effets des différents RCMs est moindre que celle obtenue entre les effets des différents GCMs.

Décomposition des incertitudes des projections climatiques

La méthode ANOVA permet de décomposer la variabilité totale des projections climatiques. La variance totale est simplement la somme des variances associées aux différents effets. Pour chaque temps t, l'incertitude totale des différences Y*i,j,k (t) est la somme des incertitudes dans les réponses climatiques et la variabilité interne :

Var [Y*i,j,k (t)] = Var [RC *i,j,k (t)] + Var [VI *i,j,k (t)]
équation 4

et la variance des réponses climatiques Var [RC *i,j,k (t)] est la somme des variances des différentes composantes :

Var [RC*j,k (t)] = Var [Gi (t)] + Var [Rj (t)] + Var [ei,j,k (t)]
équation 5

où Var [Gi (t)]  est lié aux différences entre les effets dus aux GCMs, Var [Rj (t)]  est lié aux différences entre les effets dus aux RCMs et Var [ei,j,k (t)] est l'incertitude résiduelle des réponses climatiques. Nous supposons ici que la variabilité interne Var [VI *i,j,k (t)] est constante sur la période 1990-2098. Comme indiqué plus haut, nous rappelons qu'ici, la variabilité interne est estimée à une échelle annuelle, et est donc potentiellement beaucoup plus importante que lorsque la variable considérée est moyennée sur plusieurs années (par exemple, quinze ans).

La figure 4 représente la proportion de l'incertitude totale expliquée par chaque source d'incertitude. Pour chaque scénario RCP, nous présentons d'abord la réponse climatique moyenne associée (somme de la réponse climatique moyenne et de l'effet RCP) avec un intervalle de confiance à 90 % représentant l'incertitude totale (due aux effets GCM et RCM, à la variabilité résiduelle et à la variabilité interne). Cette figure est analogue à la figure 2 mais a l'avantage de présenter une estimation robuste de l'incertitude totale, qui prend en compte explicitement l'impact des combinaisons GCM/RCM manquantes dans son estimation. Pour un scénario d'émission donné, l'incertitude totale augmente assez peu au cours du siècle. Elle est très importante en comparaison des changements moyens attendus pour la variable considérée, surtout pour la précipitation et la hauteur de neige (figure 4a-b). Pour ces deux variables, la variabilité interne est très importante en comparaison de  la tendance principale.

La figure 4c représente la proportion de l'incertitude totale expliquée par chaque source d'incertitude. La part de la variabilité des projections liée à l'incertitude de modèles climatiques (RCM, GCM) atteint environ 20 % à la fin du vingt-et-unième siècle pour la température et la précipitation, cette part étant très faible pour la hauteur de neige moyenne en hiver. L'influence du scénario d'émission est quant à lui prépondérant pour la température à horizon 2100 (environ 70 % de la variabilité totale) alors que pour la précipitation et la hauteur de neige moyenne, une grande partie de la variabilité des futurs possible à cet horizon reste liée à la nature chaotique du climat (variabilité interne). Contrairement à la précipitation et à la hauteur de neige, cela signifie que nos projections de températures pourraient potentiellement être nettement affinées si les évolutions des émissions de gaz à effet de serre étaient mieux connues.  La part de la variance résiduelle (en jaune sur la figure 4c) est faible et confirme que se limiter aux termes du premier ordre (c'est-à-dire ne pas considérer d'interactions GCM-RCM ou GCM-scénario par exemple) dans la décomposition de la variance totale est une hypothèse raisonnable.

Conclusion

La mise en place de mesures d'adaptation au changement climatique efficaces ne peut plus faire abstraction de la nécessité de traiter des ensembles de projections, de taille croissante, représentant du mieux possible la variabilité des futurs possibles. Pour les décideurs, il est donc primordial de disposer d'un arsenal méthodologique afin de les gérer rigoureusement. Cet article illustre l'apport des outils statistiques à cet effet. Ces outils se basent sur un formalisme très solide, la théorie des probabilités. En particulier, les méthodes ANOVA permettent de mieux caractériser les différentes sources d'incertitude dans les projections. En particulier, la variabilité interne du climat est importante à quantifier correctement car c'est une source d'incertitude irréductible et majeure pour de nombreuses variables hydroclimatiques.
L'approche est applicable aux variables météorologiques directement fournies par les projections climatiques, mais aussi à des variables issues de leur transformation par des modèles d'impact, quelles que soient leur nature et leur complexité.

 


 

[1] Les scénarios RCP permettent de modéliser le climat du futur en fonction de différentes hypothèses d’émissions de gaz à effet de serre.

[2] Les deux scénarios sont nommés d'après la gamme de forçage radiatif  obtenue pour l'année 2100 : le scénario RCP 4.5 correspond à un forçage de + 4,5 W/m2, et le scénario RCP 8.5 à +8,5 W/m2. Concrètement, le scénario RCP 4.5 correspond à une trajectoire de stabilisation dès 2050 des émissions de gaz à effet de serre (scénario optimiste) alors que le RCP 8.5 décrit une trajectoire croissante de type business as usual, c’est-à-dire correspondant à la trajectoire actuelle.

Pour citer cet article :

Référence électronique :
EVIN, Guillaume ; ECKERT, Nicolas ; HINGRAY, Benoit ; MORIN, Samuel ; VERFAILLIE, Deborah ; LAFAYSSE, Matthieu ; BLANCHET, Juliette, La statistique, une boîte à outils complète pour quantifier l'incertitude – Application aux projections climatiques en zone de montagne, Revue Science Eaux & Territoires, Changement climatique : quelle stratégie d'adaptation pour les territoires de montagne ?, numéro 28, 2019, p. 90-97, 01/08/2019. Disponible en ligne sur <URL : http://www.set-revue.fr/la-statistique-une-boite-outils-complete-pour-quantifier-lincertitude-application-aux-projections> (consulté le 22/10/2019), DOI : 10.14758/SET-REVUE.2019.2.19.

Ajouter un commentaire

Télécharger au format PDF
↑ Haut de page