Si l’on dispose en France de réseaux de mesure pluviométriques et hydrométriques conséquents, il reste difficile d’estimer des valeurs extrêmes de pluie ou de débit sur l’ensemble du territoire, les séries d’observation étant le plus souvent trop courtes pour donner directement une information sur les événements extrêmes. Après un tour d’horizon sur les méthodes d’estimation disponibles pour l’ingénierie des inondations, les auteurs de l’article présentent ici un travail de comparaison qui permet de mieux cerner leur domaine d’application.

Le contexte des inondations

Les conséquences des inondations

Le ministère de l’Environnement, de l’Énergie et de la Mer (MEME) estime que près d’un habitant sur quatre en France est exposé au risque d’inondation. Chaque année en moyenne, on déplore de 650 à 800 millions d’euros de dommages dus aux inondations (coût moyen annuel sur la période 1990-2010). Si l’on intègre la possibilité de survenue d’un événement majeur (type crue de la Seine de 1910, dont les dommages potentiels actuels sont estimés entre 30 et 40 milliards d’euros), le coût moyen varie dans une fourchette de 1 à 1,5 milliards d’euros. Le nombre de victimes reste relativement faible (185 victimes sur la période 1980-2000), mais il a un fort retentissement sociétal du fait d’une concentration dans l’espace et le temps (par exemple, 25 victimes à Draguignan le 15 juin 2010, ou plus récemment 20 victimes à Cannes le 3 octobre 2015).

Le niveau de protection

Selon les enjeux considérés, la société cherche à mettre en place des ouvrages de protection ou des réglementations-procédures permettant de réduire les effets des inondations. L’aléa de référence, lorsqu’il est exprimé en termes de probabilité annuelle de dépassement, va de 10-1 pour le réseau d’assainissement ou le réseau routier secondaire (pluie ou crue décennale étant dépassée en moyenne une année sur dix), 10-2 les zones d’habitation ou pour les autoroutes, 10-3 au sens de l’aléa majeur de la directive européenne sur les inondations, et jusqu’à 10-4 voire au-delà pour des ouvrages sensibles (grands barrages, centrales nucléaires). Les séries d’observation ne couvrent généralement que quelques décennies et sont insuffisantes pour donner des éléments fiables sur des valeurs extrêmes associées à de faibles probabilités annuelles de dépassement (10-3 à 10-4). En outre, si le réseau d’observation pluviométrique est plutôt bien adapté à la variabilité des précipitations en France (sauf en secteur de montagne), le constat est bien différent pour le réseau hydrométrique. Il existe aujourd’hui environ 2 400 stations de mesure hydrométrique en France, mais on constate une très forte variabilité spatiale des débits de crue (variation dans un rapport de 1 à 100 du débit de pointe spécifique décennal, par exemple). De plus, la donnée hydrométrique n’existe souvent pas à proximité immédiate du site exposé aux inondations. Il est alors nécessaire de transférer la donnée des sites les plus proches ou les plus similaires pour étudier l’aléa sur les sites dits non jaugés. Il y a donc souvent une double extrapolation à réaliser : une extrapolation spatiale (ou régionalisation de l’information) et une extrapolation en fréquence pour étudier les événements extrêmes.

Les différentes méthodes d'estimation des valeurs extrêmes de pluie et de crue

Il existe de nombreuses méthodes d’estimation des valeurs extrêmes, faisant appel à des approches parfois très différentes, souvent orientées par la disponibilité des données.

Les approches purement statistiques

La théorie des valeurs extrêmes (Coles, 2001) offre un cadre mathématique rigoureux pour l’estimation des probabilités de valeurs extrêmes (figure 1). Elle indique que le comportement asymptotique de valeurs maximales annuelles ou de valeurs supérieures à un seuil converge en probabilité respectivement vers une loi GEV (loi généralisée des valeurs extrêmes) ou une loi GP (loi Pareto généralisée). Ce résultat théorique repose néanmoins sur des hypothèses (valeurs de l’échantillon indépendantes et identiquement distribuées ; échantillon de taille suffisamment grande) qui sont rarement toutes vérifiées en hydrologie opérationnelle. L’homogénéité des valeurs de l’échantillon peut souvent être discutée du fait de discontinuités dans les processus atmosphériques, hydrologiques et hydrauliques, avec des effets de seuil physique. Par ailleurs, les tailles d’échantillon sont bien souvent trop faibles pour garantir la représentativité des échantillons de calage vis-à-vis des valeurs extrêmes. C’est pour cette raison que les hydrologues ont proposé des alternatives pour augmenter les chances de disposer de valeurs extrêmes.

Une première idée consiste à rechercher des records de pluie ou de crue à l’échelle de la région englobant le site d’étude. La principale difficulté de ces approches régionales consiste à définir correctement la notion de région hydrologique homogène à l’intérieur de laquelle les valeurs de pluie ou de crue peuvent être considérées comme issues d’une même population statistique. Depuis la première application de cette méthode (« index flood method » ; Dalrymple, 1960), de nombreux raffinements ont été apportés sur la façon de définir les régions (découpage géographique en zones contiguës puis non contiguës, notion de voisinage hydrologique) et sur la façon de combiner les informations d’une même région (normalisation par un indice de crue, pondération en fonction de la taille de chaque série, prise en compte de la dépendance spatiale). On distingue deux modes d’application de ces approches régionales : un mode local-régional où l’on combine une information disponible au droit du site cible avec les informations de la région englobant le site, et un mode régional où l’on transfère spatialement l’information de sites proches vers un site cible sans aucune mesure hydrologique.

Une seconde idée consiste à remonter dans le temps et à collecter des informations sur les crues anciennes, antérieures à l’existence de séries de mesure en continu. Les sources documentaires (services techniques des Ponts et Chaussée, de la météorologie, archives nationales-départementales-communales, fonds Maurice Pardé, ouvrage de Maurice Champion, base BDHI : http://bdhi.fr/, base de données historiques sur les inondations…) contiennent des informations sur le niveau de submersion atteint lors de crues anciennes qu’il est ensuite possible de traduire en débit à l’aide de reconstitutions hydrauliques. Il est nécessaire d’adapter le cadre statistique d’analyse pour traiter un échantillon mixte constitué des valeurs maximales d’une chronique récente continue et d’une collection de crues anciennes sur une période historique. L’hypothèse est faite que le débit maximal des années sans crue ancienne connue est inférieur à un seuil de perception (Payrastre et al., 2011). Dans ce cas, l’hypothèse de stationnarité du phénomène est encore plus forte puisque l’on associe des données couvrant une large période d’observation.

Les approches naturalistes

À l’opposé des approches statistiques qui visent à traiter une collection de valeurs fortes de pluie ou de crue pour en déduire une distribution de probabilité, les approches naturalistes s’intéressent principalement aux crues les plus fortes, à l’échelle de plusieurs millénaires. Les crues extrêmes, dites morphogènes, sont caractérisées par de fortes vitesses d’écoulement qui ont induit un transport solide avec des dépôts de sédiments dans des zones spécifiques (élargissement de la section d’écoulement, zones de confluence, limites extrêmes de la zone inondée). L’approche hydrogéomorphologique permet, à partir d’une analyse des cartes topographiques au 1/25 000, de stéréographies aériennes et de reconnaissances de terrain par un géomorphologue, de distinguer les différentes unités du lit d’écoulement de la rivière : le lit mineur correspond à la section usuelle d’écoulement, le lit moyen assure la transition entre le lit mineur et le lit majeur, et le lit majeur, qui fonctionne pour les crues importantes, correspond généralement à la plaine alluviale. Les limites de ce dernier lit donnent une idée de l’extension maximale du champ d’inondation. Cette méthode a fait l’objet d’une application généralisée à l’ensemble de la région Midi-Pyrénées [1] et des principaux cours d’eau des régions Languedoc‑Roussillon et Provence‑Alpes‑Cote‑d’Azur [2]  dans le cadre de la mise en place d’une  cartographie informative sur les zones inondables.

Il est possible d’aller plus loin dans l’analyse à partir d’une approche paléo-hydrologique. Les dépôts de fortes crues étant espacés chronologiquement de plusieurs années-décennies-siècles, ils se présentent physiquement sous la forme d’un « mille-feuilles » avec une alternance de couches de sédiments de crue avec une granulométrie spécifique et de couches de terre végétale qui se développent pendant les périodes « calmes » sans crue. Des techniques d’analyse stratigraphique et de datation des dépôts (14 C, 210 Pb, 137 Cs, historique des pollutions) sont utilisées pour individualiser finement chaque événement de crue et proposer une fourchette de date d’occurrence.

Ces approches naturalistes permettent d’élargir considérablement l’échelle chronologique d’investigation et donnent des éléments objectifs sur les crues majeures survenues sur le bassin versant. En ce sens, elles évitent l’étape d’extrapolation des approches purement statistiques où l’on passe de crues observées sur quelques décennies, voire quelques siècles, à des crues extrêmes ayant une très faible probabilité d’être dépassées. L’extrapolation se situe à un autre niveau, en termes de représentativité des niveaux de crue anciens dans le contexte climatique actuel : ces niveaux atteints dans des conditions climatiques et géomorphologiques du passé lointain restent-ils représentatifs du risque d’inondation actuel et futur ?

Les approches exploitant la connaissance des processus hydrologiques

À partir du constat simple que les crues extrêmes sont le plus souvent provoquées par des pluies fortes, les hydrologues ont proposé d’utiliser des modèles hydrologiques représentant de façon plus ou moins complexe et détaillée la réponse du bassin versant à une sollicitation pluviométrique. Une première approche consiste à transformer directement une pluie de référence en une crue de référence, en faisant l’hypothèse de conservation de la période de retour entre la pluie et le débit. Cette approche est souvent utilisée en secteur urbain avec un modèle hydrologique simplifié (par exemple, le modèle par hydrogramme unitaire du Soil Conservation Service) ou en pays anglo-saxon pour les crues de sécurité des grands barrages (pluie maximale probable transformée en crue maximale probable). Une seconde approche consiste à considérer l’existence d’une liaison pluie-débit en termes probabiliste et pas seulement sur un événement de référence. La méthode du Gradex (tableau 1), qui conditionne l’extrapolation de la distribution des crues à partir d’une information issue de la distribution des pluies (le paramètre d’échelle ou gradex des pluies), a ainsi été mise en œuvre pendant une trentaine d’années en France (période 1970-2000) pour le dimensionnement des évacuateurs de crue des grands barrages.

Depuis les années 2000, deux approches plus complètes ont été développées en France : la méthode SCHADEX (Paquet et al., 2013) et la méthode SHYREG (Arnaud et al., 2014) (tableau 1 ). Elles sont toutes deux basées sur le couplage d’un simulateur d’averses avec un modèle hydrologique représentant de façon appropriée la transformation pluie-débit. L’idée est de générer un grand nombre d’événements pluvieux ou d’averses, qui sont ensuite transformés en débit de pointe de crue ou en hydrogrammes de crue. La rapidité des calculs sur ordinateur permet sans problème de simuler plusieurs milliers d’années de chronique d’événements pluvieux et de crue, de classer les valeurs et d’en déduire directement la distribution des valeurs extrêmes, sans passer par l’ajustement et l’extrapolation d’une distribution théorique. L’intérêt de ces approches par simulation est de prendre en considération toute la combinatoire possible de croisement entre aléa pluviométrique et conditions initiales de saturation du bassin versant, sans hypothèse simplificatrice comme pour les méthodes antérieures. À noter toutefois que l’étape d’extrapolation se situe ici en amont, lorsqu’il est fait l’hypothèse que le simulateur d’averse et le modèle hydrologique, tous deux calés sur quelques décennies d’observation, sont bien adaptés au comportement climatologique et hydrologique en situation d’aléa extrême.

Avantages et limites des différentes méthodes

La multiplicité des méthodes d’estimation peut conduire à des résultats parfois très différents dans l’estimation des valeurs extrêmes (figure 2), avec les approches purement statistiques appliquées sur une série locale (loi Gumbel, GEV) ou à l’échelle régionale (loi GEV régionale), les approches basées sur l’information pluviométrique (AGREGEE, GRADEX, SCHADEX, SHYREG), et le calage d’une loi GEV sur un échantillon mixte (série récente et information historique). La variabilité de ces résultats est liée aux différentes hypothèses des méthodes qui conditionnent leur extrapolation en fréquence (tableau 1).

Comment porter un diagnostic ?

Au niveau opérationnel, on souhaite disposer de la meilleure estimation possible de l’aléa. La valeur estimée doit être conforme au niveau de protection souhaitéprobabilité annuelle de dépassement ; crue historique ; crue maximale) et de préférence ne pas devoir être révisée fréquemment à la hausse ou à la baisse au fur et à mesure que les chroniques d’observation se prolongent. Quand on doit évaluer les performances d’un système de prévision météorologique ou hydrologique, il est assez simple de comparer valeur prévue et valeur observée. Il suffit de quelques années pour conclure sur l’intérêt ou les limites d’une méthode de prévision. Dans le cadre d’un aléa de référence, une valeur de pluie ou une crue associée à une probabilité annuelle de dépassement p ne peut pas aussi facilement être évaluée. Pour la pluie décennale, par exemple, on s’attend ainsi à ce qu’elle soit dépassée en moyenne cinq fois en cinquante ans. Pour affiner le diagnostic, il est préférable de reproduire le test sur un ensemble de chroniques. Une méthode d’estimation pourra alors être écartée si l’on observe un biais systématique sur la probabilité de référence (cf. sur ou sous-estimation systématique).

Dans le cadre du projet de recherche ExtraFlo (ANR, 2009-2013, http://extraflo.irstea.fr/), un jeu conséquent de données a été constitué avec près de 40 000 années-stations pluviométriques et 47 000 années-stations hydrométriques. Le jeu de données a été divisé en jeu de calage sur lequel toutes les méthodes testées ont été calées, et un jeu de validation pour évaluer les performances des méthodes d’estimation. Deux familles de critère ont été retenues : la justesse qui permet d’évaluer la conformité de l’aléa de référence avec sa probabilité théorique, et la stabilité qui renseigne sur la sensibilité des estimations à l’échantillon de calage. Le choix entre méthodes se portera en priorité sur les méthodes « justes » avec un biais systématique faible, puis parmi ces méthodes, celles dont l’estimation reste stable vis-à-vis de la période de calage considérée.

Il est important ici de signaler une erreur courante qui consiste à confondre le pouvoir descriptif d’une méthode d’estimation avec son pouvoir prédictif. Ainsi, une méthode hyper-paramétrée sera systématiquement bien évaluée sur l’échantillon de calage, mais donnera de piètres résultats dès lors que l’on considère ses performances sur un échantillon de validation différent de l’échantillon de calage. D’un point de vue pratique, le gestionnaire d’ouvrage, l’État, la collectivité souhaitent que l’aléa de référence soit correctement évalué pour les prochaines années, et pas seulement à titre rétrospectif sur les années déjà passées. Il convient ainsi de rester prudent dans l’analyse graphique d’ajustements de loi de probabilité, une valeur record dans un échantillon restant très difficile à positionner en fréquence empirique.

Recommandations pour l’estimation des pluies extrêmes

Les évaluations menées dans le cadre du projet ExtraFlo ont montré clairement que l’approche classique, basée sur le calage d’une loi de valeurs extrêmes sur un échantillon local, est déconseillée. Si on utilise une loi à décroissance exponentielle à deux paramètres (loi de Gumbel ou loi exponentielle) sur un échantillon global de précipitations journalières ou infra‑journalières sans découpage préalable en sous‑populations homogènes, on sous‑estime la distribution des pluies fortes. Si au contraire, on utilise une loi à trois paramètres (loi GEV ou loi GP), on ne dispose pas assez d’information pour caler correctement le paramètre de forme qui conditionne le comportement asymptotique de la distribution des valeurs extrêmes. Trois méthodes sont recommandées : l’approche régionale de type index-flood avec une loi GEV, le modèle de simulation de chroniques de pluies horaires SHYREG-Pluies et le modèle statistique MEWP issu de la méthode SCHADEX, qui consiste à découper au préalable l’échantillon disponible en sous-échantillons par type de temps. Les deux premières méthodes ont donné de bons résultats en mode purement régional, en site non jaugé (validation sur des stations non utilisées lors de la phase de calage). À noter que l’approche usuelle consistant à estimer les paramètres d’une loi GEV au droit de tous les postes voisins et à établir ensuite une régression expliquant ces paramètres en fonction de co‑variables géographiques ne donne pas de bons résultats.

Recommandations pour l’estimation des crues extrêmes

Comme pour les pluies, l’approche standard basée sur l’ajustement des paramètres d’une loi de valeurs extrêmes est déconseillée. Elle extrapole dans la continuité des observations et peut conduire à de forts biais d’estimation. Il est préférable de conforter l’extrapolation à l’aide de l’information pluviométrique (méthodes SHYREG-Débit et SCHADEX), de l’information régionale (approche locale-régionale de l’index-flood avec une loi GEV) ou de l’information historique quand elle est disponible. Le cas de l’estimation des crues en site non jaugé s’avère problématique eu égard à la forte variabilité des débits de crue sur le territoire. Si aucune méthode ne donne de résultat complètement satisfaisant, il est préférable toutefois d’utiliser la méthode SHYREG-Débit ou l’approche régionale de l’index-flood avec une loi GEV.

L’emprise de la zone inondée par une crue extrême peut être obtenue par une approche déterministe via le routage d’un hydrogramme de crue de référence par un modèle hydraulique, ou par une approche hydro-géomorphologique exploitant les traces laissées par les crues anciennes. Les deux approches se révèlent complémentaires : la première est recommandée en secteur anthropisé où les conditions d’écoulement ont pu être fortement modifiées et peut être associée à une occurrence (période de retour). La seconde donne rapidement une enveloppe générale de la zone inondable maximale sur l’ensemble du linéaire d’un cours d’eau. L’information historique en termes de laisses de crue est par ailleurs une information intéressante pour contrôler la cohérence des lignes d’eau obtenues.

Pistes de recherche actuelles

Les plus fortes marges de progression résident aujourd’hui dans l’estimation de valeurs extrêmes en site non jaugé. Pour les pluies, Météo-France et Irstea mettent déjà à disposition les quantiles de pluie SHYREG à l’échelle du pixel de 1 km2 pour l’ensemble de la métropole et des départements d'outremer. Un travail est en cours à Météo-France pour rajouter les quantiles de pluie issus d’une approche régionale de type index-flood à l’aide d’une loi GEV. Pour les débits, le ministère  chargé de l’environnement et Irstea mettent à disposition (http://shyreg.irstea.fr) les quantiles de débit SHYREG sur 130 000 exutoires de la métropole, pour des bassins d’une superficie de 5 à 5 000 km2 (figure 3). Un travail est en cours pour améliorer les estimations dans le cas de bassins complexes (influence de barrages, du karst ; fonte nivale ; secteur urbanisé).

 


 

[1] http://www.languedoc-roussillon.developpement-durable.gouv.fr/methode-utilisee-l-approche-hydrogeomorphologique-a603.html

[2] http://wikhydro.developpement-durable.gouv.fr/index.php/Cartographie_des_zones_inondables_par_ approche_hydrogéomorphologique

Pour citer cet article :

Référence électronique :
LANG, Michel ; ARNAUD, Patrick, La détermination des valeurs extrêmes de pluie et de crue en France, Revue Science Eaux & Territoires, Gestion du risque inondation : connaissances et outils au service de l'aménagement des territoires, numéro 23, 2017, p. 42-47, 30/05/2017. Disponible en ligne sur <URL : http://www.set-revue.fr/la-determination-des-valeurs-extremes-de-pluie-et-de-crue-en-france> (consulté le 28/10/2020), DOI : 10.14758/SET-REVUE.2017.23.08.

Ajouter un commentaire

Télécharger au format PDF
↑ Haut de page