Si l'on connaît assez bien les principales zones où se produisent les avalanches, il est plus difficile de prévoir les caractéristiques précises de ces événements extrêmes.
Après un tour d'horizon des méthodes traditionnelles utilisées en ingénierie paravalanche pour prédéterminer les événements extrêmes et calculer les risques, les auteurs de l'article nous présentent ici des nouvelles méthodes combinant statistiques et modèles dynamiques d’écoulement, qui permettent d’employer de manière plus rigoureuse les notions de période de retour et de risque.

Caractériser les avalanches rares

Aléa de référence et période de retour

En ingénierie des risques naturels, le problème de la prédétermination est généralement traité grâce à un aléa* de référence, par exemple un débit de crue. L’aléa de référence permet le dimensionnement d’ouvrages de protection et le zonage*, c'est-à-dire le découpage de l’espace en secteurs assortis de prescriptions en matière d’urbanisme. Il est souvent exprimé sous la forme d’une période de retour*. Celle-ci n’implique pas de notion de périodicité. Elle indique l’intervalle de temps moyen en années séparant deux événements d’intensité au moins égale à celle de l’aléa de référence. De façon formelle, si F(z) est la fonction de répartition annuelle du phénomène Z considéré, la période de retour TZ associée à l’aléa de référence z est l’inverse de la probabilité annuelle de dépassement de la valeur z (équation 1 ). L’évaluation de périodes de retour est un problème d’extrêmes dans la mesure où il s’agit d’extrapoler les événements les plus graves à partir de séries de données relativement courtes. Les modèles statistiques classiques permettant d’y répondre, de type maximas annuels ou renouvellement, sont bien connus en hydrologie.

Les spécificités de l’aléa avalancheux

La durée d’une avalanche ne permet pas d’évacuer des populations menacées après déclenchement du phénomène. De plus, tout impact d’une avalanche a des conséquences potentiellement désastreuses, de sorte que des mesures destinées à réduire les dommages sont extrêmement difficiles à mettre en œuvre. La prévision au jour le jour est donc très importante afin de détecter les situations critiques et de procéder à d’éventuelles évacuations préventives. Quant à la gestion à long terme de l’urbanisme, elle se doit de limiter au maximum la construction d’habitations ou d’infrastructures dans des zones potentiellement touchées. Si nécessaire, la construction de protections paravalanches permanentes (digues, tunnels, etc.) doit être envisagée.

Le problème d’extrêmes posé par la prédétermination des avalanches est particulier dans la mesure où la variable la plus critique, la distance d’arrêt*, c'est-à-dire la distance atteinte par l’avalanche, n’est pas une variable intrinsèque. Le comportement de sa queue de distribution dépend de la topographie. En outre, l’aléa avalancheux est réellement multivarié. L’extension de l’aléa, les champs de vitesse et de pression, le volume de dépôt, etc., doivent tous être quantifiés, et ce alors que les observations montrent que ces variables sont souvent mal corrélées. Une avalanche à faible distance d’arrêt peut, par exemple, infliger de très fortes pressions d’impact avec une neige dense et très cohésive.

L’objet de cet article est de faire le point sur les méthodes traditionnelles de prédétermination des événements extrêmes et de calcul de risque existant en ingénierie paravalanche, puis d’introduire les méthodes statistiques-dynamiques développées au cours des dix dernières années. Ces dernières permettent de combiner statistique et modèles dynamiques d’écoulement. Elles offrent ainsi l'opportunité d’employer de manière plus rigoureuse les notions de période de retour et de risque.

Avantages et limites des méthodes utilisées en ingénierie

Les méthodes dites « norvégiennes » constituent historiquement les premières approches permettant d’affecter de façon systématique des périodes de retour aux avalanches. Leur principe est d’expliquer la distance d’arrêt à l’aide de variables topographiques (Lied et Bakkehoi, 1980) ou de caler directement sur les distances d’arrêt normalisées observées un modèle statistique de valeurs extrêmes (McClung et Lied, 1987). Le manque d’observations locales est généralement compensé par une hypothèse d’homogénéité régionale. Ces approches sont bien adaptées aux profils topographiques des couloirs scandinaves, majoritairement de type parabolique. Le comportement de la queue de la distribution des distances d’arrêt y est en effet « régulier » de sorte que les valeurs de projet ainsi calculées sont réalistes. En revanche, pour les couloirs alpins, le caractère non intrinsèque de la distance d’arrêt rend leur application plus difficile.

L’approche suisse

La directive suisse (Salm et al., 1990) constitue l’alternative classique aux méthodes norvégiennes. Son principe est de considérer des hauteurs de neige correspondant à des cumuls de précipitation trentennaux et tricentennaux, puis de propager ces volumes initiaux avec un modèle dynamique dont les coefficients de frottements sont tabulés en fonction des caractéristiques du couloir (altitude, pente, rugosité de surface, etc.). Pour chacune des deux hauteurs de neige, une distance d’arrêt et un profil longitudinal de vitesse sont obtenus. Les pressions exercées par l’écoulement sont déduites de l’application des lois de l’hydraulique à surface libre. La distinction des trois zones d’aléa s’effectue ensuite grâce à une combinaison des distances d’arrêt et des pressions des deux événements de référence considérés. Il s’agit ainsi d’une approche claire et standardisée permettant d’appréhender ce que peut-être une avalanche rare ou exceptionnelle. Elle ne résout cependant pas le problème de la caractérisation probabiliste des événements de référence puisque la période de retour n’est pas nécessairement conservée à travers le modèle de propagation.

Les approches de « type risque » pour le zonage

Face à la difficulté liée du calcul de périodes de retour dans le domaine des avalanches, des approches visant au calcul de la perte moyenne attendue ont récemment été développées. Puisque les enjeux sont alors pris en compte en plus de l’aléa, il ne s’agit plus de prédétermination, mais bien d’analyses de risque. Une relation réaliste entre intensité du phénomène et intensité des dommages doit être proposée. Les approches existantes font appel à des formulations empiriques obtenues par ajustement de courbes paramétriques simples sur quelques événements bien documentés (Barbolini et al., 2004). L’unité adoptée est généralement la probabilité annuelle de décès. Les applications existantes restent pour l’instant essentiellement limitées à la définition d’un niveau de risque acceptable pour le zonage, par exemple dans la législation islandaise (Arnalds et al., 2004).

Dimensionnement d’ouvrages de protection

Lorsqu’un manque d’espace disponible conduit à envisager l’urbanisation de zones potentiellement atteintes par des avalanches ou qu’il apparaît que des constructions ou des infrastructures que l’on pensait hors de danger sont exposées, une protection paravalanche permanente peut être recherchée. Classiquement, sont distingués les ouvrages de protection active des ouvrages de protection passive. Ces derniers visent à dissiper l’énergie de l’écoulement (tas freineurs), à dévier sa trajectoire (étrave*, digue déviatrice, tunnel paravalanche) ou encore à stopper l’avalanche (digue d’arrêt). À l’heure actuelle, des codes numériques (Naaim et al., 2004) ou des modèles réduits de type analogiques (Faug et al., 2008) sont de plus en plus utilisés pour le dimensionnement. De plus, des analyses de type coût-bénéfice commencent à voir le jour afin de comparer différents scénarii d’aménagement.

Redéfinir période de retour et risque en combinant statistique et modèle dynamique d’écoulement

Les méthodes statistiques-dynamiques

À partir de 2001, des méthodes de simulation de type Monte Carlo ont été proposées pour la prédétermination des avalanches (Meunier et Ancey, 2004). Leur principe est d’alimenter un modèle de propagation déterministe avec des distributions aléatoires supposées parfaitement identifiées, puis d’obtenir la distribution des distances d’arrêt et des autres variables de sortie. Outre l’obtention aisée d’avalanches de période de retour élevée, les applications sont très nombreuses : calcul de risque, dimensionnement d’ouvrages, quantification du risque résiduel (figure 1 ). Néanmoins, les résultats obtenus sont étroitement dépendants des hypothèses probabilistes effectuées, notamment le choix des distributions des données d’entrée et de leur éventuelles corrélations.

De façon formelle, dans une approche statistique-dynamique, chaque avalanche i est décrite par un couple de vecteurs (xi,yi). Les xi sont les variables « d’entrées » caractérisant le déclenchement et la propagation : surface de départ, altitude de départ, volume de neige mobilisé, etc. Les yi correspondent aux variables dites « de sortie » présentant un intérêt pour le zonage et le dimensionnement : distance d’arrêt, extension, champs de vitesse et de pression, etc. Le calcul de probabilité annuelle nécessite en outre les nombres d’avalanches annuels at sur une période aussi longue que possible. Par simulation, la loi de probabilité jointe  est obtenue en déconditionnant selon la physique du phénomène (équation 2 ). Le conditionnement par rapport à  un estimateur ponctuel   indique que la distribution obtenue dépend d’un vecteur de paramètres ? (coefficients de frottement du modèle d’avalanche et paramètres indexant les distributions des différentes variables d’entrée) pour lequel un estimateur ponctuel est supposé connu. La solution la plus naturelle au problème du choix crucial de la distribution des variables d’entrées  est d’estimer ?  à partir des données provenant du site étudié. L’enquête permanente sur les avalanches (EPA), présentée par ailleurs dans ce numéro, est alors extrêmement précieuse.

Variabilité et incertitude : le cadre bayésien

La vraisemblance des données l(x,y,a|?) peut être maximisée, ce qui conduit aux estimateurs généralement recherchés en statistique classique. La statistique bayésienne propose une vision alternative de l’inférence*. Elle combine les données notées data et p(?), la distribution de probabilité a priori du vecteur de paramètres ? qui permet éventuellement la prise en compte d’une expertise naturaliste extérieure aux données (équation 3 ). p(?|data),  est la distribution de probabilité a posteriori de ?,  quantifiant l’incertitude résiduelle sur les paramètres liée à la quantité limitée de données disponibles. Ce formalisme a récemment été appliqué aux méthodes statistiques-dynamiques. Il est très bien adapté à la calibration des paramètres de frottement d’un modèle d’avalanche grâce aux méthodes dites MCMC* (Monte Carlo Markov Chain) d’estimation par simulation (Eckert et al., 2008). Il permet en outre la distinction explicite des sources d’incertitude entre méconnaissance sur ?,  et variabilité intrinsèque des avalanches sur le site étudié au travers du calcul de la loi prédictive des variables du modèle. Celle-ci s’obtient en moyennant le modèle sur à la loi a posteriori des paramètres (équation 4 ).

Combiner intensité et fréquence moyenne

Le caractère intrinsèquement discret du phénomène avalancheux implique que les lois de probabilité estimées à partir des données sont conditionnelles au déclenchement plutôt qu’annuelles. Une hypothèse simplificatrice importante est l’indépendance entre l’intensité des avalanches (x,y) et le nombre a d’avalanches se produisant au cours d’un hiver. Pour que cette hypothèse soit vérifiée, il suffit que le nombre total d’avalanches se produisant au cours d’un même hiver sur le site étudié soit faible. En effet, les événements successifs se produisent alors dans des contextes (météorologie, état de couloir, matériau neigeux disponible, etc.) différents, le couloir ayant à chaque fois le temps d’« oublier » le précédent événement.

L’intérêt de cette hypothèse est de pouvoir distinguer la modélisation de l’intensité de la modélisation de la fréquence, avec deux jeux de paramètres ?M et ?F pouvant être séparés (équation 5 ). Ensuite, la période de retour T(y) associée à n’importe quelle variable de sortie  peut être calculée en combinant simplement l’espérance du modèle fréquentiel E[A|?F] avec la fonction de répartition
F (y|?M) = P (y ? y|?M) de la variable y (équation 6 ).

Privilégier la distance d’arrêt

Le principal obstacle à l’utilisation de la période de retour dans le domaine des avalanches est celui déjà évoqué du caractère fondamentalement multivarié de l’aléa. En effet, celui-ci est caractérisé par sa distance d’arrêt, sa vitesse, sa pression, son volume de dépôt, etc. Il n’y a pas de lien univoque entre un quantile* (xstop,v,pr,vstop) et une période de retour T. La solution la plus naturelle est de limiter la notion de période de retour à la seule distance d’arrêt et de l’évaluer à partir de la fonction de répartition marginale F (xstop) . Le principal argument en faveur de ce choix est que la distance d’arrêt est la variable conduisant à la période de retour la plus pessimiste. En effet, si l’on calcule la période de retour T1 associée à la distance d’arrêt xstop et, par exemple, la période de retour T2 associée à la vitesse v à la même position, nécessairement T2 ?  T1  parce que la distance d’arrêt xstop doit être dépassée pour que l’événement v > 0 soit réalisé. En d’autres mots, pour une période de retour donnée, une zone d’aléa délimitée grâce à la distance d’arrêt inclut toutes les zones d’aléa qui peuvent être délimitées en utilisant d’autres variables.

L’estimation ponctuelle de la période de retour Txstop associée à la distance d’arrêt xstop s’obtient aisément par combinaison du nombre moyen d’avalanches par an et de la fonction de répartition estimée de la distance d'arrêt (équation 7 ). Cependant, le problème est souvent inverse dans la mesure où l’on recherche la distance d’arrêt xstopT correspondant à une période de retour donnée (cent ans par exemple). La fonction de répartition inverse doit alors être utilisée (équation 8 ).

Dans le cadre bayésien, l’incertitude entourant la distance d’arrêt de projet recherchée est quantifiée par sa loi prédictive p(xstopT|data) . Celle-ci s’obtient en moyennant xstopT sur la loi a posteriori des paramètres (équation 9 ). La loi prédictive obtenue prend en compte l’incertitude touchant à la fois l’intensité et la fréquence des avalanches sur le site étudié. Sa dispersion dépend de la variabilité de la loi a posteriori des paramètres et donc de la quantité de données disponibles pour l’estimation. Asymptotiquement*, elle converge vers la vraie valeur ponctuelle de xstopT .

Des scenarii de référence correspondant à une même période de retour

N’appliquer la période de retour qu’à la distance d’arrêt ne dispense pas de quantifier sérieusement les autres variables nécessaires au zonage et au dimensionnement. Pour ce faire, il est possible d’obtenir aisément la distribution p (xstop,v,pr,vstop > xstopT) pour n’importe quelle distance d’arrêt xstopT en ne considérant que les événements qui dépassent la distance d’arrêt considérée. On quantifie ainsi tous les scenarii de référence correspondant à une même période de retour. Bien entendu, il y en a, au moins en théorie, une infinité. En contrepartie, étant donné qu’ils sont tous évalués, il est facile de balayer leur gamme de variabilité, ce qui rend possible de retenir les plus pertinents pour une expertise.

Modéliser les coûts

La mise en œuvre d’une analyse décisionnelle nécessite la spécification d’un coût total C (d,y,a) fonction de l’aléa en zone d’arrêt et d’une possible variable de décision d, par exemple la hauteur hd’un ouvrage de protection. Le coût total s’exprime comme la somme d’un terme de construction Co (h) dépendant de la hauteur de l’ouvrage, et d’un terme quantifiant les dommages totaux infligés aux enjeux par les avalanches successives se produisant à partir de la date de construction. Sous des hypothèses peu restrictives, il se ramène à l'équation 10  où Act représente l’actualisation totale, Co le coût linéaire de construction, C1 la valeur totale des enjeux considérés et Ed [a|?F ,?M] la fréquence moyenne de dépassement de la position de l’ouvrage (Eckert et al., 2009). La prise en compte d’un état de référence initial définit une fonction u (hd,y,a) dite d’utilité linéaire (équation 11 ).

Calculer le risque et minimiser le coût moyen

Formellement, le risque Rc est l’espérance de l’utilité par rapport à la variabilité de l’aléa. C’est une fonction de la variable de décision et des paramètres du modèle. Il quantifie la perte moyenne attendue si la décision de construire un ouvrage de hauteur hd est prise plutôt que de ne rien faire (équation 12 ). Au sens de la théorie de la décision classique, la décision optimale h*c minimise cette perte. Pour ce faire, il est nécessaire d’utiliser les estimateurs ponctuels, puis de recommander la hauteur minimisant le risque conditionnellement à ces estimateurs (équation 13 ). Tout comme le calcul des aléas de référence, les calculs d’optimisation peuvent être menés numériquement par simulations.

Dissocier l’estimation du problème décisionnel peut toutefois avoir des conséquences indésirables. En effet, le phénomène est ainsi traité pour la décision comme s’il était parfaitement connu, ce qui est très irréaliste dès lors que l’inférence a été effectuée avec une quantité faible de données. Le risque bayésien Rb (hd) prend en compte l’incertitude liée à la méconnaissance locale en moyennant le risque classique sur toute la loi a posteriori des paramètres (équation 14 ). L’erreur d’estimation est ainsi incorporée de façon claire dans la décision. Le risque bayésien est une fonction de la variable décisionnelle uniquement, ce qui rend la détermination de la décision bayésienne optimale facile.

Application à un cas d’étude

Présentation

Le cas d’étude choisi est le couloir EPA numéro 13 de la commune de Bessans (Savoie, France). Celui-ci, d’une longueur de 2 300 m pour un dénivelé total de 1 500 m, est relativement peu chenalisé et se termine dans la vallée de l’Arc, à cet endroit large et presque plate. La pente moyenne est forte (34,2°) et le profil de pente est assez irrégulier, avec plusieurs changements de concavité modérés mais significatifs, notamment un léger ressaut en zone d’arrêt. Une modélisation bidimensionnelle est utilisée, avec un axe horizontal dont le zéro est fixé au sommet du couloir (figure 2 ).

Vingt-six événements ont été retenus pour la calibration du modèle. La plupart de ces avalanches s’arrêtent sur les pentes modérées précédant l’arrivée dans la vallée de l’Arc, entre = 1 900 m et = 2 090 m, mais une avalanche de distance d’arrêt exceptionnelle xstop = 2207,8 m a été enregistrée. Les hauteurs en écoulement h ont été estimées à partir des volumes de dépôt mesurés vstop grâce à une loi semi-empirique. Les valeurs ainsi obtenues s’échelonnent de 2,59 m à 6,6 m, avec une moyenne de 3,37 m.

Modélisation de l’aléa

La mise en œuvre d’une approche statistique-dynamique nécessite le choix d’un modèle déterministe de propagation et des lois de probabilité décrivant la variabilité de ses entrées. Le modèle de propagation retenu est celui, classique, du bloc glissant avec une loi de frottement dite de Voellmy. Il est noté G sur la figure 3 . Pour des pentes régulières sans singularités topographiques, les forces de courbures sont négligeables et la variation de la vitesse du bloc v au point de pente locale ? correspond à la différence entre la composante horizontale de la force de gravité g et un terme de frottement. Celui-ci  possède deux coefficients de frottement ?voel et voel (équation 15 ).

L’un des deux coefficients de frottement au moins varie d’une avalanche à l’autre du fait des variations de la qualité de la neige (densité, humidité, taille des grains, etc.). Selon Salm et al. (1990), il s’agit de cqui est donc considéré comme une variable dite latente*, c’est à dire non observable devant être estimée pour chaque avalanche. voel  reflète quant a lui les caractéristiques topographiques du couloir et se comporte de ce fait comme un paramètre au sens statistique du terme, c'est-à-dire avec une valeur unique pour un site donné.

La résolution de l’équation du mouvement s’effectue numériquement sur le profil topographique discrétisé. La distance d’arrêt calculée xstopcal peut ainsi ne jamais correspondre parfaitement à l’observation xstop . Elle est donc modélisée par une seconde variable latente supposée gaussienne* dont la moyenne correspond à l’observation et dont la variance* ?num correspond à l’erreur numérique fixée à 10 m pour ce cas d’étude (équation 16 ).

Les caractéristiques physiques du site avalancheux permettent d’évaluer des valeurs maximale et minimale xmax et xmin pour l’abscisse de départ. Un modèle probabiliste de type bêta est acceptable pour l’abscisse de départ normalisée notée xstartn. On introduit ainsi deux paramètres (a1,a2) à estimer (équation 17 ). La hauteur du bloc en écoulement est modélisée par un mélange Gamma. La justification de ce modèle est que, globalement, h est une variable asymétrique au même titre qu’une hauteur de précipitation ou qu’un débit de crue. La dépendance avec l’abscisse de départ est prise en compte grâce aux paramètres b1 et b2 représentant la corrélation linéaire avec l’abscisse de départ normalisée et la moyenne en absence de corrélation, avec une variance ?h2 constante. Les deux paramètres d’échelle et de forme de la loi Gamma peuvent s’exprimer en fonction des trois paramètres b1,b2,?h et de l’abscisse de départ normalisée (équation 18 ).

Comme le frottement ?voel traduit à la fois la rugosité du couloir, la qualité et le volume de neige en écoulement et que les variabilités des différents effets se combinant sont supposées être d’ordres de grandeur similaires, une ou plusieurs distributions gaussiennes sont souvent utilisées dans les approches statistiques-dynamiques. Afin de prendre en compte l’effet de l’altitude et du volume de l’avalanche sur le frottement, un modèle de mélange normal dont la moyenne dépend de l’abscisse de départ et de la hauteur de bloc est toutefois préférable, avec les paramètres d,e quantifiant la variabilité autour d’un frottement moyen c, et une variance ?2 supposé constante (équation 19 ).

Enfin, les occurrences avalancheuses sont modélisées par un modèle de Poisson dont l’unique paramètre  correspond à la fréquence avalancheuse moyenne E [A|?]  nécessaire au calcul de période de retour (équation 20 ).

Distances d’arrêt et période de retour

La distribution des distances d’arrêt obtenue présente un mode principal autour de = 2 000 m, un mode secondaire autour de = 1 700 m et un mode tertiaire autour de = 900 m, ce qui traduit la topographie déjà raisonnablement complexe du couloir (figure 4 , à gauche). Comme pour les observations, le mode principal correspond aux pentes faibles situées à l’exutoire du couloir dans la vallée de l’Arc et le mode secondaire à un ressaut où la pente locale décroît jusqu’à 23 degrés. Le petit mode tertiaire au milieu du couloir correspond à une légère diminution de la pente qui stoppe les avalanches caractérisées par les coefficients de frottement les plus élevés.

Pour les distances d’arrêt présentant plus spécifiquement un intérêt pour le zonage (figure 4 , à droite), le modèle s’ajuste bien sur les données dont les périodes de retour empiriques s’échelonnent de cinq à vingt ans. Par contre, le modèle propose, pour une période de retour de trente-cinq ans, une distance d’arrêt à peine supérieure à 2 100 m alors que la distance d’arrêt la plus élevée du jeu de données, supérieure à 2 200 m, possède une période de retour empirique de trente-cinq ans. Cela pourrait laisser croire que le modèle sous-estime les distances d’arrêt correspondant aux périodes de retour les plus élevées. Ce constat doit être nuancé par le fait que la période de retour empirique associé au maximum d’un échantillon n’a pas grand sens étant donné qu’elle dépend étroitement de la durée d’observation. De plus, la distance d’arrêt enregistrée la plus élevée est réellement exceptionnelle dans la mesure où l’avalanche est allée beaucoup plus loin que toutes les autres dans un fond de vallée presque plat. Il est donc vraisemblable que le modèle, en lui attribuant une période de retour de l’ordre de trois cent cinquante ans, soit relativement près de la vérité.

Scénarii de références

Pour illustrer la capacité d’une approche statistique-dynamique à quantifier les distributions des variables d’intérêt des avalanches dépassant n’importe quelle distance d’arrêt, la figure 5  présente les distributions des vitesses des avalanches dépassant les distances d’arrêt de projet classiques de dix, trente, cent et trois cent ans. Évidemment, plus la période de retour est élevée, moins il y a d’avalanches, de sorte que les distributions obtenues par simulation sont de plus en plus irrégulières. À n’importe quelle abscisse, la distribution des vitesses est unimodale*. Elle est également asymétrique, ce qui indique une décroissance lente de la probabilité de dépassement avec la vitesse. Ainsi, pour une avalanche atteignant une abscisse décennale, la vitesse moyenne est de 11,8 m/s, mais un pourcentage non négligeable d’avalanches présente encore une vitesse supérieure à 20 m/s.

Si l’on compare les distributions obtenues aux différentes abscisses, on constate une diminution logique des vitesses moyennes et maximales avec la période de retour. Néanmoins, elle n’est pas très rapide puisque la vitesse moyenne des avalanches qui atteignent une abscisse tricentennale est à peine inférieure à celles des avalanches qui atteignent une abscisse centennale. Cette décroissance assez lente est à relier à la topographie de la zone d’arrêt et à la loi de frottement utilisée. En effet, la zone d’arrêt est, sur ce couloir, caractérisée par une pente faible mais non nulle. Celle-ci est suffisante pour ne pas freiner les avalanches caractérisées par les valeurs de coefficient de frottement ?voel les plus faibles. Au fur et à mesure que l’abscisse augmente, il se produit donc un « filtrage » des avalanches caractérisées par les coefficients de frottement les plus forts, tandis que les autres continuent à avancer sans freiner jusqu’à proximité immédiate de leur point d’arrêt.

Incertitude sur les valeurs de projet

La figure 6  présente les lois prédictives des quatre mêmes distances d’arrêt obtenues par simulation selon l’équation 9. Elles présentent une forme globale en « cloche irrégulière ». La distance d’arrêt décennale possède par exemple un pic bien marqué vers x = 2 080 m. Celui-ci traduit l’influence de la topographie, ici la réduction brutale de la pente. Globalement, il se produit une augmentation de la variance et de l’asymétrie de la loi prédictive avec la période de retour. Ainsi, plus la probabilité de dépassement considérée est faible, plus l’incertitude liée à l’erreur d’estimation est forte et plus l’intervalle de crédibilité associé à la prédiction moyenne est asymétrique. Ces résultats questionnent fortement le bien fondé des méthodes de zonage purement déterministes. En outre, ils suggèrent que des méthodes de zonage basées sur des approximations normales, c'est-à-dire utilisant un intervalle de confiance à 95 % défini à partir de la moyenne plus deux écarts types, peuvent s’avérer insuffisantes en négligeant la surdispersion vers les fortes valeurs.

Optimisation d’une digue paravalanche

La figure 7  présente les deux fonctions de risque classique et bayésien obtenues pour un enjeu isolé situé à une abscisse centennale. La digue de hauteur hd est quant à elle située à une abscisse correspondant à une période de retour de deux ans. Les deux fonctions de risque présentent un optimum net, 5 m et 6 m respectivement. Le risque classique est négatif pour des hauteurs de digue inférieures à 13 m, ce qui indique que la construction de la digue apporte un bénéfice économique, sauf si une digue trop haute est construite. Le risque bayésien est relativement proche du risque classique en termes de forme et de valeur. L’optimum bayésien est cependant supérieur de 20 % à l’optimum classique. De plus, le bénéfice moyen attendu de la digue optimale est également nettement plus élevé, avec une différence relative de 54 %. Ainsi, si la procédure de dimensionnement bayésienne est choisie plutôt que la procédure classique, un dimensionnement plus prudent est préconisé et un bénéfice moyen plus important est attendu. La prise en compte de la pénurie d’information pèse donc sur le processus décisionnel dans le sens de la prudence, résultat somme toute logique.

Conclusion

L’usage de la période de retour pour les avalanches doit être restreint à un cadre strict, celui de la distance d’arrêt. Les approches statistiques-dynamiques permettent alors de définir rigoureusement les scénarii de référence correspondant à une période de retour donnée. Grâce à la méthodologie récemment développées par le Cemagref, les bases de données disponibles, notamment l’EPA, offrent un support d’apprentissage adapté à la calibration locale ainsi qu’à la quantification de l’incertitude associée. Des efforts sont toutefois encore nécessaires pour permettre l’utilisation par interpolation de telles méthodes sur les sites peu documentés. En outre, seul le calcul de risque permet de totalement s’affranchir des limites de la période de retour pour un aléa multivarié. Au prix de difficultés supplémentaires liées à la modélisation de la vulnérabilité et des effets des ouvrages de protection, il propose un cadre intégrateur pour l’aide à la décision sous incertitude.

Pour citer cet article :

Référence électronique :
ECKERT, Nicolas ; PARENT, Éric ; NAAIM, Mohamed ; RICHARD Didier, Prédétermination et calcul de risque dans le cas des avalanches : avantages et limites des méthodes utilisées en ingénierie et perspectives d'avenir, Revue Science Eaux & Territoires, Risques naturels en montagne, numéro 02, 2010, p. 26-35, 08/09/2010. Disponible en ligne sur <URL : http://www.set-revue.fr/predetermination-et-calcul-de-risque-dans-le-cas-des-avalanches-avantages-et-limites-des-methodes> (consulté le 26/09/2020), DOI : 10.14758/SET-REVUE.2010.2.04.

Ajouter un commentaire

Télécharger au format PDF
↑ Haut de page