Avalanches en laboratoire

Le développement de toute science est en grande partie conditionné par l’existence d’une base expérimentale solide. Seule en effet l’expérience permet de collecter mesures et observations tout en permettant de tester les hypothèses théoriques de façon systématique et contrôlée. Dans les sciences de l’environnement, l’expérience est possible, mais elle est ardue à conduire. Par exemple, dans le domaine de l’hydraulique torrentielle, il est très difficile voire impossible de forcer le déclenchement d’une lave torrentielle pour en étudier le mouvement. Cela a poussé les scientifiques à étudier des écoulements à échelle réduite en recréant des écoulements qui ressemblent aux écoulements naturels.

Un pionnier en la matière a été Richard Iverson de l’USGS, qui avec son équipe a construit un canal long de 100 m dans l’Orégon, pour créer des laves torrentielles à échelle réduite. Un point délicat dans ce type d’expérience est la similitude avec les écoulements naturels. En mécanique des fluides, la théorie de la similitude fixe les critères à suivre dans le choix de la taille de l’expérience et des fluides à employer pour que l’écoulement à échelle réduite soit représentatif de ce qui passe à une autre échelle. La théorie reste assez simple à mettre en œuvre dès lors qu’on travaille avec des fluides usuels comme l’eau et l’air car il faut peu de paramètres géométriques et physiques pour décrire une expérience ; elle devient autrement plus complexe à employer lorsque la description du problème introduit un grand nombre de paramètres (comme la taille des grains, leur forme et leur rugosité, la viscosité du fluide, les masses volumiques, etc.). Dans la plupart des cas, on ne peut jamais réaliser une expérience en similitude complète, tout au plus peut-on assurer qu’une similitude partielle existe.
Cette marge de manœuvre a profondément divisé la communauté scientifique : d’un côté, il y une école dont le chef de file est Richard Iverson et qui pense qu’il faut rester dans des conditions expérimentales les plus proches possibles du phénomène naturel (d’où le canal de grande taille construit dans l’Orégon et les expériences menées avec des matériaux naturels) pour introduire le moins de biais possible dans les expériences. D’un autre côté s’est développée une approche mécaniste sous l’impulsion de plusieurs groupes, dont sans doute le pionnier a été Tamotsu Takahashi au Japon, et qui met l’accent sur la nécessité de comprendre le comportement rhéologique de matériaux modèles en laboratoire avant de développer des modèles théoriques d’écoulement.
Quelle que soit l’approche choisie pour conduire des expériences sur le comportement d’une coulée de débris, le modèle d’écoulement choisi pour calculer les caractéristiques d’une lave torrentielle est un jeu d’équations à la Saint-Venant, c’est-à-dire le même jeu d’équations qui sert à décrire la propagation d’une crue dans un cours d’eau (conservation de la masse et de la quantité de mouvement sur une section d’écoulement). Naturellement les équations ont été quelque peu adaptées pour tenir compte du matériau mobilisé. C’est là que surgit le second objet de vifs débats au sein de la communauté scientifique : tout observateur avisé a en effet noté qu’une lave torrentielle est un écoulement fortement structuré (structure avec un front, un corps, et une queue aux comportements distincts) et le lieu d’une multitude de processus variés (déposition/érosion de sédiment, ségrégation, formation de bourrelets latéraux). L’observation de terrain ainsi que les expériences d’Iverson montrent que les éléments structurants de l’écoulement (front granulaire, bourrelet) sont fondamentaux et permettent d’expliquer qualitativement les différences de comportement (par exemple, étalement ou distance parcourue) entre deux coulées de débris. On peut alors se demander si d’une part, la compréhension de la structuration n’est pas l’élément-clé indispensable à la compréhension plus globale de la dynamique des écoulements et si d’autre part, les équations de Saint-Venant offrent un cadre de modélisation approprié.
C’est dans cette problématique que s’insère la recherche au sein de notre laboratoire. Notre objectif est d’arriver à décrire le plus simplement possible la façon dont une masse finie de matériaux s’écoule sur un plan incliné ou dans un canal. Expérimentalement, nous sommes intéressés non seulement à suivre précisément le mouvement de la masse (hauteur et vitesse d’écoulement), mais également à caractériser sa structure interne. Comme techniques de mesure, nous avons principalement développé des méthodes fondées sur le traitement d’images. Par exemple, pour déterminer l’évolution de la hauteur au cours du temps, nous avons développé un système de projection de motifs géométriques : en effet, si l’on projette une alternance de bandes sombres et claires et qu’on mesure comment la surface libre de l’écoulement perturbe leur projection, on peut en déduire une épaisseur de fluide. D’autres techniques fondées sur la vélocimétrie par suivi de particules permettent de visualiser la structure de l’écoulement et de déterminer, par exemple, le profil de vitesse et de concentration d’une suspension de particules (sous réserve que la suspension soit transparente).

Le programme expérimental est relativement simple. Un réservoir contient un certain volume de fluide. Nous utilisons différents fluides sans nous soucier de leur similitude aux débris naturels. Par exemple, nous avons réalisé des expériences sur du sucre fondu (un fluide newtonien très visqueux) et un gel polymérique utilisé en cosmétique comme gel fixateur pour les cheveux (fluide viscoplastique). Nous sommes en train de tester des suspensions de particules dans un fluide ; dans ce cas-là, pour avoir un matériau transparent, il faut se livrer à de savantes manipulations pour doser un mélange de fluides interstitiels de telle sorte que l’indice de réfraction soit identique dans les particules et dans le fluide.
À l’instant initial, la porte du réservoir est ouverte soudainement à l’aide de deux puissants vérins et libère en quelques secondes le fluide sur le plan incliné. Le mouvement est ensuite suivi par une caméra et les images sont traitées pour en tirer les grandeurs qui nous intéressent. En parallèle, des solutions analytiques et des résultats de simulations numériques peuvent être comparées aux données expérimentales ainsi acquises.

La grande force de ce dispositif est qu’on peut mesurer précisément par des moyens non invasifs les grandeurs caractéristiques de l’écoulement dans un environnement contrôlé. Dans ce dispositif, les expériences peuvent être répétées, les paramètres peuvent être imposés ou contrôlés à volonté. Parmi les résultats que nous avons publiés, nous avons observé un comportement assez curieux des écoulements viscoplastiques. La comparaison entre théorie et expérience donne de bons résultats à pente relativement forte, mais à pente douce, l’allure de la courbe x_f(t) donnant la position du front en fonction du temps diffère même si par ailleurs les profils étaient corrects et l’ordre de grandeur de x_f(t) était bien prédit par la théorie. On a imaginé différents scénarios pour comprendre la raison pour laquelle le front accélérait légèrement à faible pente contrairement à ce que prévoit la théorie. Nous avons observé dans nos expériences que des zones faiblement cisaillées, précurseurs des bourrelets latéraux se développaient sur les bords et qu’elles se figeaient brutalement ; l’écoulement voyait aussi sa section d’écoulement réduite, ce qui avait pour effet de légèrement accélérer le front. Cela fournit une illustration supplémentaire de l’importance de la structuration de l’écoulement dans la dynamique globale. L’analyse se fondant sur une approximation bidimensionnelle de l’écoulement, la théorie est incapable de reproduire ce type de comportement et il faut recourir à une simulation numérique complète pour résoudre ce problème. Cela reste, là encore, une tâche difficile, qui nécessite des moyens informatiques conséquents.

À travers cet article, nous avons tenté de montrer que si très tôt les scientifiques se sont accordés à attribuer un rôle-clé à l’expérimentation, l’expérience en sciences de l’environnement reste un sujet difficile et polémique. Nous avons dressé ici quelques-uns des débats qui partagent la communauté scientifique autour des laves torrentielles. Comme quelques équipes dans le monde, notre laboratoire s’intéresse particulièrement à mieux comprendre comment un écoulement d’une masse finie de matériaux s’organise sur un plan incliné. Nous ne prétendons pas là reproduire de façon exacte le comportement des laves torrentielles, mais nous espérons pouvoir dégager quelques principes physiques généraux qui permettent de mieux appréhender la dynamique des écoulements naturels. Couplés à la mesure et à l’observation in situ, les concepts que nous développons ou testons doivent permettre de fournir des outils puissants de calcul des laves torrentielles.




Départ des avalanches

avalanches suivent le même principe de base : la neige s’accumule sur la pente d’une montagne jusqu’à la force de gravitation excède les forces assurant la stabilité du manteau neigeux. Une couche de neige, parfois tout le manteau neigeux, peut alors se détacher de la couche sous-jacente, aboutissant à la formation d’une avalanche.

Chutes de neige et manteau neigeux

Pendant les tempêtes de neige, la neige s’accumule sur les pentes. La quantité de précipitations dépend de nombreux paramètres, dont les conditions climatiques globales, la topographie locale, et les caractéristiques des chutes de neige. Dans les Alpes, où le climat est continental ou tempéré, les chutes de neige quotidiennes ne dépassent généralement pas 130 cm. Par exemple, dans la vallée de Chamonix (France), les chutes de neige quotidienne maximale varie de 72 cm à 106 cm en fonction de l’altitude (1050-2100 m). Il atteint 130 cm au-dessus du col de la Bernina (Suisse). Dans les régions à climat maritime (comme la côte Pacifique des États-Unis, la Norvège et le nord du Japon), le conflit entre les grandes masses d’air chaudes et froides conduit à de fortes précipitations de neige le long de la côte. A Crestview en Californie (altitude 2300 m), le mois de janvier 1952 a battu les records avec 2,1 m de neige tombés en 24 heures.

Le cumul annuel de neige montre d’importantes variations spatiales et temporelles. Par exemple, dans la vallée de Chamonix, le cumul annuel moyen des chutes de neige dépend de l’altitude : à une altitude de 1050 m, il varie de 14 cm à 5,2 m, avec une moyenne de 2,5 m, alors qu’à 1500 m, il varie de 3 m à 12 m, avec une moyenne de 5,8 m. L’effet de l’altitude sur les totaux de neige est moins marqué aux altitudes plus élevées : quand on passe de l’altitude 1500 m à 2000 m, le cumul annuel de neige (moyenne de 6,6 m, de 3,8 à 13 m de portée) augmente de 15%. Dans les régions à climat maritime, les chaînes de montagnes côtières connaissent des niveaux plus élevés de précipitations. En 1999, le total des chutes de neige a dépassé 28 m sur le mont Baker (Californie, altitude 3286 m).

En revanche, la quantité de précipitations sur de courtes périodes dépend beaucoup de l’altitude, principalement en raison des fluctuations de l’altitude de l’isotherme 0 °C pendant les précipitations. Pour la vallée de Chamonix, le record de précipitations sur 10 jours est de 1,3 m à 1050 m, 2,6 m à 1500 m, mais 4,15 m à 2000 m. Cette tendance croissante cesse très vraisemblablement à des altitudes plus élevées en raison de la diminution des effets de l’humidité de l’air et du vent.
La détermination de précipitations extrêmes de neige est d’une grande importance car la probabilité de déclenchement d’une avalanche augmente avec la quantité de neige fraîche. Comme beaucoup d’autres variables hydrologiques, le maximum annuel des précipitations quotidiennes de neige varie de façon aléatoire et ces variations sont bien décrites par une loi des valeurs extrêmes telles que la loi Gumbel. Cette distribution de probabilité relie l’intensité des précipitations avec leur fréquence d’occurrence. La probabilité d’occurrence d’un événement P extrême est très faible et une pratique courante pour distinguer les événements rares est d’introduire la période de retour T = 1 / P, exprimée en années. La précipitation associée à une période de retour de 100 ans a P = 0,01 de chances de se produire (ou d’être dépassée) au cours d’une période d’une année. La figure 1 montre la variation du maximum annuel de chutes de neige quotidienne dans le centre-ville de Chamonix (altitude 1050 m). La distribution des valeurs extrêmes décrit assez bien les maxima enregistrés, mais l’ajustement n’est pas parfait. Une légère non-stationnarité de la série temporelle (résultant de différents régimes climatiques au cours des dernières décennies) est la cause probable de l’inadéquation.


variation de la neige tous les jours avec la période de retour à Chamonix
Figure 1 : variation de la neige tous les jours avec la période de retour à Chamonix (France) à une altitude de 1050 m. Les points représentent les chutes de neige mesurées (maxima annuels), tandis que la courbe continue montre la répartition de la loi des valeurs extrêmes ajustée sur les données.

Il a été très tentant d’appliquer la théorie des valeurs extrêmes aux avalanches, en particulier pour définir la période de retour d’un événement d’avalanche. Le principal problème est la détermination de la variable aléatoire qui décrit l’intensité de ce phénomène. Dans le zonage avalanche, la pression d’impact est utilisée dans la définition de la relation intensité-fréquence, mais son estimation à partir d’observations de terrain est difficile. Les scientifiques ont ainsi utilisé la distance d’arrêt (ou altitude d’arrêt), qui peut être facilement déterminée sur le terrain lorsque le dépôt d’avalanche est visible. Pour les régions avec une topographie régulière (au Canada et la Norvège), Dave McClung et Karsten Lied a montré comment la période de retour peut être définie à partir de la mesure des distances d’arrêt. Pour les chaînes de montagnes avec une topographie complexe, les changements brutaux dans la topographie locale mènent à des changements importants dans la distribution des points d’arrêt sur de courtes distances, ce qui exclut l’utilisation de distributions des valeurs extrêmes. En l’absence de variables plus pertinentes, la période de retour est associée au volume de neige mobilisé par l’avalanche. Les chutes de neige sur 3 jours (ou l’accroissement de l’épaisseur du manteau neigeux en trois jours) sont utilisées comme « proxy » du volume d’avalanche et selon cette hypothèse, les périodes de retour de la neige et des avalanches résultant sont supposées être les identiques. C’est une approximation très grossière de la réalité, mais elle a l’avantage d’être applicable à une large gamme de problèmes en ingénierie et cartographie des risques.

Déclenchement des avalanches

Le déclenchement d’une avalanche ne dépend pas seulement de la quantité de neige fraîche, mais aussi sur d’autres paramètres météorologiques (tels que le vent et la température de l’air) et de la façon dont le manteau neigeux s’est construit à partir des chutes de neige successives. Une avalanche est principalement causée par une conspiration de facteurs plutôt que l’apparition d’un processus unique (par exemple, fortes chutes de neige). C’est pourquoi les prévisions de l’activité d’avalanche sur une zone donnée restent si difficiles. Beaucoup d’avalanches, surtout les grandes avalanches se produisent durant ou juste après une chute de neige. Avec les chutes de neige sur 3jours qui dépassent 50 cm, le risque d’avalanche est marqué, tandis que des cumuls de neige supérieurs à 1 m sur 3 jours sont habituellement associés à une activité avalancheuse généralisée. Toutes les avalanches ne sont pas déclenchées par une surcharge de neige. Redoux et pluies peuvent également conduire à une diminution significative de la résistance de la neige, avec pour conséquence de grandes déformations du manteau neigeux, qui se finit par se rompre et former une avalanche.

Le terrain est également un facteur majeur qui explique pourquoi certaines pentes sont sujettes à des avalanches fréquentes, tandis que d’autres ne connaissent qu’une faible activité avalancheuse. Parmi les facteurs topographiques, la pente est le plus important de ces facteurs : pour les avalanches déclenchées par des skieurs, la plupart des accidents se produisent dans les zones de départ avec une pente variant de 30° à 45°. En de rares occasions, les avalanches naturelles et déclenchées par des skieurs sont observées sur des pentes « douces » (inférieures à 25°). D’autres caractéristiques topographiques (terrain de convexité, chemin de rugosité, végétation, orientation vers le soleil, l’altitude, etc.) jouent un rôle essentiel dans l’évolution du manteau neigeux. Dans la cartographie des avalanche (photo-interprétation), les zones de départ potentielles et les couloirs d’avalanche peuvent être identifiés en utilisant la photogrammétrie (maintenant remplacée par des systèmes d’information géographique) et c’est ainsi que l’inspection du terrain a longtemps été le principal outil pour obtenir une image qualitative de l’activité avalancheuse dans une région donnée.

La neige est un matériau très variable et complexe. Ses propriétés physiques montrent une grande diversité et elles sont sujettes à des variations significatives au cours de la saison. Par exemple, la masse volumique de la neige fraîche est typiquement de 100 à 200 kg/m3 gamme. Elle augmente en raison des métamorphoses et du compactage induit par son poids. La masse volumique typique d’un manteau neigeux varie de 200 à 400 kg/m3 au cours de la saison. En fin de saison, la masse volumique de la neige (névé) dépasse 600 kg/m3. La résistance au cisaillement et à la traction présente également des variations importantes au cours du temps. Par exemple, dans des conditions venteuses, une neige poudreuse (sans cohésion) acquiert rapidement de la cohésion (dite de frittage) et peut facilement supporter le poids d’un homme parce que des ponts de glace connectent les grains entre eux. Si la température de l’air augmente suffisamment (sous l’effet du soleil ou en raison d’un redoux), de l’eau liquide apparaît et percole vers le bas. Les contacts entre les grains de neige sont ensuite lubrifiés par une mince pellicule d’eau liquide et la neige perd la majeure partie de sa cohésion.

La vie d’un manteau neigeux passe généralement par deux grandes étapes. En début de saison, la neige s’accumule couche après couche, donnant au manteau neigeux l’apparence d’un sandwich. Les propriétés physiques (masse volumique, cohésion, résistance au cisaillement) peuvent être très différentes d’une couche à l’autre. L’interface entre les couches joue également un rôle important. Par exemple, il peut être composé de neige sans cohésion (givre de profondeur, grains à faces planes), qui offre une faible résistance au cisaillement, ou au contraire de la neige dure (croûte de soleil généré, croûte gelée-neige), qui forme un plan de glissement idéal. Ces couches fragiles sont une condition nécessaire pour la formation des avalanches. Quand elles cassent (sous l’effet d’une surcharge de neige ou d’une action humaine), les couches supérieures au-dessus de la couche fragile glissent vers le bas sous la forme d’une plaque, ce qui brise rapidement en des milliers de morceaux. L’avalanche résultante est appelée une avalanche de plaque. Les lignes de fracture peuvent être très grandes, allant de 10 à 1000 fois l’épaisseur de la plaque. Une caractéristique remarquable des avalanches de plaques est que lorsque le manteau neigeux est suffisamment instable, le poids d’un seul homme est suffisant pour créer la perturbation initiale qui rompt l’équilibre de tonnes de neige. Ceci explique le nombre des décès causés chaque année par les skieurs qui déclenchent par eux-mêmes les avalanches qui les ensevelissent. La figure 2 montre la coupe zigzag typique de la fissure supérieure (couronne) d’une avalanche de plaque impliquant neige sèche.


déclenchement d'une plaque sur tout le versant ouest de la Dent de Lys
Figure 2 : déclenchement d’une plaque sur tout le versant ouest de la Dent de Lys (Canton de Fribourg, Suisse).

Lorsque l’on approche de la fin de la saison, la structure du manteau neigeux évolue radicalement sous l’effet de l’eau liquide. En raison de la température de l’air ou des pluies, une partie des grains de neige fond. L’eau liquide a des effets différents sur la neige. En premier lieu, elle modifie les liaisons entre les grains de glace et, en particulier, elle favorise la formation de grains de glace maintenus ensemble par des forces capillaires provenant des ménisques d’eau formées au niveau des points de contact entre ces grains. Par ailleurs, lorsque la teneur en eau liquide est suffisamment élevée (supérieure à 3 %), la couche liquide recouvrant la surface des grains peut s’écouler lentement sous l’effet de la gravité vers les couches à la base du manteau neigeux, ce qui altère la structure entière du manteau neigeux. Une faible teneur en eau liquide consolide généralement une couverture neigeuse : les couches fragiles sont progressivement transformées et lors du gel nocturne, les ponts liquides entre les grains de neige gèlent de nouveau et assurent ainsi une forte cohésion. Lorsque la teneur en eau liquide dépasse un seuil critique (de 3 % à 5 %), l’eau s’infiltre dans les couches inférieures et peut se concentrer le long du sol ou de croûtes de regel au sein du manteau neigeux. Si la température de l’air est trop élevée et la neige ne gèle plus la nuit, la neige perd sa cohésion. La plupart du temps, les avalanches partent d’un point et gagnent en volume au fur et à mesure qu’elles descendent. Ces avalanches sont appelées avalanches de neige mouillée. La figure 3 montre de tels départs ponctuels.


avalanche de neige issu d'un seul point et impliquant la neige mouillée en fin de saison

Figure 3 : avalanche de neige issu d’un seul point et impliquant la neige mouillée en fin de saison. L’épaisseur de la dalle de neige humide ne dépasse pas quelques dizaines de centimètres.

Moins fréquemment, l’eau liquide lubrifie l’interface entre le manteau neigeux et le sol, ce qui conduit à de grandes déformations internes. Les variations locales de la vitesse de glissement peut générer d’importants efforts de traction au sein du manteau neigeux et une fois qu’un niveau critique de contrainte est atteint, la couverture neigeuse développe une fissure dite de glissement. Vu de dessus, ces fissures de glissement forment souvent des crevasses en forme d’arc (appelées « gueules de baleine »), qui peut s’étendre sur quelques dizaines de mètres. Le délai entre l’apparition des fissures et le départ de la plaque varie de quelques heures à quelques semaines. Il semble être fortement corrélé avec la température de l’air et le degré de consolidation du manteau neigeux. L’avalanche résultant est appelé une avalanche de glissement. La figure 4 montre l’avalanche de glissement qui a endommagé un télésiège dans la station de ski de Saint-François-Longchamp : la fissure de glissement est apparue en janvier 2012. Au début de mars 2012, lors d’un redoux, les déformations au sein de la couverture de neige ont augmenté jusqu’à l’avalanche de glissement formé et est allé descente très lentement (la vitesse typique était de 1 m/s).


fissure entraînant une avalanche de glissement après un passage doux

Figure 4 : fissure entraînant une avalanche de glissement après un passage doux en mars 2012 (Saint-François-Longchamp, France). Le dépôt d’avalanche atteint un télésiège et des pistes de ski. L’épaisseur moyenne de la neige le long de la fissure est de 1 m.

Haddock et les avalanches

À chaque début d’hiver, on me pose des questions sur les avalanches. Cette année, un journaliste m’a demandé s’il était vrai que la voix humaine pouvait déclencher des avalanches. Je donne dans ce billet quelques indications sur le sujet. Des récits de voyageurs à l’époque héroïque de la découverte des Alpes jusqu’aux aventures de Tintin au Tibet, on s’est plu à croire que le bruit, la voix, et le vent pouvaient causer le départ d’avalanches aussi fatales qu’improbables, qui emportaient avec elles les malheureux qu’elles trouvaient sur leur chemin. Très récemment encore, on pensait qu’un avion de chasse pouvait déclencher des avalanches, notamment s’il passait le mur du son au-dessus d’une pente de neige.


Tintin au Tibet
Figure 2 : Tintin au Tibet (Casterman) et l’avalanche déclenchée par le capitaine Haddock. DR.

Est-il réellement saugrenu de penser qu’une onde sonore puisse déclencher une avalanche ? Car, après tout, ce sont bien des explosifs qu’on emploie en station pour sécuriser les pistes de ski en déclenchant préventivement les avalanches. Et il existe par ailleurs de nombreux récits de randonneurs emportés par une avalanche quoiqu’ils se trouvassent loin de la zone de départ (donc qu’est-ce qui pourrait expliquer l’avalanche hormis un malheureux concours de circonstances ?).


déclenchement d'une plaque au passage d'un skieur
Figure 2 : déclenchement d’une plaque au passage d’un skieur (col de l’Eglise, massif Belledonne, Isère, France).

Comme souvent en sciences, tout n’est question que d’ordre de grandeur. La voix humaine peut créer des ondes sonores, c’est-à-dire des variations de la pression atmosphérique, qui ne dépassent guère 1 Pa (Pa est l’unité de mesure de la pression en pascal : rappelons que la pression atmosphérique au niveau de la mer vaut environ 105 Pa et qu’un vent tempétueux peut générer des variations de pression pouvant atteindre 1000 Pa). Si le bruit émis par un avion à réaction est assourdissant, les surpressions sont faibles : à peine 20 Pa quand on se situe à quelques dizaines de mètres de l’appareil. Plus intéressant est le cas de l’avion de chasse au moment où il passe le mur du son. Ce passage produit une « onde de choc », c’est-à-dire des variations brutales de pression, de masse volumique, et de température de l’air sur une distance très courte. Les sautes de pression peuvent dépasser les 500 Pa et se propager à grande vitesse (de l’ordre de 350 m/s) sur de grandes distances avec une atténuation plus faible qu’une onde sonore continue. Les ondes de choc développent aussi des profils de pression en N, avec tout d’abord une phase de dépression dans le front d’onde, puis une phase de surpression (ce qui contribue à ébranler tout objet soumis à l’onde de choc). Dans les stations de ski, on emploie des explosifs solides ou bien des mélanges détonants de gaz (comme un mélange d’oxygène et de propane) pour déclencher les avalanches. La combustion provoque une onde de choc (dite de détonation) qui se déplace à de très grandes vitesses (plus de 2000 m/s) et génère des variations significatives de pression. IAV Engineering, une spin-off de l’EPFL, arrivait à des mesures de surpression de 2500 Pa à 40 m de distance du point de tir pour un gazex (système de déclenchement, voir fig. 3).


tube Gazex émergeant du manteau neigeux

Figure 3 : tube Gazex émergeant du manteau neigeux. La détonation du mélange propane-oxygène est réalisée dans une chambre sous terre, puis se propage dans le
tube, qui dirige l’onde de choc vers le manteau neigeux.

Les études in situ, comme celles de Juerg Schweizer (SLF), ont montré que pour mettre en mouvement un manteau neigeux particulièrement instable, il suffit d’appliquer une surpression relativement faible de l’ordre de 200 à 500 Pa ; pour des manteaux neigeux plus stables, il faut exercer des surpressions importantes (plusieurs milliers de Pa). Un tel seuil disqualifie donc la voix comme moyen de déclenchement, mais montre qu’un avion militaire pourrait déclencher une avalanche s’il passe le mur du son au-dessus de pentes de neige instable.

Comment expliquer alors le déclenchement à distance d’avalanches par des randonneurs ? Tout simplement, parce que les ondes ne se propagent pas uniquement dans l’atmosphère sous forme d’onde sonore, mais également dans le manteau neigeux sous forme d’onde mécanique. Ces ondes, un peu comme la vibration d’une corde de guitare, se déplacent également à très grande vitesse et sur de grandes distances, ce qui permet de mettre en mouvement tout un pan de montagne (voir fig. 2). C’est ainsi qu’un skieur, même évoluant sur des pentes douces, perturbe l’équilibre mécanique du manteau neigeux et crée des ondes qui se propagent de proche en proche sur des distances pouvant dépasser plusieurs centaines de mètres pour certains manteaux neigeux pulvérulents. Arrivant dans des pentes plus raides, ces ondes peuvent causer la rupture d’un manteau neigeux instable et créer une avalanche, qui ensevelira le randonneur perturbateur.

Si le départ d’une avalanche ne pas être produit par la voix humaine, on retiendra que ce sont quand même les ondes qui en sont la cause.

Aller plus loin :

  • Benjamin Reuter and Jürg Schweizer : Avalanche
    triggering by sound: myth and truth
    , International Snow Science Workshop, Davos 2009, Proceedings
    330
    International Snow Science Workshop Davos, pp. 330-333.
  • Schweizer, J., J.B. Jamieson, and M. Schneebeli, Snow avalanche formation, Reviews of Geophysics, 41, 1016, 2003.



Histoire du génie paravalanche

Quoiqu’on ait tendance à utiliser le néologisme « nivologie » pour désigner la science étudiant la neige et les avalanches, il peut être plus avantageux de se référer à un terme plus technique – le génie paravalanche – pour désigner le corps de connaissances nécessaires à l’étude des avalanches et à la conception des moyens de protection spécifiques. L’objet de cette page est de dresser une perspective historique de cette science en Occident. Beaucoup pensent que le génie paravalanche est récent. Il n’en est rien : les premières actions de défense organisée contre les avalanches remontent au XVIIIe siècle en France et en Suisse ! Le développement du génie paravalanche n’a pas été linéaire : avant d’entrer dans l’ère moderne, il y a eu le savoir empirique des populations montagnardes, les premières recherches menées par les services forestiers à la fin du XIXe s. puis les études des géographes au début du XXe s., les développements des ingénieurs civils au milieu du XIXe s., etc.

Les balbutiements

Au cours des derniers siècles, de nombreux villages ont été touchés par des avalanches. Dans quelques cas, la seule parade consistait à abandonner le village pour un autre endroit ; le plus souvent, on déplaçait les bâtiments les plus exposés. Dès le XVIIIe siècle, des actions de défense active furent également menées, comme à Vallorcine, où une étrave fut construite pour protéger l’église et le presbytère en 1722. De même, après la terrible avalanche de 1784, les habitants de Bonneval-sur-Arc (Savoie) aménagèrent de grandes terrasses sur les pentes sommitales de la Grande Feiche pour éviter le départ de nouvelles avalanches. Il existe également quelques cas où les techniques de protection ne furent pas mises en œuvre par les habitants eux-mêmes, mais par les autorités. La mise en ban des forêts dans le royaume de Piémont-Sardaigne est un exemple de première législation à vocation de lutte contre les avalanches. Barèges (Hautes-Pyrénées) fut le premier site en France à bénéficier d’une défense active contre les avalanches. Reflétant de façon fidèle l’état d’esprit qui a prévalu en Europe jusqu’aux lendemains de la seconde guerre mondiale, l’ingénieur Lomet concluait au terme d’un voyage à Barèges en 1794 que c’était le déboisement qui est à l’origine des avalanches catastrophiques sur Barèges. La solution ne pouvait donc passer que par la reforestation des pentes. La présence d’un hôpital militaire dans une zone exposée a entraîné les premières études de protection par le Génie militaire dès 1839, mais il fallut attendre l’avalanche catastrophique de 1860 pour voir les premiers travaux.


Les pentes de la Grande Feiche à Bonneval-sur-Arc (Savoie).

Etrave protégeant une bergerie (Bessans, Savoie).

L’ère des forestiers 1860-1951

En Suisse, la Confédération se dote dès 1874 d’un service fédéral forestier calqué sur le modèle des Grisons. En 1876, la première loi fédérale sur la police des forêts est votée. En France, en 1860, sous le Second Empire, à la suite de nombreuses calamités naturelles, une loi donna naissance aux services de Restauration des Terrains en Montagne (RTM), dépendant de l’administration des Eaux et Forêts. Leur mission principale se fixa tout d’abord sur le reboisement des zones sensibles, la correction des torrents, et la lutte contre l’érosion des versants. Progressivement, les services RTM ont pris en charge les travaux de protection contre les avalanches, essentiellement en reboisant les versants exposés. Le reboisement des zones sensibles allait être la priorité des services RTM pendant de nombreuses années : à Barèges, Celliers, Saint-Colomban-des-Villards, etc. des séries domaniales sont constituées. Les forestiers n’ont pas fait qu’un travail de forestier. Ils ont aussi eu une contribution majeure dans l’observation et la compréhension des phénomènes. En Suisse, de 1878 à 1909, l’inspecteur général, Johann Coaz, accumula les statistiques sur les avalanches grâce à la mise en place d’une procédure de suivi de tous les couloirs menaçant des villages dans différents cantons. À ce titre, on peut considérer Coaz comme le véritable père fondateur de la nivologie. En 1881, il écrivit le premier ouvrage scientifique consacré aux avalanches. En France, c’est à l’ingénieur des Eaux et Forêts Paul Mougin que l’on doit la création d’un réseau d’observation des avalanches au début du XXe siècle. Alors jeune ingénieur au service RTM de Savoie, Mougin fit un voyage en Suisse en 1899 et rencontra Coaz. Dès son retour en France, Mougin créa des postes d’observations nivo-météorologiques et organisa le suivi de couloirs d’avalanches qui pouvaient représenter une menace. D’abord limitée à la Savoie, cette expérience fut progressivement étendue à tout le territoire national. Fait intéressant : dans sa monographie de 1922, Mougin fournit le premier modèle de dynamique des avalanches basé sur l’analogie avec un bloc glissant ; ce modèle fut, par exemple, utilisé par l’ingénieur suisse Lagotala pour dimensionner les pylônes des premières remontées mécaniques à Chamonix, puis le modèle tomba dans l’oubli.

Johann Coaz Paul Mougin

La faillite d’un système et la naissance du génie paravalanche moderne

Après la seconde guerre mondiale, l’influence des forestiers fut décroissante. Il y a eu plusieurs raisons à cela. Sans doute une des principales raisons est l’arrivée de nouvelles communautés s’intéressant aux avalanches : alpinistes, skieurs, géographes, et ingénieurs civils commencent dès le début du XXe s. à publier des monographies sur le sujet. Ainsi, en France, les géographes Allix, Bénévent, et Blanchard étudient de façon détaillée l’enneigement dans les Alpes, les causes des avalanches, les effets des avalanches catastrophiques, etc.

Un tournant fut également pris en 1936 quand, sous l’impulsion du géotechnicien Haeffeli, le premier laboratoire de la neige, le Schnee- und Lawinen Forschung (SLF) à Davos au Weissfluhjoch, fut créé par la Confédération. Ce laboratoire eut un rôle fondamental au cours du XXe s. dans l’élaboration des concepts de protection, qui furent massivement repris par les autres pays occidentaux. Sa création fut la première reconnaissance de la nécessité de recherches dans le domaine de la neige et des avalanches.


Airolo (Tessin, Suisse) et la terrible avalanche de l’hiver 1951.

Une autre raison du déclin forestier est à chercher dans les terribles hivers de l’après-guerre. En 1951, la Suisse connut une terrible crue avalancheuse (98 morts). Cette catastrophe a mis en évidence la lacune tant en matière d’aménagement du territoire (plan d’occupation des sols, urbanisation anarchique) que des insuffisances de protection. Afin d’éviter pareils drames, la Confédération s’engagea dans plusieurs voies :

  • la reprise du suivi de l’activité avalancheuse sur certains couloirs sensibles (dès 1955) ;
  • le développement de méthodes de calcul (les travaux de l’ingénieur civil Voellmy datant de 1955) ;
  • une réflexion sur le zonage d’avalanche et les contraintes urbanistiques.

Le développement du tourisme hivernal après la seconde guerre mondiale incita à l’extension des travaux de protection. Dans les années 60-67, des groupes de travail proposèrent les premières ébauches des principes de zonage. Les avalanches catastrophiques de janvier 1968 en Suisse rendirent encore plus pressante la nécessité de disposer de plan de zonage pour les communes exposées. C’est à partir de 1945 que la Suisse allait devenir le leader de l’ingénierie paravalanche et plusieurs scientifiques (André Roch, Bruno Salm, Marcel de Quervain) furent mondialement reconnus.

Sur la base du modèle suisse, le Canada créa une première cellule d’étude des avalanches en 1950 sous la houlette de Robert Legget. La recherche canadienne a surtout été connue par ses deux figures de proue, Peter Schaerer et David McClung, qui publièrent le best-seller « The Avalanche Handbook » vendu à 26000 exemplaires dans le monde. Aux États-Unis, la recherche s’organisa d’abord grâce au soutien d’agences fédérales comme le Cold Regions Research and Engineering Laboratory (CRREL) dépendant du génie militaire et l’U.S. Forest Service (USFS). L’accent fut surtout mis sur des développements technologiques comme l’emploi d’explosifs pour déclencher artificiellement les avalanches. Les travaux de LaChapelle (USFS) à la fin des années 1950 et de Mellor (CRREL) dans les années 60 sont précurseurs en la matière.

En Autriche, les terribles avalanches de 1951 et 1954 (271 morts) donnèrent l’impulsion à la création d’un institut fédéral forestier en 1963. La collaboration avec la Suisse fut étroite et porta essentiellement sur les ouvrages de protection (claies, digues). Cependant, des critiques virulentes du système mis en place par les forestiers amenèrent à la création d’instituts universitaires : Aulitzky créa au milieu des années 70 le laboratoire Bodenkultur à l’université de Vienne, tandis que Fritsche fit de même à l’université de Graz.

En France, jusqu’à la seconde guerre mondiale, il n’y a pas eu une volonté politique d’organiser une lutte systématique contre les avalanches, d’une part à cause du faible poids économique de la montagne française, mais également à cause du coût exorbitant des travaux de correction. Le reboisement était donc amplement considéré comme la meilleure politique globale de prévention. En février 1970, la catastrophe du chalet de l’UCPA à Val-d’Isère, puis celle de Passy, fut le symbole de la défaillance du système de protection. Aussitôt, le gouvernement nomma une commission interministérielle d’enquête ; dès octobre 1970, cette commission proposa la création de l’Association Nationale pour l’Etude de la Neige et des Avalanches (ANENA), la mise en place d’une division nivologie au CTGREF (devenu le Cemagref) et du centre d’étude de la neige (Météo France).

Saint-Etienne-de-Cuines et sa forêt centenaire, insuffisante à protéger le village d’une avalanche en janvier 1981.

L’ère des numériciens

Dans les années 1960-70, les pays occidentaux ont connu une profonde mutation avec la création d’organismes spécialisés dans l’étude des avalanches, où les ingénieurs civils ont progressivement remplacé les forestiers. On entre alors dans la période moderne de la lutte contre les avalanches. Une autre mutation s’amorce à la fin des années 1970 avec le développement croissant des modèles numériques. Cette mutation a été rendue possible, d’une part, par l’accroissement considérable de la puissance des ordinateurs et, d’autre part, par le développement d’équations décrivant le mouvement des avalanches. C’est sur ce dernier point que l’URSS a joué un rôle majeur et totalement méconnu, en grande partie à cause du plagiat des recherches soviétiques par des scientifiques occidentaux. On peut rendre hommage aujourd’hui à des chercheurs comme Grigorian, Eglit, ou Kulikovskiy en faisant remarquer que la plupart des modèles actuels d’avalanches prennent entièrement leurs racines dans leurs travaux.

Essai en laboratoire (Cemagref) visant à reproduire une avalanche en aérosol.

On peut mettre au crédit des Occidentaux d’avoir su miser très rapidement au cours des années 1970 sur le numérique. En France, au Cemagref, Pochat puis Vila proposent les premiers codes numériques capables de simuler une avalanche coulante. Aujourd’hui, tous les instituts possèdent leur code numérique et ce n’est pas un hasard si la plupart des équipes de recherche dans ces instituts sont dirigées par des numériciens. L’ère du numérique a ouvert une page importante du génie paravalanche en permettant une meilleure quantification des caractéristiques des avalanches alors que jusque là, seul l’avis « à dire d’expert » comptait.

Et demain ?

Peut-on tracer des tendances de ce que sera le génie paravalanche de demain ? On a vu que, comme d’autres sciences, les mutations résultent le plus souvent soit d’un constat d’échec, soit de l’apparition de nouvelles technologies. Peut-on craindre un échec ? Récemment, l’expert international Bruno Salm déclarait que « l’augmentation de la complexité des modèles n’implique pas nécessairement une meilleure précision ou stratégie de protection », reflétant ainsi les doutes croissants des praticiens et des scientifiques vis-à-vis du tout numérique. On peut effectivement préfigurer une réhabilitation du savoir naturaliste incarné par le forestier, mais il n’en demeure pas moins que l’outil numérique demeure indispensable à l’ingénierie actuelle. Peut-on espérer des avancées technologiques ? Difficile à prédire, mais en tout état de cause, l’histoire du génie paravalanche est loin d’être close.