Montroc, 20 ans après

Le 9 février 1999, il y a 20 ans, une avalanche partie de la montagne de Péclerey balaya le hameau de Montroc (Chamonix-Mont-Blanc, Haute-Savoie), tuant 12 personnes dans leur logement. Ce même hiver 1999, les avalanches touchèrent également des habitations en Suisse, Autriche, et Italie, et le nombre de victimes (68 personnes tuées dans des habitations) fut le plus élevé depuis 1970, année de la catastrophe de Val d’Isère. [1]

Février 1999 : tempêtes sur les Alpes

Depuis l’hiver 1999, les Alpes ont subi des passages dépressionnaires accompagnés de fortes chutes de neige, mais aucun ne présenta des cumuls de neige, des durées de précipitation, et un historique comparables à ce qui a été vécu en février 1999. À une époque où le réchauffement climatique fait surtout craindre le manque de neige, on pourrait y voir une fréquence moindre des épisodes neigeux critiques. Toutefois, si on examine la fréquence de tels épisodes au cours du XXe siècle (sans trop se focaliser sur le nombre de victimes, qui reflètent probablement plus l’intensification de la présence humaine que l’intensité des avalanches), on note qu’entre 1914 et 1950, il y a eu peu de gros épisodes critiques qui concernent une grande partie du massif alpin alors que pour la seconde moitié du XXe siècle, on dénombre plusieurs hivers critiques 1951, 1954, 1968, 1970, 1978, 1981, et 1999. De ce point de vue-là, nous sommes dans une phase plutôt calme. Cela ne présage rien quant à la tendance future.

Les réactions immédiates à la catastrophe

L’avalanche de Montroc a d’abord nourri la presse. L’analyse des articles parus dans la presse généraliste ou spécialisée montre que les journalistes ont surtout pointé la recherche du profit, l’urbanisation de secteurs à risque, et la complaisance des autorités locales face à la pression foncière. Cependant, les enquêtes diligentées par l’administration (le préfet de Haute-Savoie), puis la justice n’ont jamais fait ressortir d’éléments corroborant la thèse d’un urbanisme dévoyé par les intérêts privés à Montroc. Dès le lendemain de la catastrophe, le préfet de Haute-Savoie a commandé deux enquêtes : une diligentée par Richard Lambert (géographe de formation, consultant, universitaire, et expert près la Cour de cassation), et une autre conduite que j’ai présidée au Cemagref (en demande l’assistance de Météo-France). La justice mandata par la suite Richard Lambert pour l’expertise judiciaire. Les rapports d’expertise n’ont jamais été rendus officiellement publics, mais j’en ai tiré des articles parus dans des revues spécialisées pour ce qui concerne mon rapport [1].

Le maire, victime expiatoire ?

L’année 1999 a été une année noire pour la municipalité de Chamonix puisqu’en mai ce fut l’incendie du tunnel du Mont-Blanc qui endeuilla la commune. Responsable politique, le maire de Chamonix fut mis en examen et condamné, mais une loi d’amnistie annula cette condamnation. En gros, ce que la justice reprocha au maire, c’est de ne pas avoir fait évacuer les chalets de Montroc alors que la CLPA dans sa dernière version (1992) indiquait une avalanche allant jusqu’aux habitations. Dans ses attendus rendus en juillet 2003, le tribunal notait [2]

« Il était du devoir du maire, seul habilité à le faire, de prendre une mesure d’évacuation d’un site manifestement exposé à un risque majeur d’avalanche.
En s’en abstenant alors qu’il est démontré qu’il devait connaître le risque et qu’il avait les moyens de le faire, le maire a manqué à son obligation de prévenir l’avalanche par des précautions convenables et en cas de danger grave ou imminent, tel qu’en l’espèce, de prescrire l’exécution des mesures de sûreté exigées par les circonstances.
La faute ainsi commise par Monsieur Michel C. est établie, elle revêt un caractère d’une particulière gravité par l’accumulation des fautes d’appréciation du risque et de mise en œuvre de la prévention alors que de nombreuses vies humaines étaient en danger. »

Fronde des élus

La condamnation du maire de Chamonix n’a pas fait l’objet d’appel puisqu’il y a eu amnistie. Et donc le fond technique du dossier (la prévisibilité de l’avalanche, la possibilité d’évacuer des personnes pour une commune menacée par 116 couloirs d’avalanche) n’a pas été débattu plus longuement. Cela n’a pas été sans conséquence. Comme pour le jugement d’Évolène, les scientifiques (qui n’ont pas été auditionnés par le juge) sont moins catégoriques que la justice sur la connaissance certaine d’un risque fort. Les élus ont l’impression que l’État se donne le beau rôle en imposant le zonage de risque, tout en transférant la responsabilité opérationnelle aux autorités locales. Quand les services de l’État ont cherché à édicter des règles communes de zonage, ensemble de règles regroupées dans le « guide méthodologique PPR avalanche », ils ont cherché à promouvoir les zones jaunes, zones a priori soumises à un risque faible, mais qui exceptionnellement pourraient être touchées. Ces zones jaunes devraient compléter le découpage du territoire urbanisé (ou urbanisable) en rouge/bleu/blanc. Si des mesures constructives de protection paravalanche accompagnent les zones bleues, seules des mesures temporaires de consignation/évacuation concernent les zones jaunes. Cette évolution inspirée du modèle suisse aurait dû être facilement adoptée. Cela fût l’inverse. Techniquement prêt en 2002, le guide PPR avalanche élaboré par le RTM n’a été publié officiellement qu’en 2015 [7]. La fronde des élus chamoniards a bloqué le dossier pendant 13 ans. À ce jour, le hiatus entre juges, scientifiques, élus, et représentants de l’Etat sur un dossier comme celui de Montroc est toujours béant. Le temps a passé, la béance devient moins visible au fur et à mesure que le temps passe, mais elle est toujours là.

Réaction sur le long terme

Après le volet judiciaire, il y a une enquête administrative. Comme c’est souvent le cas le lendemain d’une catastrophe, on cherche des coupables, mais on cherche aussi comment éviter l’occurrence de nouvelles catastrophes. Il y a eu deux missions interministérielles commandées par l’État :

  • En octobre 2000, la mission composée de B. Glass, P. Huet, M. Rat, et R. Tordjeman publiait son rapport sur l’avalanche de Montroc [3]. Parmi les préconisations, il y avait la révision du zonage de Chamonix, le guide PPR avalanche et un recensement des couloirs d’avalanches pouvant atteindre des zones habitées et des voies de communication (Sites Sensibles aux Avalanches) sur l’ensemble du territoire national. Le RTM se voyait confier l’élaboration du guide PPR et la révision du zonage tandis que le Cemagref (devenu Irstea) gérait le volet SSA.
  • En avril 2011, Le Gallou et Guignard rendaient les conclusions de leur rapport sur les avalanches exceptionnelles [4]. Conclusions multiples avec des volets opérationnels et juridiques. Un point important a été de savoir comment prendre les bonnes décisions dans un environnement marqué par les incertitudes. Parmi les réponses esquissées, les rapporteurs préconisent le recours aux modèles numériques en dépit de leurs limites. Les rapporteurs relativisaient également la menace des avalanches par rapport à l’ensemble des risques que la France connaît.

Au fur et à mesure que le temps a passé, l’urgence a diminué, d’autres catastrophes naturelles comme la tempête Xynthia en 2010 ou les crues éclair à répétition sur la façade méditerranéenne ont focalisé l’attention des pouvoirs publics. Face au creusement du déficit, une constante de l’action publique a été de réduire les coûts en sabrant certains postes. Au cours des années 2010, l’ANENA a vu ses subventions étatiques et régionales fondre comme neige au soleil, le financement de l’enquête permanente des avalanches (EPA) et de la cartographie (CLPA) a été réduit, le RTM est passé du statut de service de l’État à prestataire commercial (établissement public à caractère industriel et commercial) sous la tutelle de l’ONF (organisme lui-même lourdement déficitaire). En dépit des déclarations publiques, les années post-Montroc marquent surtout un désengagement de l’État de ses missions régaliennes en matière de sécurité.

Révision du zonage

Une des conséquences de l’avalanche de Montroc (et des crues de 1996) a été aussi la révision du zonage de Chamonix. Le RTM a proposé une révision au début des années 2000, mais elle n’a pas convaincu tous les habitants. Une association de victimes (l’AIRAP) et des associations de riverains (Riverains du chemin du vieux four à Argentière) ont décidé de faire appel aux services de Richard Lambert. Il leur a rendu un premier rapport en 2007, mis en ligne sur le site de l’AIRAP. Ce rapport pointait des problèmes sur plus de 40 couloirs (donc le tiers des couloirs recensés sur la commune).

Cela a créé du remous, on l’imagine bien. En 2011, 4 ans après donc, la Direction générale de protection contre les risques du Ministère de l’environnement (DGPR), missionne M. Lambert qui rend son rapport sur le zonage PPR en janvier 2012. Embarrassée, la Direction départementale des territoires du territoire (DDT-74), désormais en charge du dossier, décide de lancer une consultation en avril 2012. Le cahier des charges prévoit le recours aux simulations numériques pour trancher le différend entre le zonage RTM et le zonage Lambert. C’était l’une des préconisations du rapport Le Gallou-Guignard. Contacté par la DDT-74, je leur indique que scientifiquement, aucun modèle n’est capable de répondre à la problématique (notamment, prédire avec la précision de l’échelle cadastrale l’extension de phénomènes exceptionnels). Pour la personne de la DDT en charge de cet appel d’offres, au diable les avertissements, peu importe l’état de l’art, on trouvera toujours quelqu’un pour faire le boulot quand il existe des codes commerciaux. En août 2012, la DDT confie l’analyse numérique de 50 couloirs à un groupement composé de Robert Bolognesi (géographe, Météorisk, Sion), André Burkard (ingénieur forestier, bureau Geoformer Brigue), Enrico Ceriani (technicien forestier, studio tecnico Ceriani, Aoste), et Jean-François Meffre (spécialiste des avalanches, ASI, Andorre). Si deux des membres sont des praticiens reconnus avec une grande expérience des avalanches et du zonage, aucun n’est un spécialiste de la dynamique des avalanches et de la simulation numérique. Il en est de même du comité de pilotage, sans aucun spécialiste. Le groupement a utilisé le code commercial Ramms vendu par le SLF. Comme ce sont les données du rapport Lambert qui ont été utilisées, il est peu étonnant que les simulations corroborent le dire d’expert de M. Lambert. Un membre de ce groupement me confiait que tout cela a dû être réalisé en peu de temps, avec la planification imposée par la DDT, ce qui a laissé peu de temps pour réellement mener une analyse fine, a fortiori quand le cahier des charges cadrait strictement la méthodologie de l’étude. Tout cela a quand même coûté 450 k€ à la collectivité. En mai 2015, la DDT présentait son nouveau zonage PPR. Dans un courrier à l’AIRAP, Richard Lambert qui avait porté l’essentiel du travail d’analyse regrettait que la DDT ne fasse pas mention à son travail, mais seulement à l’ « expertise internationale » (sic) [5-6]. Bref, il dénonçait l’ingratitude de la DDT 74. Hormis cette voix discordante, tout le monde s’est félicité du nouveau PPR, et personne n’a trouvé à redire face à la somme engloutie dans cet exercice en une période de disette budgétaire. Quelle a été la plus-value des simulations numériques hormis de donner un alibi scientifique ? Une question que la DDT a évité de se poser… ainsi que tous les responsables de l’État y compris à la DGPR à qui je l’ai posée.

Conclusions

Alors a-t-on progressé depuis Montroc en matière de zonage ? L’absence d’événements catastrophiques peut le laisser croire. La population croît, l’affluence touristique ne fléchit pas, la pression foncière va donc croissante, et cela pousse à construire dans des zones plus exposées aux dangers naturels. Pendant longtemps, le pragmatisme, le savoir-faire empirique et l’expérience ont été les outils de l’ingénieur ou du fonctionnaire pour évaluer au mieux le risque. Chez les praticiens expérimentés, je n’ai trouvé globalement que très peu d’erreurs dans les zonages, et celles-ci demeurent souvent dans la marge d’appréciation compte tenu des incertitudes (grandes) et de la fréquence (faible) des avalanches extrêmes. Ce qui apparaît comme le fait marquant des années 2010 est l’apparition d’une approche normative : des procédures encadrant les démarches de zonage, la traçabilité des changements, et le recours de plus en plus systématique à des modèles numériques. Cela peut sembler paradoxal, mais depuis lors, je n’ai jamais vu autant d’erreurs basiques dans le travail de zonage, et ces erreurs sont devenues très fréquentes. On a donné un vernis de technicité en généralisant les modèles numériques, mais plus grand monde, que cela soit dans les services instructeurs ou les bureaux d’étude, ne semble être capable de déceler les incohérences grossières qui peuvent apparaître dans les études. Face à un monde complexe, la tendance lourde de nos sociétés a été de créer des approches normatives. L’administration instruisant un dossier ne cherche plus à en vérifier la pertinence vis-à-vis du réel, mais la conformité par rapport à des critères qu’elle a elle-même établis. En parallèle des rapports officiels publiés par la DGPR, l’administration a produit une abondante littérature grise sur les avalanches, par copier-coller et compilation de sources variées façon wikipedia, auto-alimentant l’illusion d’un savoir scientifique et rigoureux. C’est très sérieusement que la DDT-74 annonce ainsi que pour le nouveau zonage « les études ont été poussées au maximum des outils actuellement disponibles » [6]. Cette déclaration hyperbolique n’est pas une ficelle de politicien (plus le mensonge est gros, plus il passe facilement) ou du positivisme à la mode de Coué, mais reflète bien l’incapacité de l’administration à distinguer le sérieux du loufoque dans les études.

Quand on dresse le bilan des deux dernières décennies, il ne semble guère que l’administration ait appris des erreurs commises dans le zonage avalanche. Les cafouillages ont été nombreux à Chamonix et expliquent le retard considérable dans la mise à jour du PPR (16 ans !) : surdité des services locaux de l’État, érosion des compétences au sein des services, fronde des élus, règlements de compte et querelles de clochers, et absence de toute expertise scientifique depuis le rapport de 1999. Les problèmes de fond ont été exacerbés et, escamotés sous le vernis d’une technicité affichée comme scientifique, ils sont des bombes à retardement. Dans le dossier de Chamonix, les choses ont bougé sous l’action des associations privées, et parce qu’un expert a fait l’essentiel du travail d’analyse critique. Mais ailleurs ? Il est fort probable que le prochain hiver à fort enneigement réserve de très mauvaises surprises.

Références




RAMMS ou le miroir aux alouettes

Dans un article qui a été récemment accepté (septembre 2017) par la revue scientifique Journal of Glaciology [1], trois scientifiques ont décidé de porter l’estocade contre le modèle numérique d’avalanche RAMMS (acronyme pour Rapid Mass Movement) commercialisé par le WSL/SLF depuis le début des années 2010. RAMMS comporte trois modules (avalanche, chutes de pierre, et lave torrentielle). Le module avalanche a connu un certain succès commercial au cours des sept dernières années au point que l’on voit fleurir des affirmations dithyrambiques le citant comme LA référence en la matière. Le présent article revient sur les causes de la polémique et les conséquences pratiques de ce qui s’annonce comme un scandale dans un milieu d’ordinaire bien policé.

Les protagonistes

Plantons le décor. Les trois scientifiques sont

  • Dieter Issler, un consultant en avalanche pour le NGI en Norvège, physicien de formation (ETHZ) et ancien du WSL/SLF (il a notamment participé à la mise en place du site de la Sionne),
  • Jim Jenkins (prof., université de Cornell, un des pères de la théorie cinétique granulaire), et
  • Jim McElwaine (prof., université de Durham, un mathématicien avec une passion coupable pour la neige et les avalanches, et un partenaire de longue date du SLF).

La revue scientifique est Journal of Glaciology, dont un des éditeurs est Perry Bartelt du SLF et papa de RAMMS. Il y a publié l’essentiel des articles consacrés à son modèle numérique.

Hum… cela sent le linge sale qu’on lave en famille d’habitude. Alors qu’en est-il ?

Des tabous en science ?

Il y a en science des frontières que l’on se garde de franchir, des quasi-tabous. Le plus souvent, ce sont des frontières tacites acceptées par la communauté, mais parfois, le législateur est passé par là et met des garde-fous légaux (comme l’interdiction du clonage humain). Comme l’avait anticipé le philosophe français Jacques Ellul, ce type de frontière finit toujours par être franchi :

« parce que tout ce qui est technique, sans distinction de bien et de mal, s’utilise forcément quand on l’a en main. »

Dans le domaine des modèles numériques en général, et en dynamique des fluides géophysiques en particulier, les développeurs (le plus souvent des universitaires) peuvent mettre à disposition leur modèle pour des applications ponctuelles ou des comparaisons avec des données de terrain ou de laboratoire. La diffusion large d’un produit de la recherche nécessite un gros travail d’interface (souvent de pré- et post-traitement de l’information) et de documentation. Et le travail est tellement conséquent qu’il faut des années pour que de petites équipes académiques puissent y parvenir. Dans bien des cas, les outils restent donc sous forme de version beta sans interface et c’est l’utilisateur qui doit se débrouiller. Rendre un code librement accessible ou le commercialiser sous-tend que le produit correspond à un état de l’art accepté par la communauté scientifique et qu’il a été validé à différents niveaux.

Valider un code numérique

Le travail de validation d’un code numérique comporte plusieurs étapes :

  • vérifier que les équations utilisées sont pertinentes à décrire le phénomène étudié,
  • contrôler que la méthode de résolution numérique est stable et converge vers la bonne solution physique,
  • appliquer le code à des cas idéalisés (pour montrer que le code capture la physique du phénomène avec la précision souhaitée) puis des cas réels.

Généralement, le processus de développement et de validation fait l’objet d’articles dans des revues scientifiques. Le travail doit être examiné par des scientifiques (rapporteurs) indépendants. C’est ce qu’on appelle le processus de revue par les pairs (peer-reviewing). Et naturellement, pour éviter les conflits d’intérêt, les auteurs ne soumettent pas leurs articles dans des revues dans lesquelles ils ont des responsabilités éditoriales ou un lien étroit avec les responsables de la publication.

Et alors quel est le problème avec les avalanches ?

Tous les modèles actuels sont fondés sur des équations de Saint-Venant, un jeu d’équations tirées de l’hydraulique pour décrire les rivières en crue. Le premier code numérique moderne d’avalanche a été écrit par Jean-Paul Vila dans les années 1980 [2-3], et tous les codes actuels en sont inspirés à des degrés divers. Cependant, même après 30 ans de tests et développements, les progrès ont été limités. En 2000, dans le cadre d’un programme européen de recherche, différents groupes ont calibré les paramètres de frottement de leur modèle numérique (tous fondés sur le même jeu d’équations de Saint-Venant) et ont abouti à des valeurs très différentes [4]. Cela a souligné la grande sensibilité des résultats aux détails de la résolution numérique.

D’autres problèmes se sont posés et touchent le cœur de l’approche actuelle. Par exemple, depuis Voellmy [5], le frottement de l’avalanche est supposé inclure du frottement solide (de type Coulomb) et du frottement turbulent (fonction de la vitesse quadratique). Avec la multiplication de sites expérimentaux permettant de suivre le mouvement des avalanches dans le détail, il est devenu clair que le modèle de Voellmy ne permet guère de décrire fidèlement le frottement réel [6-7]. Cependant, pour des raisons tant pratiques qu’historiques, le modèle de Voellmy continue à être utilisé par les praticiens. Ceux-ci appliquent donc leur propre technique pour ajuster les paramètres du modèle de Voellmy.

Malgré les progrès, les méthodes numériques peinent parfois à résoudre correctement les équations. Par exemple, la localisation du front pose souvent problème (en effet c’est le point où la hauteur écoulement devient nulle, mais avec des modèles de frottement de type Voellmy, le frottement devient localement infini (car il s’écrit en 1/h avec h la hauteur d’écoulement) et même avec un frottement faible, le front est une singularité qui nécessite un traitement particulier, voir [8-9]). Pour plusieurs codes, l’avalanche ne s’arrête jamais. La vitesse tend vers 0, sans toutefois l’atteindre. Il faut donc des « patches » pour corriger ces erreurs numériques.

Et RAMMS alors ?

Plusieurs groupes dans le monde se sont intéressés à décrire des écoulements de fluides complexes à l’aide d’équations de type Saint-Venant. Il faut prendre conscience que l’étalement d’un fluide ordinaire comme de la mayonnaise sur une table de cuisine est déjà un problème d’une grande complexité, sans solution actuellement ! Alors, des fluides complexes comme la neige offrent un défi considérable.

Le groupe de Perry Bartelt au SLF a tenté de relever le défi en puisant des idées dans la thermodynamique des systèmes hors équilibre de Prigogine et la théorie cinétique des gaz dissipatifs. Le point d’achoppement est que le modèle (ou devrait-on dire « les modèles » tant le modèle initial a subi des évolutions au cours des 10 dernières années) n’est pas cohérent avec ce que l’on sait des fluides complexes tels que les milieux granulaires. Les démonstrations sont par ailleurs émaillées d’erreurs. C’est en substance ce que dit l’article très détaillé d’Issler, Jenkins, et McElwaine. Iverson et George notaient, de leur côté, des problèmes similaires [10].

À l’absence de validation théorique des concepts développés s’est ajouté le manque de validation expérimentale. Indépendamment de toutes autres considérations, un problème de taille surgit pour toute validation avec la neige : il est très difficile de mesurer les propriétés mécaniques de la neige en écoulement par des expériences indépendantes et contrôlées. Les paramètres de tous les modèles sont donc ajustés ou calibrés en faisant correspondre des observations de terrain et des prédictions du modèle. C’est ce qu’on appelle caler un modèle. Mais caler les paramètres d’un modèle sur un événement ne dit rien sur la pertinence du modèle. Cela ne permet pas non plus de dire grand-chose sur un autre événement (même sur le même site) car a priori les valeurs des paramètres changent sans qu’on sache comment. Dans sa dernière version, RAMMS possède 16 paramètres. Avec un modèle sur-paramétré (c.-à-d. qui possède plus de paramètres qu’il n’existe de variables indépendantes que l’on puisse observer et utiliser pour tester le modèle), il est plus facile de caler le modèle, mais il devient quasiment impossible de l’utiliser en pratique de façon rigoureuse. Une erreur de détermination de quelques % sur un paramètre peut se propager et s’amplifier, aboutissant finalement à des erreurs considérables dans la prédiction. Un problème bien connu des hydrologues… [11].

Le miroir aux alouettes

Malgré l’absence de fondement théorique reconnu au sein de la communauté scientifique et l’insuffisance du travail de validation à partir d’observations de terrain, RAMMS a réussi à séduire autorités locales et bureaux d’études. Pourtant, des avertissements sur l’illusion de précision de l’approche numérique ont été émis. En 2004, à la fin de sa carrière au SLF, Bruno Salm (qui a beaucoup contribué aux méthodes quantitatives pour les avalanches et peut être considéré comme un des grands acteurs de la nivologie moderne) a mis en garde contre les voix de sirène : avec l’augmentation croissante de la puissance des ordinateurs, les modèles gagnent en réalisme, mais non en précision [12] :

« tous les modèles présentés sont – jusqu’à présent – d’une façon ou d’une autre entachés d’incertitudes. Un accroissement de la complexité des modèles n’implique pas nécessairement une précision plus grande ou une meilleure stratégie de lutte contre les dangers naturels. »

Pour les autorités locales, le numérique semble offrir non seulement un extraordinaire gain en précision (c.-à-d. prédire les distances d’arrêt pour le zonage d’avalanche avec une précision métrique), mais également un outil objectif permettant un traitement homogène du zonage de risque (implicitement il est supposé que le dire d’expert est subjectif). C’est ainsi qu’en 2011, les deux ingénieurs généraux de l’administration française Le Gallou et Guignard ont préconisé le recours systématique au numérique dans le zonage d’avalanche pour éviter les écarts qu’ils ont notés d’une commune à l’autre [13]. RAMMS est jusqu’à présent le seul candidat en lice, puisque personne d’autre que le SLF n’a commercialisé de code de calcul avec une une large diffusion. Il existe bien un candidat autrichien (SAMOS), mais il a une diffusion confidentielle [14-15], et il y a aussi quelques codes académiques, mais ils sont utilisés par leurs propres développeurs (en France, il y a l’IRSTEA de Grenoble, qui est le pionnier mondial du domaine, mais également l’ENS de Lyon et l’Université de Savoie). Étonnamment, personne dans l’administration ne s’est demandé pourquoi aucun des autres groupes de recherche dans le monde ne s’est lancé dans le créneau du code commercial. Les successeurs de Vila seraient-ils moins bons ou audacieux que leur père spirituel ? Ou bien suffisamment prudents pour ne pas se lancer sur une pente glissante ? Un responsable du RTM évoquait l’idée que, certes, un modèle comme RAMMS n’est pas rigoureux sur le plan scientifique, mais il est socialement acceptable car il répond à un besoin de la société (il veut dire à un besoin d’un groupe de personnes de l’administration, la synecdoque étant une figure de style prisée dans l’administration). La situation n’est pas sans rappeler les financiers qui avant la crise financière de 2007 s’étaient engagés dans des placements hasardeux mais tellement prometteurs en termes de rendement, et qui une fois le crack boursier advenu, se sont écriés que jamais au grand jamais ils n’auraient pu se douter du caractère extravagant des montages financiers. Personne ne les en avait avertis. Pourtant les voix s’étaient bien élevés avant 2007 pour dénoncer l’emballement financier, mais comme le dit le proverbe populaire, il n’y a pas plus sourd que celui qui ne veut pas entendre. Dans la finance, entre des promesses de rendement à 3 % et d’autres à 15 %, le choix a été vite fait, avec les conséquences que l’on mesure encore aujourd’hui. Nous vivons une situation similaire avec les modèles hydrauliques et d’avalanches. L’État a dépensé plus de 450 k€ pour des simulations numériques d’une trentaine de couloirs à Chamonix, simulations réalisées à l’aide de RAMMS, en dépit des remarques sur la faible plus-value de l’exercice. Des rapports ont été rendus récemment par les administrations pour « encadrer » l’usage des modèles numériques. Étonnamment, là encore, aucun scientifique (du développeur de code au mécanicien en passant par le géographe, le sociologue, l’historien ou le spécialiste de terrain) n’a été consulté. On mesure en France et en Suisse le fossé croissant qui sépare milieu académique et administrations en charge de la gestion territoriale.

Pour les bureaux d’études, le numérique est une formidable porte d’entrée à un marché qui pendant longtemps nécessitait des années de formation et de reconnaissance par les pairs. Il suffit désormais d’acquérir la licence d’un code numérique pour du même coup bénéficier d’un savoir numérique. Or, si dans quelques domaines de l’ingénieur (les fluides industriels ou le calcul des structures), une grande partie du travail de calcul est réalisée de nos jours par des ordinateurs, avec une partie humaine réduite à la portion congrue, tant les codes sont fiables, cela n’est pas le cas dans d’autres domaines (dont l’hydraulique torrentielle et les avalanches) où les modèles sont beaucoup plus rustiques et leurs résultats nécessitent un examen critique.

Et demain ?

Comme l’a documenté l’excellent ouvrage de Nicolas Chevassus-au-Louis [16], on note qu’avec la pression croissante qu’ont les scientifiques à publier, il y a en retour un accroissement du nombre d’articles litigieux (selon Chevassus-au-Louis, cela concerne quand même une fraction non négligeable de l’ordre de quelques % de l’ensemble des articles publiés). Cela va d’erreurs d’inadvertance (erreurs de mesure, de calcul, etc.) à des problèmes plus graves de fraude ou de plagiat. Quand les errata ne suffisent pas à corriger des erreurs manifestes, on voit des scientifiques retirer leurs articles. Dans le cas présent, il est encore trop tôt pour savoir quelle position sera adoptée par Bartelt et ses coauteurs, mais une réponse à l’article d’Issler, Jenkins et McElwaine est nécessaire (comme cela a été le cas avec la critique d’Iverson et George [10] sur un autre article de Bartelt). La rétraction est une possibilité ouverte pour clore la polémique. Les conditions d’acceptation des articles de Bartelt dans Journal of Glaciology font planer un doute et ne sont pas sans rappeler le scandale qui a secoué le groupe de Claude Allègre à l’IPGP et leurs articles dans une revue publiée par Elsevier [17].

Si on dépasse cette querelle interne au milieu académique, on peut se demander si le scandale va ébranler la diffusion du code numérique, s’il va être retiré du marché ou gelé dans une version plus cohérente avec l’état de l’art scientifique réel (et non idéalisé). Tout du moins, un sérieux rappel sur les limites de la modélisation s’impose. Dans la méthode dite VSG de 1990 (VSG pour Voellmy Salm Gubler) qui est en quelque sorte l’ancêtre de RAMMS, les auteurs prévenaient l’utilisateur [18]

« Il faut mettre en garde sur l’utilisation de cette méthode comme un « livre de cuisine » (on portera une attention particulière à l’usage des mots « environ » et « valeur indicative »). Bien au contraire, chaque avalanche requiert un traitement propre et une connaissance de la matière dans son ensemble. À cela s’ajoute aussi l’expérience qui joue un rôle important et que chacun doit acquérir. Il faut en dernier lieu avoir à l’esprit que les avalanches échappent aux calculs trop précis. »

C’est un avertissement qui ne mange pas de pain. Toutefois, si on examine les scandales dans le domaine sanitaire, on constate une grande inertie des intervenants. En pratique, il faut beaucoup de temps avant que les choses ne bougent…

Le scandale ne sera pas sans incidence plus large. La probabilité qu’un zonage tout numérique aboutisse prochainement à un accident dans le monde est grande. Comment cela sera-t-il jugé ? Qui sera responsable ? Ne risque-t-on pas une défiance envers les approches scientifiques ? Les sondages d’opinion montrent qu’une part croissante de citoyens éprouve de la défiance envers la science et les « experts » (combien parmi nous font confiance aux experts des OGM ou du nucléaire ?) alors que la fascination technologique est toujours bien présente. Comment redonner de la confiance aux utilisateurs et autorités car si l’approche numérique n’est pas la panacée, elle a ses mérites ?

Pour les maîtres d’ouvrage et maîtres d’œuvre, un regard critique doit être porté sur la plus-value d’une simulation numérique (par rapport à une expertise classique) et sur la capacité du bureau d’études à manipuler un code de type RAMMS. Il faut indiquer qu’un bon praticien saura déjouer la plupart des pièges numériques alors qu’un praticien inexpérimenté prendra les solutions numériques pour argent comptant. Le rendu sera souvent proche (de jolies couleurs sur une carte), mais le diable se cache dans les détails.

Mise à jour (27 janvier 2018)

Perry Bartelt a usé de son droit de réponse en publiant un article pour nier toute erreur dans ses articles [18]. Dans la conclusion, il dit créer une nouvelle mécanique :

« Ici, nous devons être francs : nous n’avons pas négligé les solutions offertes par la mécanique granulaire et l’étude des courants gravitaires de particules. La situation est beaucoup plus grave : nous les avons abandonnées pour la simple raison que nous avons constaté qu’elles ne fonctionnaient pas. Confrontés à la tâche de développer un modèle d’avalanche pour la pratique en ingénierie, nous nous sommes posé une question simple : qu’est-ce que l’application des lois de Newton et Stokes implique lorsqu’on s’attelle à la description des conditions aux limites au fond, du frottement de l’écoulement, et de l’aérosol. Nous voulions éviter les formulations de modèle qui abondent dans le jargon inutile et trompeur, l’inexactitude, la contradiction et l’illogisme général. Nous voulions avant tout un modèle qui puisse être testé en utilisant des mesures expérimentales et qui soit compréhensible pour les ingénieurs et les technologues. [19] »

Références

  • [1] Issler, D, J. T. Jenkins, and J. McElwaine, Comments on avalanche flow models based on extensions of the concept of random kinetic energy, à paraître dans Journal of Glaciology. Article accessible depuis le dépôt arxiv : arxiv.org/abs/1710.00524
  • [2] Vila, J.-P., Modélisation mathématique et simulation d’écoulements à surface libre . La Houille Blanche, 6/7, 485-489, 1984.
  • [3] Vila, J.P., Sur la théorie et l’approximation numérique des problèmes hyperboliques non-linéaires, application aux équations de Saint-Venant et à la modélisation des avalanches denses, Ph.D. thesis thesis, Paris VI, 1986.
  • [4] Barbolini, M., U. Gruber, C.J. Keylock, M. Naaim, and F. Savi, Application of statistical and hydraulic-continuum dense-snow avalanche models to five European sites, Cold Regions Science and Technology, 31, 133-149, 2000.
  • [5] Voellmy, A., Über die Zerstörungskraft von Lawinen, Schweizerische Bauzeitung, 73, 159–165, 1955.
  • [6] Ancey, C., and M. Meunier, Estimating bulk rheological properties of flowing snow avalanches from field data, Journal of Geophysical Research, 109, F01004, 2004.
  • [7] Gauer, P., and K. Kristensen, Four decades of observations from NGI’s full-scale avalanche test site Ryggfonn—Summary of experimental results, Cold Regions Science and Technology, 125, 162-176, 2016.
  • [8] Ancey, C., S. Cochard, S. Wiederseiner, and M. Rentschler, Existence and features of similarity solutions for supercritical non-Boussinesq gravity currents, Physica D, 226, 32-54, 2007.
  • [9] Ancey, C., S. Cochard, S. Wiederseiner, and M. Rentschler, Front dynamics of supercritical non-Boussinesq gravity currents, Water Resources Research, 42, W08424, 2006
  • [10] Iverson, R.M., and D.L. George, Discussion of “The relation between dilatancy, effective stress and dispersive pressure in granular avalanches” by P. Bartelt and O. Buser, Acta Geotechnica, 11, 1465–1468, 2016.
  • [11] Beven, K., Environmental Modelling: An Uncertain Future, Routledge (Taylor & Francis), Oxon, 2009.
  • [12] Salm, B., A short and personal history of snow avalanche dynamics, Cold Regions Science and Technology, 39, 83-92, 2004.
  • [12] Le Gallou, J.-Y., and P. Guignard, Modalités de prise en compte des avalanches exceptionnelles pour améliorer la prévention des risques et renforcer la sécurité des personnes, Inspection générale de l’administration, Paris, 2011.
  • [14] Fischer, J.-T., A. Kofler, W. Fellin, M. Granig, and K. Kleemayr, Optimization of Computational Snow Avalanche Simulation Tools, in International Snow Science Workshop 2014 Proceedings, pp. 665-669, Banff, Canada, 2014.
  • [15] Sampl, P., and M. Granig, Avalanche simulation with SAMOS-AT, in Proceedings of the International Snow Science Workshop, 27 September–2 October 2009, pp. 519-523, Davos, Switzerland, 2009.
  • [16] Chevassus-au-Louis, N., Malscience, Éditions du Seuil, Paris, 2016.
  • [17] Foucart, S et H. Morin, Petits arrangements entre géologues, Le Monde du 26 décembre 2008.
  • [18] Salm, B., A. Burkard, and H. Gubler, Berechnung von Fliesslawinen, eine Anleitung für Praktiker mit Beispielen, Eidgenössisches Institut für Schnee- und Lawinenforschung (Davos), 1990.
  • [19] Bartelt, P., and O. Buser, Avalanche dynamics by Newton. Reply to comments on avalanche flow models based on the concept of random kinetic energy, Journal of Glaciology, doi: 10.1017/jog.2018.1, 2018.
  • [20] “Here we must be blunt: we have not disregarded the solutions offered by granular mechanics/particulate gravity currents. The situation is far more serious: we have abandoned them for the simple reason we found that they do not work. Confronted with the task of developing an avalanche model for engineering practice we asked ourselves a simple question: what does the consequential application of the laws of Newton and Stokes imply for the all-important descriptions of the basal boundary conditions, avalanche flow friction and the formation of the powder cloud. We wanted to avoid model formulations that abound in needless and misleading jargon, misstatement, contradiction and general illogic. Above all we wanted a model that can be tested using experimental measurements and that is comprehensible to engineers and technologists.” Tiré de la réf. [19], Sec. 5.



Des avalanches et des hommes

Avalanches dans le passé

Les chaînes de montagne telles que les Alpes ont été occupées depuis le Néolithique après la dernière période glaciaire et le début de l’expansion des forêts. Outre les communautés pastorales dans les fonds de vallée, les hommes vivaient dans les zones de haute altitude afin d’exploiter silex et minerais. En 1991, une momie vieille de 5300 années (appelée Ötzi) a été trouvé à 3200 m près d’un col glaciaire, à la frontière austro-italienne. Les Alpes n’étaient pas une barrière infranchissable. Hannibal puis des armées romaines franchirent les Alpes, montrant que des armées entières étaient capables de traverser des montagnes enneigées. Pourtant, même après la conquête romaine sous César et Auguste, la construction de routes, et la fondation de nouvelles villes, la neige et les avalanches ont fait des Alpes un lieu qui semblait inaccessible et redoutable aux yeux des auteurs classiques.

L’effondrement de l’Empire romain a été suivi d’une forte baisse de la population et de la rupture des voies commerciales entre les différentes parties de l’empire. Les régions de montagne furent particulièrement concernées. Dès la fin du Moyen Age (après le XIIIe siècle), ces régions ont connu un renouveau économique et une forte croissance de la population, ce qui implique que des zones d’altitude élevée comme Davos (1550 m, Suisse) ou Bonneval-sur-Arc et Saint-Véran (1750 m et 2050 m, France) furent occupées en permanence. Les populations locales ont élaboré des stratégies spécifiques pour survivre aux hivers et ses dangers. Par exemple, les murs des habitations étaient protégés par des tas de terre et les zones menacées étaient délimitées par des croix et des chapelles placées sous la protection des saints. Lorsque des forêts mettaient des villages à l’abri des avalanches, les communautés et les seigneurs féodaux édictaient des règles strictes quant à l’exploitation des ressources forestières. Ceux qui coupent des arbres dans les forêts «interdites» (forêt à ban ou Bannwald en allemand) risquaient la peine de mort. En Suisse, les voyageurs empruntant la route du col du Gothard devaient être frappés par la forêt protégeant les maisons serrées du village d’Andermatt. C’était la seule tâche de verdure qu’ils pouvaient voir au milieu de vallées désertes, où la plupart des pentes, raides et nues, sont parcourues par de grosses avalanches chaque hiver.

Un changement climatique appelle le petit âge glaciaire s’est produit de la fin du XVe au XIXe siècles. En particulier, la fin du XVIIe siècle connut de nombreuses calamités dues au froid et à la neige. Des hivers longs et très froids ont été plus fréquents dans l’hémisphère nord. En montagne, ces conditions ont favorisé la formation et la propagation d’avalanches catastrophiques. Plusieurs villages ont été régulièrement touchés par des avalanches, ce qui a conduit les habitants à abandonner leurs habitations et de trouver des endroits plus sûrs. Construit à la fin XIIIe siècle, Vallorcine (Haute-Savoie) était un village typique avec ses chalets en bois serrés autour de l’église, la seule structure totalement en maçonnerie. En 1674, une partie du village a été balayée par une avalanche et les habitants ont décidé de disperser leurs habitations dans des hameaux éloignés. Ils ont également décidé que l’église et le curé resteraient au même endroit. Ce choix peut nous surprendre aujourd’hui, mais pour les chrétiens de cette époque, les forces naturelles ne devaient rien au hasard. Les catastrophes naturelles ont été interprétées comme des manifestations de la Providence, un message de Dieu ou une punition: ils étaient des actes de Dieu, une expression qui est encore en usage dans les contrats d’assurance dans le monde anglo-saxon lorsqu’on se réfère à des événements imprévus. Pour les communautés alpines très croyantes comme celle de Vallorcine, Dieu épargnerait très certainement l’église. Malheureusement, cette église a été frappée à nouveau en 1720. Pour autant les habitants ne changèrent pas d’avis. Ils décidèrent tout simplement de construire une étrave en terre et pierres sèches pour protéger le mur exposé aux avalanches (voir Fig. 1).


Tourbe de Vallorcine
Figure 1. L’église de Vallorcine (France) et son presbytère, protégés par une « tourne » (étrave en maçonnerie), dont la construction a commencé en 1674. Elle a été renforcée et rénovée en 1720, 1843, 1861, et 2006.

Au cours du XXe siècle, de nombreuses régions montagneuses ont connu une forte croissance économique avec le développement des transports, de l’industrie et du tourisme. De nouvelles techniques ont été élaborées pour réduire le risque d’avalanche. Au tout début du XXe siècle, ce sont les stratégies de défense dites actives (celles qui prennent place dans les pentes supérieures) qui avaient le vent en poupe. Elles comprennent le reboisement des versants et la construction de structures de soutien du manteau neigeux pour maintenir la neige en place et empêcher la formation d’avalanche (voir Fig. 2). Des explosifs sont également utilisés dans ce type de stratégie, mais dans le but de forcer le déclenchement des avalanches (l’idée est que le déclenchement fréquent de petits volumes de neige évite le départ spontané d’une grande avalanche). Des exemples tragiques d’utilisation ont été donnés lors de la Première Guerre mondiale dans les Alpes, avec le conflit entre l’Italie et l’Empire austro-hongrois et, plus récemment, les guerres au Cachemire entre l’Inde et le Pakistan : de nombreux camps et positions militaires ont été ensevelis sous des avalanches déclenchées par les bombardements. Aujourd’hui, des explosifs sont utilisés à des fins plus pacifiques par les stations de ski pour protéger leur domaine skiable. Les années 1960 et 1970 ont été marquées par plusieurs catastrophes dans les Alpes, qui ont contribué à sensibiliser les populations vis-à-vis des risques posés par les avalanches dans les vallées urbanisées. Parmi ces tragédies, deux événements ont revêtu une importance particulière parce qu’ils ont mis en évidences des lacunes graves dans la gestion du risque d’avalanche dans les zones nouvellement urbanisées. Davos (Grisons, Suisse) et Val d’Isère (Savoie, France) sont deux villages multi-centenaires transformés en stations de ski renommées. En dépit de la longue tradition de lutte contre les avalanches, celles-ci ont causé des dommages graves et de nombreux décès : 24 personnes tuées à Davos en 1968 et 39 personnes à Val d’Isère en 1970. À la suite de ces catastrophes, une attention accrue a été portée à l’élaboration de nouvelles stratégies de gestion du risque d’avalanche. Outre les mesures structurelles telles que renforcement des murs, l’accent a été mis sur des techniques non structurelles telles que la cartographie des risques d’avalanche, l’aménagement du territoire, la prévision des avalanches, le suivi des couloirs avalancheux, la réalisation de base de données historiques, et l’élaboration d’outils de calcul pour prédire la distance d’arrêt et pression d’impact des avalanches extrêmes.


protection paravalanche à Flaine
Figure 2. Mélanges de techniques de protection active dans la station de ski de Flaine (Haute-Savoie, France): partout où la couverture forestière n’est pas suffisante à empêcher la formation d’avalanche, des râteliers (au milieu) et des croisillons métalliques appelés Vela (à droite) ont été placés dans les espaces entre les arbres.

En février 1999, les Alpes ont été frappées par une série de tempêtes de neige, qui ont provoqué des avalanches catastrophiques en France (12 personnes tuées à Chamonix), Suisse (17 personnes tuées), Autriche (37 personnes tuées), et Italie (1 décès). La figure 3 montre les opérations de secours à Montroc (commune de Chamonix-Mont-Blanc) juste après qu’une avalanche a balayé vingt chalets. La perte économique en raison de dommages aux équipements et habitations ainsi que les coûts indirects liés à la diminution des recettes touristiques ont été très importants. Si les systèmes de protection n’ont pas pu fournir une sécurité totale en février 1999, ils ont évité l’occurrence de catastrophes plus grandes alors que la saison touristique battait son plein. Juste pour la Suisse, les paravalanches ont empêché le départ ou limité la propagation de plus de 300 avalanches affectant des secteurs urbanisés durant l’hiver 1999.


avalanche de Montroc 1999
Figure 3. Les opérations de secours dans le hameau de Montroc (Chamonix, France) après qu’une avalanche a détruit vingt chalets et tué 12 occupants le 9 février 1999.

Les avalanches de nos jours

Dans les zones de montagne fortement peuplées telles que les Alpes, le risque d’avalanche est géré à travers ses dimensions temporelle et spatiale. En Amérique du Nord et en Europe, les bulletins d’avalanches régionaux sont publiés chaque jour par les services météorologiques nationaux au cours de la saison d’hiver. Ils fournissent une évaluation du danger d’avalanche pour le lendemain à destination d’un large public comprenant les professionnels de la montagne, les autorités locales et les pratiquants de sports d’hiver. La dimension spatiale couvre différents aspects de gestion du risque d’avalanche. Dans les pays occidentaux, le zonage est utilisé par les communes à la fois comme un outil légal d’aménagement du territoire et comme un support d’information avec des données détaillées des zones concernées par les avalanches. Cette information est synthétisée en utilisant la relation entre intensité et fréquence : moins les avalanches sont fréquentes, plus elles sont potentiellement destructrices. L’intensité est mesurée par la pression d’impact exercée par l’avalanche contre un mur rigide. L’unité physique est le kilopascal (kPa). Pour donner un sens physique à cette unité, nous pouvons la comparer avec la pression atmosphérique (1 kPa = 0,01 atm) ou utiliser une correspondance avec la masse par unité de surface (10 kPa = 1 t / m²). La fréquence est exprimée à l’aide de la période de retour. Trois ou quatre zones de couleur (rouge / bleu / blanc et jaune) sont utilisées selon la combinaison entre la fréquence et l’intensité. Par exemple, la zone rouge correspond à un risque élevé. Dans ce cas, des avalanches fréquentes avec des pressions d’impact allant de 3 à 30 kPa ou bien des avalanches rares (dont la période de retour supérieure à 100 ans), mais avec de fortes pressions d’impact (plus de 30 kPa) sont susceptibles de se produire et de causer des dégâts substantiels aux habitations. La construction de nouvelles maisons est interdite et si les bâtiments existants peuvent toujours être utilisés, il n’est pas possible de les modifier ou de les étendre. Les autres zones comprennent les zones bleue (risque moyen, constructions renforcées possibles), jaune (risque faible, évacuation possible dans les situations d’urgence), et blanche (pas de risque ou de risque résiduel, aucun règlement). La figure 4 montre un extrait de la carte des risques d’avalanche pour la commune de Chamonix-Mont-Blanc (France).


PPR Chamonix
Figure 4. Avalanche carte des risques de centre-ville de Chamonix (France), avec les trois codes de couleur : zone rouge (aucune nouvelle construction est possible), zone bleue (des constructions sont possibles sous réserves), zone blanche (faible risque d’avalanche). Les zones en verts représentent les forêts de protection. Source : commune de Chamonix-Mont-Blanc (http://www.chamonix.fr).

Compte tenu de ces mesures de protection paravalanche, le nombre de décès dus aux avalanches dans les zones urbanisées a sensiblement diminué en Europe après les années 1970. Les dernières catastrophes sont survenues dans les Alpes en février 1999 (environ 70 personnes tuées en Autriche, la France et la Suisse), en Islande en 1995 (34 morts dans Súðavík et Flateyri), en Turquie en février 1992 (plus de 200 victimes à Görmec et ses environs). Aux États-Unis et au Canada, la plupart des catastrophes concernent les voies de communication et des infrastructures. La pire avalanche dans l’histoire des États-Unis a eu lieu en mars 1910 quand une avalanche a enseveli deux trains bloqués par la tempête de neige sous Stevens Pass alors qu’ils allaient à Seattle (96 personnes tuées). Trois jours plus tard, 58 travailleurs des chemins de fer ont été ensevelis par une avalanche alors qu’ils travaillaient à déblayer la ligne sous Rogers Pass (Canada). Rogers Pass était tristement célèbre pour ses avalanches qui ont coûté la vie à plus de 200 passagers et travailleurs entre 1884 (achèvement du premier chemin de fer transcontinental au Canada) et 1913 (construction d’un tunnel contournant Rogers Pass). Dans les pays du tiers monde, les avalanches sont un problème majeur, mais occulté. En février 2015, 286 personnes sont décédées dans la vallée du Panshir en Afghanistan (au nord de Kaboul) après chutes de neige et les avalanches.

De nos jours, les accidents mortels se produisent essentiellement lors d’activités de loisir, principalement le hors-piste et le ski de randonnée. En de rares occasions, ils concernent des voies de communication. Au cours des 20 dernières années, le nombre moyen de morts dus aux avalanches est assez stable dans les Alpes avec 31 victimes en France, 22 en Suisse, 26 en Autriche, 20 en Italie et 10 en Allemagne. Au Japon, le nombre de morts est voisin de 30 en moyenne chaque année, 24 en Turquie, 30 aux États-Unis (mais la tendance est à l’augmentation), et 7 au Canada.