Montroc, 20 ans après

Le 9 février 1999, il y a 20 ans, une avalanche partie de la montagne de Péclerey balaya le hameau de Montroc (Chamonix-Mont-Blanc, Haute-Savoie), tuant 12 personnes dans leur logement. Ce même hiver 1999, les avalanches touchèrent également des habitations en Suisse, Autriche, et Italie, et le nombre de victimes (68 personnes tuées dans des habitations) fut le plus élevé depuis 1970, année de la catastrophe de Val d’Isère. [1]

Février 1999 : tempêtes sur les Alpes

Depuis l’hiver 1999, les Alpes ont subi des passages dépressionnaires accompagnés de fortes chutes de neige, mais aucun ne présenta des cumuls de neige, des durées de précipitation, et un historique comparables à ce qui a été vécu en février 1999. À une époque où le réchauffement climatique fait surtout craindre le manque de neige, on pourrait y voir une fréquence moindre des épisodes neigeux critiques. Toutefois, si on examine la fréquence de tels épisodes au cours du XXe siècle (sans trop se focaliser sur le nombre de victimes, qui reflètent probablement plus l’intensification de la présence humaine que l’intensité des avalanches), on note qu’entre 1914 et 1950, il y a eu peu de gros épisodes critiques qui concernent une grande partie du massif alpin alors que pour la seconde moitié du XXe siècle, on dénombre plusieurs hivers critiques 1951, 1954, 1968, 1970, 1978, 1981, et 1999. De ce point de vue-là, nous sommes dans une phase plutôt calme. Cela ne présage rien quant à la tendance future.

Les réactions immédiates à la catastrophe

L’avalanche de Montroc a d’abord nourri la presse. L’analyse des articles parus dans la presse généraliste ou spécialisée montre que les journalistes ont surtout pointé la recherche du profit, l’urbanisation de secteurs à risque, et la complaisance des autorités locales face à la pression foncière. Cependant, les enquêtes diligentées par l’administration (le préfet de Haute-Savoie), puis la justice n’ont jamais fait ressortir d’éléments corroborant la thèse d’un urbanisme dévoyé par les intérêts privés à Montroc. Dès le lendemain de la catastrophe, le préfet de Haute-Savoie a commandé deux enquêtes : une diligentée par Richard Lambert (géographe de formation, consultant, universitaire, et expert près la Cour de cassation), et une autre conduite que j’ai présidée au Cemagref (en demande l’assistance de Météo-France). La justice mandata par la suite Richard Lambert pour l’expertise judiciaire. Les rapports d’expertise n’ont jamais été rendus officiellement publics, mais j’en ai tiré des articles parus dans des revues spécialisées pour ce qui concerne mon rapport [1].

Le maire, victime expiatoire ?

L’année 1999 a été une année noire pour la municipalité de Chamonix puisqu’en mai ce fut l’incendie du tunnel du Mont-Blanc qui endeuilla la commune. Responsable politique, le maire de Chamonix fut mis en examen et condamné, mais une loi d’amnistie annula cette condamnation. En gros, ce que la justice reprocha au maire, c’est de ne pas avoir fait évacuer les chalets de Montroc alors que la CLPA dans sa dernière version (1992) indiquait une avalanche allant jusqu’aux habitations. Dans ses attendus rendus en juillet 2003, le tribunal notait [2]

« Il était du devoir du maire, seul habilité à le faire, de prendre une mesure d’évacuation d’un site manifestement exposé à un risque majeur d’avalanche.
En s’en abstenant alors qu’il est démontré qu’il devait connaître le risque et qu’il avait les moyens de le faire, le maire a manqué à son obligation de prévenir l’avalanche par des précautions convenables et en cas de danger grave ou imminent, tel qu’en l’espèce, de prescrire l’exécution des mesures de sûreté exigées par les circonstances.
La faute ainsi commise par Monsieur Michel C. est établie, elle revêt un caractère d’une particulière gravité par l’accumulation des fautes d’appréciation du risque et de mise en œuvre de la prévention alors que de nombreuses vies humaines étaient en danger. »

Fronde des élus

La condamnation du maire de Chamonix n’a pas fait l’objet d’appel puisqu’il y a eu amnistie. Et donc le fond technique du dossier (la prévisibilité de l’avalanche, la possibilité d’évacuer des personnes pour une commune menacée par 116 couloirs d’avalanche) n’a pas été débattu plus longuement. Cela n’a pas été sans conséquence. Comme pour le jugement d’Évolène, les scientifiques (qui n’ont pas été auditionnés par le juge) sont moins catégoriques que la justice sur la connaissance certaine d’un risque fort. Les élus ont l’impression que l’État se donne le beau rôle en imposant le zonage de risque, tout en transférant la responsabilité opérationnelle aux autorités locales. Quand les services de l’État ont cherché à édicter des règles communes de zonage, ensemble de règles regroupées dans le « guide méthodologique PPR avalanche », ils ont cherché à promouvoir les zones jaunes, zones a priori soumises à un risque faible, mais qui exceptionnellement pourraient être touchées. Ces zones jaunes devraient compléter le découpage du territoire urbanisé (ou urbanisable) en rouge/bleu/blanc. Si des mesures constructives de protection paravalanche accompagnent les zones bleues, seules des mesures temporaires de consignation/évacuation concernent les zones jaunes. Cette évolution inspirée du modèle suisse aurait dû être facilement adoptée. Cela fût l’inverse. Techniquement prêt en 2002, le guide PPR avalanche élaboré par le RTM n’a été publié officiellement qu’en 2015 [7]. La fronde des élus chamoniards a bloqué le dossier pendant 13 ans. À ce jour, le hiatus entre juges, scientifiques, élus, et représentants de l’Etat sur un dossier comme celui de Montroc est toujours béant. Le temps a passé, la béance devient moins visible au fur et à mesure que le temps passe, mais elle est toujours là.

Réaction sur le long terme

Après le volet judiciaire, il y a une enquête administrative. Comme c’est souvent le cas le lendemain d’une catastrophe, on cherche des coupables, mais on cherche aussi comment éviter l’occurrence de nouvelles catastrophes. Il y a eu deux missions interministérielles commandées par l’État :

  • En octobre 2000, la mission composée de B. Glass, P. Huet, M. Rat, et R. Tordjeman publiait son rapport sur l’avalanche de Montroc [3]. Parmi les préconisations, il y avait la révision du zonage de Chamonix, le guide PPR avalanche et un recensement des couloirs d’avalanches pouvant atteindre des zones habitées et des voies de communication (Sites Sensibles aux Avalanches) sur l’ensemble du territoire national. Le RTM se voyait confier l’élaboration du guide PPR et la révision du zonage tandis que le Cemagref (devenu Irstea) gérait le volet SSA.
  • En avril 2011, Le Gallou et Guignard rendaient les conclusions de leur rapport sur les avalanches exceptionnelles [4]. Conclusions multiples avec des volets opérationnels et juridiques. Un point important a été de savoir comment prendre les bonnes décisions dans un environnement marqué par les incertitudes. Parmi les réponses esquissées, les rapporteurs préconisent le recours aux modèles numériques en dépit de leurs limites. Les rapporteurs relativisaient également la menace des avalanches par rapport à l’ensemble des risques que la France connaît.

Au fur et à mesure que le temps a passé, l’urgence a diminué, d’autres catastrophes naturelles comme la tempête Xynthia en 2010 ou les crues éclair à répétition sur la façade méditerranéenne ont focalisé l’attention des pouvoirs publics. Face au creusement du déficit, une constante de l’action publique a été de réduire les coûts en sabrant certains postes. Au cours des années 2010, l’ANENA a vu ses subventions étatiques et régionales fondre comme neige au soleil, le financement de l’enquête permanente des avalanches (EPA) et de la cartographie (CLPA) a été réduit, le RTM est passé du statut de service de l’État à prestataire commercial (établissement public à caractère industriel et commercial) sous la tutelle de l’ONF (organisme lui-même lourdement déficitaire). En dépit des déclarations publiques, les années post-Montroc marquent surtout un désengagement de l’État de ses missions régaliennes en matière de sécurité.

Révision du zonage

Une des conséquences de l’avalanche de Montroc (et des crues de 1996) a été aussi la révision du zonage de Chamonix. Le RTM a proposé une révision au début des années 2000, mais elle n’a pas convaincu tous les habitants. Une association de victimes (l’AIRAP) et des associations de riverains (Riverains du chemin du vieux four à Argentière) ont décidé de faire appel aux services de Richard Lambert. Il leur a rendu un premier rapport en 2007, mis en ligne sur le site de l’AIRAP. Ce rapport pointait des problèmes sur plus de 40 couloirs (donc le tiers des couloirs recensés sur la commune).

Cela a créé du remous, on l’imagine bien. En 2011, 4 ans après donc, la Direction générale de protection contre les risques du Ministère de l’environnement (DGPR), missionne M. Lambert qui rend son rapport sur le zonage PPR en janvier 2012. Embarrassée, la Direction départementale des territoires du territoire (DDT-74), désormais en charge du dossier, décide de lancer une consultation en avril 2012. Le cahier des charges prévoit le recours aux simulations numériques pour trancher le différend entre le zonage RTM et le zonage Lambert. C’était l’une des préconisations du rapport Le Gallou-Guignard. Contacté par la DDT-74, je leur indique que scientifiquement, aucun modèle n’est capable de répondre à la problématique (notamment, prédire avec la précision de l’échelle cadastrale l’extension de phénomènes exceptionnels). Pour la personne de la DDT en charge de cet appel d’offres, au diable les avertissements, peu importe l’état de l’art, on trouvera toujours quelqu’un pour faire le boulot quand il existe des codes commerciaux. En août 2012, la DDT confie l’analyse numérique de 50 couloirs à un groupement composé de Robert Bolognesi (géographe, Météorisk, Sion), André Burkard (ingénieur forestier, bureau Geoformer Brigue), Enrico Ceriani (technicien forestier, studio tecnico Ceriani, Aoste), et Jean-François Meffre (spécialiste des avalanches, ASI, Andorre). Si deux des membres sont des praticiens reconnus avec une grande expérience des avalanches et du zonage, aucun n’est un spécialiste de la dynamique des avalanches et de la simulation numérique. Il en est de même du comité de pilotage, sans aucun spécialiste. Le groupement a utilisé le code commercial Ramms vendu par le SLF. Comme ce sont les données du rapport Lambert qui ont été utilisées, il est peu étonnant que les simulations corroborent le dire d’expert de M. Lambert. Un membre de ce groupement me confiait que tout cela a dû être réalisé en peu de temps, avec la planification imposée par la DDT, ce qui a laissé peu de temps pour réellement mener une analyse fine, a fortiori quand le cahier des charges cadrait strictement la méthodologie de l’étude. Tout cela a quand même coûté 450 k€ à la collectivité. En mai 2015, la DDT présentait son nouveau zonage PPR. Dans un courrier à l’AIRAP, Richard Lambert qui avait porté l’essentiel du travail d’analyse regrettait que la DDT ne fasse pas mention à son travail, mais seulement à l’ « expertise internationale » (sic) [5-6]. Bref, il dénonçait l’ingratitude de la DDT 74. Hormis cette voix discordante, tout le monde s’est félicité du nouveau PPR, et personne n’a trouvé à redire face à la somme engloutie dans cet exercice en une période de disette budgétaire. Quelle a été la plus-value des simulations numériques hormis de donner un alibi scientifique ? Une question que la DDT a évité de se poser… ainsi que tous les responsables de l’État y compris à la DGPR à qui je l’ai posée.

Conclusions

Alors a-t-on progressé depuis Montroc en matière de zonage ? L’absence d’événements catastrophiques peut le laisser croire. La population croît, l’affluence touristique ne fléchit pas, la pression foncière va donc croissante, et cela pousse à construire dans des zones plus exposées aux dangers naturels. Pendant longtemps, le pragmatisme, le savoir-faire empirique et l’expérience ont été les outils de l’ingénieur ou du fonctionnaire pour évaluer au mieux le risque. Chez les praticiens expérimentés, je n’ai trouvé globalement que très peu d’erreurs dans les zonages, et celles-ci demeurent souvent dans la marge d’appréciation compte tenu des incertitudes (grandes) et de la fréquence (faible) des avalanches extrêmes. Ce qui apparaît comme le fait marquant des années 2010 est l’apparition d’une approche normative : des procédures encadrant les démarches de zonage, la traçabilité des changements, et le recours de plus en plus systématique à des modèles numériques. Cela peut sembler paradoxal, mais depuis lors, je n’ai jamais vu autant d’erreurs basiques dans le travail de zonage, et ces erreurs sont devenues très fréquentes. On a donné un vernis de technicité en généralisant les modèles numériques, mais plus grand monde, que cela soit dans les services instructeurs ou les bureaux d’étude, ne semble être capable de déceler les incohérences grossières qui peuvent apparaître dans les études. Face à un monde complexe, la tendance lourde de nos sociétés a été de créer des approches normatives. L’administration instruisant un dossier ne cherche plus à en vérifier la pertinence vis-à-vis du réel, mais la conformité par rapport à des critères qu’elle a elle-même établis. En parallèle des rapports officiels publiés par la DGPR, l’administration a produit une abondante littérature grise sur les avalanches, par copier-coller et compilation de sources variées façon wikipedia, auto-alimentant l’illusion d’un savoir scientifique et rigoureux. C’est très sérieusement que la DDT-74 annonce ainsi que pour le nouveau zonage « les études ont été poussées au maximum des outils actuellement disponibles » [6]. Cette déclaration hyperbolique n’est pas une ficelle de politicien (plus le mensonge est gros, plus il passe facilement) ou du positivisme à la mode de Coué, mais reflète bien l’incapacité de l’administration à distinguer le sérieux du loufoque dans les études.

Quand on dresse le bilan des deux dernières décennies, il ne semble guère que l’administration ait appris des erreurs commises dans le zonage avalanche. Les cafouillages ont été nombreux à Chamonix et expliquent le retard considérable dans la mise à jour du PPR (16 ans !) : surdité des services locaux de l’État, érosion des compétences au sein des services, fronde des élus, règlements de compte et querelles de clochers, et absence de toute expertise scientifique depuis le rapport de 1999. Les problèmes de fond ont été exacerbés et, escamotés sous le vernis d’une technicité affichée comme scientifique, ils sont des bombes à retardement. Dans le dossier de Chamonix, les choses ont bougé sous l’action des associations privées, et parce qu’un expert a fait l’essentiel du travail d’analyse critique. Mais ailleurs ? Il est fort probable que le prochain hiver à fort enneigement réserve de très mauvaises surprises.

Références




RAMMS ou le miroir aux alouettes

Dans un article qui a été récemment accepté (septembre 2017) par la revue scientifique Journal of Glaciology [1], trois scientifiques ont décidé de porter l’estocade contre le modèle numérique d’avalanche RAMMS (acronyme pour Rapid Mass Movement) commercialisé par le WSL/SLF depuis le début des années 2010. RAMMS comporte trois modules (avalanche, chutes de pierre, et lave torrentielle). Le module avalanche a connu un certain succès commercial au cours des sept dernières années au point que l’on voit fleurir des affirmations dithyrambiques le citant comme LA référence en la matière. Le présent article revient sur les causes de la polémique et les conséquences pratiques de ce qui s’annonce comme un scandale dans un milieu d’ordinaire bien policé.

Les protagonistes

Plantons le décor. Les trois scientifiques sont

  • Dieter Issler, un consultant en avalanche pour le NGI en Norvège, physicien de formation (ETHZ) et ancien du WSL/SLF (il a notamment participé à la mise en place du site de la Sionne),
  • Jim Jenkins (prof., université de Cornell, un des pères de la théorie cinétique granulaire), et
  • Jim McElwaine (prof., université de Durham, un mathématicien avec une passion coupable pour la neige et les avalanches, et un partenaire de longue date du SLF).

La revue scientifique est Journal of Glaciology, dont un des éditeurs est Perry Bartelt du SLF et papa de RAMMS. Il y a publié l’essentiel des articles consacrés à son modèle numérique.

Hum… cela sent le linge sale qu’on lave en famille d’habitude. Alors qu’en est-il ?

Des tabous en science ?

Il y a en science des frontières que l’on se garde de franchir, des quasi-tabous. Le plus souvent, ce sont des frontières tacites acceptées par la communauté, mais parfois, le législateur est passé par là et met des garde-fous légaux (comme l’interdiction du clonage humain). Comme l’avait anticipé le philosophe français Jacques Ellul, ce type de frontière finit toujours par être franchi :

« parce que tout ce qui est technique, sans distinction de bien et de mal, s’utilise forcément quand on l’a en main. »

Dans le domaine des modèles numériques en général, et en dynamique des fluides géophysiques en particulier, les développeurs (le plus souvent des universitaires) peuvent mettre à disposition leur modèle pour des applications ponctuelles ou des comparaisons avec des données de terrain ou de laboratoire. La diffusion large d’un produit de la recherche nécessite un gros travail d’interface (souvent de pré- et post-traitement de l’information) et de documentation. Et le travail est tellement conséquent qu’il faut des années pour que de petites équipes académiques puissent y parvenir. Dans bien des cas, les outils restent donc sous forme de version beta sans interface et c’est l’utilisateur qui doit se débrouiller. Rendre un code librement accessible ou le commercialiser sous-tend que le produit correspond à un état de l’art accepté par la communauté scientifique et qu’il a été validé à différents niveaux.

Valider un code numérique

Le travail de validation d’un code numérique comporte plusieurs étapes :

  • vérifier que les équations utilisées sont pertinentes à décrire le phénomène étudié,
  • contrôler que la méthode de résolution numérique est stable et converge vers la bonne solution physique,
  • appliquer le code à des cas idéalisés (pour montrer que le code capture la physique du phénomène avec la précision souhaitée) puis des cas réels.

Généralement, le processus de développement et de validation fait l’objet d’articles dans des revues scientifiques. Le travail doit être examiné par des scientifiques (rapporteurs) indépendants. C’est ce qu’on appelle le processus de revue par les pairs (peer-reviewing). Et naturellement, pour éviter les conflits d’intérêt, les auteurs ne soumettent pas leurs articles dans des revues dans lesquelles ils ont des responsabilités éditoriales ou un lien étroit avec les responsables de la publication.

Et alors quel est le problème avec les avalanches ?

Tous les modèles actuels sont fondés sur des équations de Saint-Venant, un jeu d’équations tirées de l’hydraulique pour décrire les rivières en crue. Le premier code numérique moderne d’avalanche a été écrit par Jean-Paul Vila dans les années 1980 [2-3], et tous les codes actuels en sont inspirés à des degrés divers. Cependant, même après 30 ans de tests et développements, les progrès ont été limités. En 2000, dans le cadre d’un programme européen de recherche, différents groupes ont calibré les paramètres de frottement de leur modèle numérique (tous fondés sur le même jeu d’équations de Saint-Venant) et ont abouti à des valeurs très différentes [4]. Cela a souligné la grande sensibilité des résultats aux détails de la résolution numérique.

D’autres problèmes se sont posés et touchent le cœur de l’approche actuelle. Par exemple, depuis Voellmy [5], le frottement de l’avalanche est supposé inclure du frottement solide (de type Coulomb) et du frottement turbulent (fonction de la vitesse quadratique). Avec la multiplication de sites expérimentaux permettant de suivre le mouvement des avalanches dans le détail, il est devenu clair que le modèle de Voellmy ne permet guère de décrire fidèlement le frottement réel [6-7]. Cependant, pour des raisons tant pratiques qu’historiques, le modèle de Voellmy continue à être utilisé par les praticiens. Ceux-ci appliquent donc leur propre technique pour ajuster les paramètres du modèle de Voellmy.

Malgré les progrès, les méthodes numériques peinent parfois à résoudre correctement les équations. Par exemple, la localisation du front pose souvent problème (en effet c’est le point où la hauteur écoulement devient nulle, mais avec des modèles de frottement de type Voellmy, le frottement devient localement infini (car il s’écrit en 1/h avec h la hauteur d’écoulement) et même avec un frottement faible, le front est une singularité qui nécessite un traitement particulier, voir [8-9]). Pour plusieurs codes, l’avalanche ne s’arrête jamais. La vitesse tend vers 0, sans toutefois l’atteindre. Il faut donc des « patches » pour corriger ces erreurs numériques.

Et RAMMS alors ?

Plusieurs groupes dans le monde se sont intéressés à décrire des écoulements de fluides complexes à l’aide d’équations de type Saint-Venant. Il faut prendre conscience que l’étalement d’un fluide ordinaire comme de la mayonnaise sur une table de cuisine est déjà un problème d’une grande complexité, sans solution actuellement ! Alors, des fluides complexes comme la neige offrent un défi considérable.

Le groupe de Perry Bartelt au SLF a tenté de relever le défi en puisant des idées dans la thermodynamique des systèmes hors équilibre de Prigogine et la théorie cinétique des gaz dissipatifs. Le point d’achoppement est que le modèle (ou devrait-on dire « les modèles » tant le modèle initial a subi des évolutions au cours des 10 dernières années) n’est pas cohérent avec ce que l’on sait des fluides complexes tels que les milieux granulaires. Les démonstrations sont par ailleurs émaillées d’erreurs. C’est en substance ce que dit l’article très détaillé d’Issler, Jenkins, et McElwaine. Iverson et George notaient, de leur côté, des problèmes similaires [10].

À l’absence de validation théorique des concepts développés s’est ajouté le manque de validation expérimentale. Indépendamment de toutes autres considérations, un problème de taille surgit pour toute validation avec la neige : il est très difficile de mesurer les propriétés mécaniques de la neige en écoulement par des expériences indépendantes et contrôlées. Les paramètres de tous les modèles sont donc ajustés ou calibrés en faisant correspondre des observations de terrain et des prédictions du modèle. C’est ce qu’on appelle caler un modèle. Mais caler les paramètres d’un modèle sur un événement ne dit rien sur la pertinence du modèle. Cela ne permet pas non plus de dire grand-chose sur un autre événement (même sur le même site) car a priori les valeurs des paramètres changent sans qu’on sache comment. Dans sa dernière version, RAMMS possède 16 paramètres. Avec un modèle sur-paramétré (c.-à-d. qui possède plus de paramètres qu’il n’existe de variables indépendantes que l’on puisse observer et utiliser pour tester le modèle), il est plus facile de caler le modèle, mais il devient quasiment impossible de l’utiliser en pratique de façon rigoureuse. Une erreur de détermination de quelques % sur un paramètre peut se propager et s’amplifier, aboutissant finalement à des erreurs considérables dans la prédiction. Un problème bien connu des hydrologues… [11].

Le miroir aux alouettes

Malgré l’absence de fondement théorique reconnu au sein de la communauté scientifique et l’insuffisance du travail de validation à partir d’observations de terrain, RAMMS a réussi à séduire autorités locales et bureaux d’études. Pourtant, des avertissements sur l’illusion de précision de l’approche numérique ont été émis. En 2004, à la fin de sa carrière au SLF, Bruno Salm (qui a beaucoup contribué aux méthodes quantitatives pour les avalanches et peut être considéré comme un des grands acteurs de la nivologie moderne) a mis en garde contre les voix de sirène : avec l’augmentation croissante de la puissance des ordinateurs, les modèles gagnent en réalisme, mais non en précision [12] :

« tous les modèles présentés sont – jusqu’à présent – d’une façon ou d’une autre entachés d’incertitudes. Un accroissement de la complexité des modèles n’implique pas nécessairement une précision plus grande ou une meilleure stratégie de lutte contre les dangers naturels. »

Pour les autorités locales, le numérique semble offrir non seulement un extraordinaire gain en précision (c.-à-d. prédire les distances d’arrêt pour le zonage d’avalanche avec une précision métrique), mais également un outil objectif permettant un traitement homogène du zonage de risque (implicitement il est supposé que le dire d’expert est subjectif). C’est ainsi qu’en 2011, les deux ingénieurs généraux de l’administration française Le Gallou et Guignard ont préconisé le recours systématique au numérique dans le zonage d’avalanche pour éviter les écarts qu’ils ont notés d’une commune à l’autre [13]. RAMMS est jusqu’à présent le seul candidat en lice, puisque personne d’autre que le SLF n’a commercialisé de code de calcul avec une une large diffusion. Il existe bien un candidat autrichien (SAMOS), mais il a une diffusion confidentielle [14-15], et il y a aussi quelques codes académiques, mais ils sont utilisés par leurs propres développeurs (en France, il y a l’IRSTEA de Grenoble, qui est le pionnier mondial du domaine, mais également l’ENS de Lyon et l’Université de Savoie). Étonnamment, personne dans l’administration ne s’est demandé pourquoi aucun des autres groupes de recherche dans le monde ne s’est lancé dans le créneau du code commercial. Les successeurs de Vila seraient-ils moins bons ou audacieux que leur père spirituel ? Ou bien suffisamment prudents pour ne pas se lancer sur une pente glissante ? Un responsable du RTM évoquait l’idée que, certes, un modèle comme RAMMS n’est pas rigoureux sur le plan scientifique, mais il est socialement acceptable car il répond à un besoin de la société (il veut dire à un besoin d’un groupe de personnes de l’administration, la synecdoque étant une figure de style prisée dans l’administration). La situation n’est pas sans rappeler les financiers qui avant la crise financière de 2007 s’étaient engagés dans des placements hasardeux mais tellement prometteurs en termes de rendement, et qui une fois le crack boursier advenu, se sont écriés que jamais au grand jamais ils n’auraient pu se douter du caractère extravagant des montages financiers. Personne ne les en avait avertis. Pourtant les voix s’étaient bien élevés avant 2007 pour dénoncer l’emballement financier, mais comme le dit le proverbe populaire, il n’y a pas plus sourd que celui qui ne veut pas entendre. Dans la finance, entre des promesses de rendement à 3 % et d’autres à 15 %, le choix a été vite fait, avec les conséquences que l’on mesure encore aujourd’hui. Nous vivons une situation similaire avec les modèles hydrauliques et d’avalanches. L’État a dépensé plus de 450 k€ pour des simulations numériques d’une trentaine de couloirs à Chamonix, simulations réalisées à l’aide de RAMMS, en dépit des remarques sur la faible plus-value de l’exercice. Des rapports ont été rendus récemment par les administrations pour « encadrer » l’usage des modèles numériques. Étonnamment, là encore, aucun scientifique (du développeur de code au mécanicien en passant par le géographe, le sociologue, l’historien ou le spécialiste de terrain) n’a été consulté. On mesure en France et en Suisse le fossé croissant qui sépare milieu académique et administrations en charge de la gestion territoriale.

Pour les bureaux d’études, le numérique est une formidable porte d’entrée à un marché qui pendant longtemps nécessitait des années de formation et de reconnaissance par les pairs. Il suffit désormais d’acquérir la licence d’un code numérique pour du même coup bénéficier d’un savoir numérique. Or, si dans quelques domaines de l’ingénieur (les fluides industriels ou le calcul des structures), une grande partie du travail de calcul est réalisée de nos jours par des ordinateurs, avec une partie humaine réduite à la portion congrue, tant les codes sont fiables, cela n’est pas le cas dans d’autres domaines (dont l’hydraulique torrentielle et les avalanches) où les modèles sont beaucoup plus rustiques et leurs résultats nécessitent un examen critique.

Et demain ?

Comme l’a documenté l’excellent ouvrage de Nicolas Chevassus-au-Louis [16], on note qu’avec la pression croissante qu’ont les scientifiques à publier, il y a en retour un accroissement du nombre d’articles litigieux (selon Chevassus-au-Louis, cela concerne quand même une fraction non négligeable de l’ordre de quelques % de l’ensemble des articles publiés). Cela va d’erreurs d’inadvertance (erreurs de mesure, de calcul, etc.) à des problèmes plus graves de fraude ou de plagiat. Quand les errata ne suffisent pas à corriger des erreurs manifestes, on voit des scientifiques retirer leurs articles. Dans le cas présent, il est encore trop tôt pour savoir quelle position sera adoptée par Bartelt et ses coauteurs, mais une réponse à l’article d’Issler, Jenkins et McElwaine est nécessaire (comme cela a été le cas avec la critique d’Iverson et George [10] sur un autre article de Bartelt). La rétraction est une possibilité ouverte pour clore la polémique. Les conditions d’acceptation des articles de Bartelt dans Journal of Glaciology font planer un doute et ne sont pas sans rappeler le scandale qui a secoué le groupe de Claude Allègre à l’IPGP et leurs articles dans une revue publiée par Elsevier [17].

Si on dépasse cette querelle interne au milieu académique, on peut se demander si le scandale va ébranler la diffusion du code numérique, s’il va être retiré du marché ou gelé dans une version plus cohérente avec l’état de l’art scientifique réel (et non idéalisé). Tout du moins, un sérieux rappel sur les limites de la modélisation s’impose. Dans la méthode dite VSG de 1990 (VSG pour Voellmy Salm Gubler) qui est en quelque sorte l’ancêtre de RAMMS, les auteurs prévenaient l’utilisateur [18]

« Il faut mettre en garde sur l’utilisation de cette méthode comme un « livre de cuisine » (on portera une attention particulière à l’usage des mots « environ » et « valeur indicative »). Bien au contraire, chaque avalanche requiert un traitement propre et une connaissance de la matière dans son ensemble. À cela s’ajoute aussi l’expérience qui joue un rôle important et que chacun doit acquérir. Il faut en dernier lieu avoir à l’esprit que les avalanches échappent aux calculs trop précis. »

C’est un avertissement qui ne mange pas de pain. Toutefois, si on examine les scandales dans le domaine sanitaire, on constate une grande inertie des intervenants. En pratique, il faut beaucoup de temps avant que les choses ne bougent…

Le scandale ne sera pas sans incidence plus large. La probabilité qu’un zonage tout numérique aboutisse prochainement à un accident dans le monde est grande. Comment cela sera-t-il jugé ? Qui sera responsable ? Ne risque-t-on pas une défiance envers les approches scientifiques ? Les sondages d’opinion montrent qu’une part croissante de citoyens éprouve de la défiance envers la science et les « experts » (combien parmi nous font confiance aux experts des OGM ou du nucléaire ?) alors que la fascination technologique est toujours bien présente. Comment redonner de la confiance aux utilisateurs et autorités car si l’approche numérique n’est pas la panacée, elle a ses mérites ?

Pour les maîtres d’ouvrage et maîtres d’œuvre, un regard critique doit être porté sur la plus-value d’une simulation numérique (par rapport à une expertise classique) et sur la capacité du bureau d’études à manipuler un code de type RAMMS. Il faut indiquer qu’un bon praticien saura déjouer la plupart des pièges numériques alors qu’un praticien inexpérimenté prendra les solutions numériques pour argent comptant. Le rendu sera souvent proche (de jolies couleurs sur une carte), mais le diable se cache dans les détails.

Mise à jour (27 janvier 2018)

Perry Bartelt a usé de son droit de réponse en publiant un article pour nier toute erreur dans ses articles [18]. Dans la conclusion, il dit créer une nouvelle mécanique :

« Ici, nous devons être francs : nous n’avons pas négligé les solutions offertes par la mécanique granulaire et l’étude des courants gravitaires de particules. La situation est beaucoup plus grave : nous les avons abandonnées pour la simple raison que nous avons constaté qu’elles ne fonctionnaient pas. Confrontés à la tâche de développer un modèle d’avalanche pour la pratique en ingénierie, nous nous sommes posé une question simple : qu’est-ce que l’application des lois de Newton et Stokes implique lorsqu’on s’attelle à la description des conditions aux limites au fond, du frottement de l’écoulement, et de l’aérosol. Nous voulions éviter les formulations de modèle qui abondent dans le jargon inutile et trompeur, l’inexactitude, la contradiction et l’illogisme général. Nous voulions avant tout un modèle qui puisse être testé en utilisant des mesures expérimentales et qui soit compréhensible pour les ingénieurs et les technologues. [19] »

Références

  • [1] Issler, D, J. T. Jenkins, and J. McElwaine, Comments on avalanche flow models based on extensions of the concept of random kinetic energy, à paraître dans Journal of Glaciology. Article accessible depuis le dépôt arxiv : arxiv.org/abs/1710.00524
  • [2] Vila, J.-P., Modélisation mathématique et simulation d’écoulements à surface libre . La Houille Blanche, 6/7, 485-489, 1984.
  • [3] Vila, J.P., Sur la théorie et l’approximation numérique des problèmes hyperboliques non-linéaires, application aux équations de Saint-Venant et à la modélisation des avalanches denses, Ph.D. thesis thesis, Paris VI, 1986.
  • [4] Barbolini, M., U. Gruber, C.J. Keylock, M. Naaim, and F. Savi, Application of statistical and hydraulic-continuum dense-snow avalanche models to five European sites, Cold Regions Science and Technology, 31, 133-149, 2000.
  • [5] Voellmy, A., Über die Zerstörungskraft von Lawinen, Schweizerische Bauzeitung, 73, 159–165, 1955.
  • [6] Ancey, C., and M. Meunier, Estimating bulk rheological properties of flowing snow avalanches from field data, Journal of Geophysical Research, 109, F01004, 2004.
  • [7] Gauer, P., and K. Kristensen, Four decades of observations from NGI’s full-scale avalanche test site Ryggfonn—Summary of experimental results, Cold Regions Science and Technology, 125, 162-176, 2016.
  • [8] Ancey, C., S. Cochard, S. Wiederseiner, and M. Rentschler, Existence and features of similarity solutions for supercritical non-Boussinesq gravity currents, Physica D, 226, 32-54, 2007.
  • [9] Ancey, C., S. Cochard, S. Wiederseiner, and M. Rentschler, Front dynamics of supercritical non-Boussinesq gravity currents, Water Resources Research, 42, W08424, 2006
  • [10] Iverson, R.M., and D.L. George, Discussion of “The relation between dilatancy, effective stress and dispersive pressure in granular avalanches” by P. Bartelt and O. Buser, Acta Geotechnica, 11, 1465–1468, 2016.
  • [11] Beven, K., Environmental Modelling: An Uncertain Future, Routledge (Taylor & Francis), Oxon, 2009.
  • [12] Salm, B., A short and personal history of snow avalanche dynamics, Cold Regions Science and Technology, 39, 83-92, 2004.
  • [12] Le Gallou, J.-Y., and P. Guignard, Modalités de prise en compte des avalanches exceptionnelles pour améliorer la prévention des risques et renforcer la sécurité des personnes, Inspection générale de l’administration, Paris, 2011.
  • [14] Fischer, J.-T., A. Kofler, W. Fellin, M. Granig, and K. Kleemayr, Optimization of Computational Snow Avalanche Simulation Tools, in International Snow Science Workshop 2014 Proceedings, pp. 665-669, Banff, Canada, 2014.
  • [15] Sampl, P., and M. Granig, Avalanche simulation with SAMOS-AT, in Proceedings of the International Snow Science Workshop, 27 September–2 October 2009, pp. 519-523, Davos, Switzerland, 2009.
  • [16] Chevassus-au-Louis, N., Malscience, Éditions du Seuil, Paris, 2016.
  • [17] Foucart, S et H. Morin, Petits arrangements entre géologues, Le Monde du 26 décembre 2008.
  • [18] Salm, B., A. Burkard, and H. Gubler, Berechnung von Fliesslawinen, eine Anleitung für Praktiker mit Beispielen, Eidgenössisches Institut für Schnee- und Lawinenforschung (Davos), 1990.
  • [19] Bartelt, P., and O. Buser, Avalanche dynamics by Newton. Reply to comments on avalanche flow models based on the concept of random kinetic energy, Journal of Glaciology, doi: 10.1017/jog.2018.1, 2018.
  • [20] “Here we must be blunt: we have not disregarded the solutions offered by granular mechanics/particulate gravity currents. The situation is far more serious: we have abandoned them for the simple reason we found that they do not work. Confronted with the task of developing an avalanche model for engineering practice we asked ourselves a simple question: what does the consequential application of the laws of Newton and Stokes imply for the all-important descriptions of the basal boundary conditions, avalanche flow friction and the formation of the powder cloud. We wanted to avoid model formulations that abound in needless and misleading jargon, misstatement, contradiction and general illogic. Above all we wanted a model that can be tested using experimental measurements and that is comprehensible to engineers and technologists.” Tiré de la réf. [19], Sec. 5.