![]() |
![]() |
| Dossier : Climat | |
| retour sommaire |
La modélisation météorologique, qui a pour objectif premier la prévision du temps futur, a des besoins multiples et variés : d’abord par l’échéance souhaitée qui va de quelques minutes jusqu’à quelques jours, voire plus pour la prévision saisonnière ; ensuite par les variables à prédire, (température, durée d’insolation, vent, etc…). Parmi celles-ci la précipitation est probablement la variable la plus délicate à prévoir. L’approche par analogue est une voie particulièrement prometteuse. |
||
|
Le défi de la prévision quantitative des pluies
L’actualité récente nous rappelle régulièrement que la prévision quantitative des pluies reste un défi, notamment pour la prévision hydrologique des bassins versants de taille moyenne (de 200 à 2000 km2), en zone de piedmont ou de moyenne montagne par exemple. Sur ces bassins, l’échéance de prévision à considérer dépend des objectifs pratiques que l’on se fixe et des actions que l’on compte mener : si des mesures conservatoires (fermeture de route, manœuvre d’ouvrages) peuvent être accomplies en peu de temps par des services spécialisés (1 à 3 heures), d’autres nécessitent beaucoup plus de temps (évacuation, mise en sécurité de personnes et de biens, mais aussi vidanges préventives d’ouvrages hydrauliques, etc.…). Notamment, l’efficacité de ces actions dépendra d’une bonne anticipation dans la mise en vigilance appropriée des services d’intervention : celle-ci se fera de préférence un ou deux jours avant, voire plus… D’où des besoins multiples en prévision des pluies futures : essentiellement quantitatifs pour les échéances proches et progressivement plus qualitatifs pour les échéances plus lointaines (mise en vigilance, actions préparatoires et préventives). L’approche déterministique Aujourd’hui, la prévision s’appuie essentiellement sur des approches déterministes : celles-ci cherchent à modéliser à la fois Or ces différentes composantes ne bénéficient pas du même degré de connaissances et de précision. On peut considérer que l’échéance de 24 ou 36 heures représente aujourd’hui la limite des modèles opérationnels pour une utilisation directe en prévision quantitative des précipitations. L’approche prévision par analogue Pour des échéances plus rapprochées (2 à 3 jours ou plus), les modèles dynamiques (contrairement à la physique des phénomènes associés) sont encore capables de prédire de manière satisfaisante les grandes circulations. On peut donc être tenté de combiner les techniques : utiliser la partie robuste de ces sorties de modèles, (la circulation générale, exprimée dans les grands champs synoptiques), et l’adapter localement par des méthodes de type statistique. Celles-ci s’appuient sur de longues archives passées, afin d’utiliser la partie robuste des modèles déterministes mais d’en compenser les faiblesses. Principe de base. Soit une situation cible, pour laquelle on veut une prévision de précipitation sur un bassin donné (cette " cible " peut être la situation en cours, aujourd’hui, ou la situation prévue pour dans 3 ou 5 jours). On recherche d’abord, dans le passé, les situations analogues, en terme de situation synoptique, (circulation atmosphérique semblable) à la situation cible. Puis on considère les précipitations qui ont été observées localement, pour ces journées analogues, sur chacun des bassins cibles. Cela fournit, pour un bassin considéré, un historique (dates et quantités) des précipitations journalières observées dans des conditions météorologiques voisines de la situation en cours, et qui garde la trace de la réaction spécifique de chaque bassin. |
|||
![]() 1 : Schéma séquentiel de la prévision par analogues. |
Cet échantillon de situations analogues et des pluies observées sur le bassin fournit donc une idée de la distribution des pluies à attendre pour la situation en cours : Ces situations analogues représentent la loi de probabilité des précipitations, conditionnée par la situation météorologique présente et par la localisation géographique du bassin. On exprime cette distribution sous la forme d’une bande de confiance : autrement dit on affiche les cumuls, ou quantiles, Q20, Q60 et Q90 qui ont respectivement 80 %, 40 % et 10 % de chance d’être observés ou dépassés. La séquence complète est résumée dans la figure 1. Les outils nécessaires Mais si le principe de la méthode est simple, sa réalisation repose sur de nombreux ingrédients, en terme de données d’abord et de choix algorithmiques ensuite. Il faut : Il faut donc déterminer une hiérarchie pour la scrutation des variables pertinentes, et en tirer des algorithmes de recherche efficaces.
|
||
![]() 2 : Evolution des précipitations sur le bassin de la Toce. |
L’expérience MAP Cette approche a été testée opérationnellement dans le cadre de l’expérience internationale MAP (Mesoscale Alpine Programme), où elle a pu être comparée à d’autres approches durant les automnes 1999 et 2000. Un des bassins cibles était celui de la Toce (~ 2000 km2), centre de l’expérience MAP. On proposait chaque jour, pour le bassin considéré, une séquence de prévisions pour les 7 jours à venir (de J à J+6) ; puis on collectait les pluies observées (pour faire une moyenne sur 5 à 10 postes et approcher la lame reçue par chaque bassin).
On constate que ces gros épisodes (notamment celui des 19 et 20 septembre 1999) ont été bien détectés et bien «encadrés» par la fourchette de prévision. Pourquoi un regain de possibilités ? Cette approche a commencé à être utilisée dans les années 1960-70, avec l’apparition des calculateurs. Elle a ensuite souffert de problèmes d’archives, du fait du manque de standardisation et des perpétuelles évolutions des réseaux de mesures ainsi que des techniques d’analyse et d’archivage. Heureusement, dans les années 1990, à la demande de la communauté climatique, on a cherché à mettre un peu d’ordre dans tout cela en reprenant et en standardisant l’archivage des cinquante dernières années : ce sont les Réanalyses, proposées d’abord par le centre américain NCEP/NCAR sur la période 1949 à aujourd’hui, puis par le Centre Européen de Prévision Météorologique à Moyen Terme (ECMWF) de Reading. On dispose ainsi de données nombreuses et homogènes sur l’ensemble du globe. |
||
![]() 3 : Evolution de la prévision de la précipitation sur le bassin du Gard. |
L’utilisation de ces archives permet de caractériser plus finement les analogies et d’utiliser des algorithmes plus riches. A titre d’exemple de ce que cela peut apporter à la prévision, la figure 3 montre les prévisions émises le samedi 7 septembre 2002 au matin pour le bassin du Gard pour les jours suivants. En a), la prévision n’utilise que les champs de pression prévus . En b) on y ajoute le flux d’humidité dans les basses couches (850 hPa). On voit que cette variable renforce les pluies prévues et alerte bien, plus de 30 heures avant, sur un épisode important (les pluies intenses sont tombées dans la soirée du dimanche 8 et la crue a eu lieu dans la nuit du 8 au 9 septembre). Des applications en recherche climatique : divers exemples Climat «homogène» ? «hétérogène» ? Les premières applications climatologiques de cette approche concernent la recherche d’hétérogénéités dans les archives : elles ne peuvent porter que sur les archives elles-mêmes donc sur les 50 dernières années. Mais il est intéressant de voir si l’on détecte quelque chose puis d’identifier ensuite à quoi cela correspond. L’idée directrice est la suivante :
|
||
![]() 4 : Exemple d'hétérogénéité apparente résultant d'un biais dans les mesures |
C’est ce qui a été fait, par exemple avec les archives utilisées par EDF que nous utilisions jusqu’à récemment. On voit sur la figure 4a qu’il y a une dérive systématique tendant à mettre en évidence une «évolution» significative dans cette archive… Par contre, quand on applique cette approche à l’archive des Réanalyses NCEP/NCAR (figure 4b), cette tendance est beaucoup plus tenue. C’est en fait notre archive, ou plutôt les réseaux sur lesquels elle s’appuyait, qui avaient beaucoup évolué au cours des années 1970, d’où une hétérogénéité apparente. «Désagrégation des sorties de grands modèles»
Une autre application possible concerne la désagrégation des sorties de grands modèles climatiques (E. Martin 1995).
Ceux-ci sont appelés à fonctionner sur des périodes longues de 30 ou 50 ans, avec différents scénarios
d’évolution de gaz à effet de serre. Vu le volume de calculs, ils ne peuvent avoir une définition très fine (maille de la centaine de km, voire plus) : cela suffit pour décrire correctement les circulations synoptiques, mais non pour décrire des variables cruciales comme les précipitations, ou leur répartition spatiale. Donc, à défaut de pouvoir simuler le détail de cette variable, on peut prendre la circulation synoptique simulée et rechercher, dans une archive météorologique observée, la situation analogue la plus proche : on lui emprunte alors le détail de ses pluies observées, à une échelle plus fine, pour calculer ensuite l’hydrologie du modèle climatique. Par rapport aux pavés grossiers du GCM, celle-ci a évidemment toute la définition souhaitable et les caractéristiques, notamment spatiales, d’un vrai champ de précipitations. Conclusion Face à des défis comme ceux de la prévision des crues, et donc des pluies intenses qui les génèrent, ou à la prédiction climatique, toutes les approches méritent d’être considérées, y compris des approches heuristiques et statistiques. S’agissant de méthodes d’adaptation, elles s’améliorent sans cesse, puisqu‘elles bénéficient des performances améliorée des modèles eux-mêmes, comme la prévision d'ensemble...! Pour la prévision des précipitations, ces approces analogiques ont aujourd'hui des performances qui les rendent pzrmi les plus compétitives, sur le moyen terme notamment ainsi qu'en prévision saisonnière. Elles peuvent aussi rendre des services en modélisation climatique. On peut donc s'étonner de leur écho modeste dans une communauté peut-être trop exclusivement tournée vers le physico-déterminisme ? |
||
|
|||
| © CNRS - Contact : Sagascience@cnrs-dir.fr - http://www.cnrs.fr |