Dossier : Climat   
    La recherche française sur le climat
  Les thèmes de recherche
  Cycle de l'eau  
   
Une méthode alternative en modélisation hydro-météorologique : l'approche par analogues
Extrait de la Lettre n°16 Programme International Géosphère Biosphère-Programme Mondial de Recherches sur le Climat (PIGB-PMRC)


retour sommaire  

La modélisation météorologique, qui a pour objectif premier la prévision du temps futur, a des besoins multiples et variés : d’abord par l’échéance souhaitée qui va de quelques minutes jusqu’à quelques jours, voire plus pour la prévision saisonnière ; ensuite par les variables à prédire, (température, durée d’insolation, vent, etc…). Parmi celles-ci la précipitation est probablement la variable la plus délicate à prévoir. L’approche par analogue est une voie particulièrement prometteuse.


    Le défi de la prévision quantitative des pluies

L’actualité récente nous rappelle régulièrement que la prévision quantitative des pluies reste un défi, notamment pour la prévision hydrologique des bassins versants de taille moyenne (de 200 à 2000 km2), en zone de piedmont ou de moyenne montagne par exemple. Sur ces bassins, l’échéance de prévision à considérer dépend des objectifs pratiques que l’on se fixe et des actions que l’on compte mener : si des mesures conservatoires (fermeture de route, manœuvre d’ouvrages) peuvent être accomplies en peu de temps par des services spécialisés (1 à 3 heures), d’autres nécessitent beaucoup plus de temps (évacuation, mise en sécurité de personnes et de biens, mais aussi vidanges préventives d’ouvrages hydrauliques, etc.…). Notamment, l’efficacité de ces actions dépendra d’une bonne anticipation dans la mise en vigilance appropriée des services d’intervention : celle-ci se fera de préférence un ou deux jours avant, voire plus… D’où des besoins multiples en prévision des pluies futures : essentiellement quantitatifs pour les échéances proches et progressivement plus qualitatifs pour les échéances plus lointaines (mise en vigilance, actions préparatoires et préventives).



L’approche déterministique

Aujourd’hui, la prévision s’appuie essentiellement sur des approches déterministes : celles-ci cherchent à modéliser à la fois

  • les processus dynamiques de l’atmosphère (sa circulation à grande échelle),
  • la physique des phénomènes associés, comme les précipitations, qui mettent en jeu des échelles beaucoup plus petites, notamment en zones de montagne.
  • Or ces différentes composantes ne bénéficient pas du même degré de connaissances et de précision. On peut considérer que l’échéance de 24 ou 36 heures représente aujourd’hui la limite des modèles opérationnels pour une utilisation directe en prévision quantitative des précipitations.


    L’approche prévision par analogue

    Pour des échéances plus rapprochées (2 à 3 jours ou plus), les modèles dynamiques (contrairement à la physique des phénomènes associés) sont encore capables de prédire de manière satisfaisante les grandes circulations. On peut donc être tenté de combiner les techniques : utiliser la partie robuste de ces sorties de modèles, (la circulation générale, exprimée dans les grands champs synoptiques), et l’adapter localement par des méthodes de type statistique. Celles-ci s’appuient sur de longues archives passées, afin d’utiliser la partie robuste des modèles déterministes mais d’en compenser les faiblesses.

    Principe de base.

    Soit une situation cible, pour laquelle on veut une prévision de précipitation sur un bassin donné (cette " cible " peut être la situation en cours, aujourd’hui, ou la situation prévue pour dans 3 ou 5 jours). On recherche d’abord, dans le passé, les situations analogues, en terme de situation synoptique, (circulation atmosphérique semblable) à la situation cible. Puis on considère les précipitations qui ont été observées localement, pour ces journées analogues, sur chacun des bassins cibles. Cela fournit, pour un bassin considéré, un historique (dates et quantités) des précipitations journalières observées dans des conditions météorologiques voisines de la situation en cours, et qui garde la trace de la réaction spécifique de chaque bassin.


    1 : Schéma séquentiel de la prévision par analogues.
     

    Cet échantillon de situations analogues et des pluies observées sur le bassin fournit donc une idée de la distribution des pluies à attendre pour la situation en cours : Ces situations analogues représentent la loi de probabilité des précipitations, conditionnée par la situation météorologique présente et par la localisation géographique du bassin. On exprime cette distribution sous la forme d’une bande de confiance : autrement dit on affiche les cumuls, ou quantiles, Q20, Q60 et Q90 qui ont respectivement 80 %, 40 % et 10 % de chance d’être observés ou dépassés. La séquence complète est résumée dans la figure 1.

    Les outils nécessaires

    Mais si le principe de la méthode est simple, sa réalisation repose sur de nombreux ingrédients, en terme de données d’abord et de choix algorithmiques ensuite. Il faut :

  • disposer d’archives substantielles (20 ans est un minimum, et l’on utilise en fait 50 ans quand cela est possible),
  • trouver une définition appropriée de l’analogie, qui privilégie l’analogie des circulations générales au-dessus de la zone d’intérêt : en fait il faut trouver comment reconnaître que deux cartes en relief (ici des surfaces isobares, qui, elles, caractérisent la situation météorologique) sont suffisamment semblables pour que l’écoulement de l’air soit comparable sur l’une et l’autre,
  • ensuite seulement on vérifiera qu’il transporte à peu près le même flux d’humidité etc..
  • Il faut donc déterminer une hiérarchie pour la scrutation des variables pertinentes, et en tirer des algorithmes de recherche efficaces.

    En prévision, cette méthode est une méthode d’adaptation, en cela qu’elle emprunte ailleurs (à des modèles de circulation générale), la prévision de la situation synoptique pour les jours à venir. Mais elle les adapte pour une variable particulière, ici la précipitation sur un bassin.




    Exemple de mise en œuvre

    La gestion des barrages

    Une telle approche est exploitée par EDF)depuis les années 1970 pour la gestion des barrages. Le Laboratoire d’études des Transferts en Hydrologie et Environnement (LTHE) contribue régulièrement à la remettre à niveau. Dans la version opérationnelle actuelle, la situation d’une journée n’est décrite météorologiquement que par ses champs géopotentiels 1000 et 700 hPa pris sur l’Europe à 00h et 24 h TU. C’est sans doute insuffisant pour décrire tout ce qui prédispose à des précipitations, mais l’avantage est que l’on bénéficie, pour l’opérationnel, de prévisions de ces champs jusqu’à 7 voire 10 jours en avant. A ce jour, plus d’une cinquantaine de bassins, allant de 500 à 2000 km2, sont traités journalièrement par EDF dans le cadre de la gestion prévisionnelle de ses ouvrages.



    2 : Evolution des précipitations sur le bassin de la Toce.

     

    L’expérience MAP

    Cette approche a été testée opérationnellement dans le cadre de l’expérience internationale MAP (Mesoscale Alpine Programme), où elle a pu être comparée à d’autres approches durant les automnes 1999 et 2000. Un des bassins cibles était celui de la Toce (~ 2000 km2), centre de l’expérience MAP. On proposait chaque jour, pour le bassin considéré, une séquence de prévisions pour les 7 jours à venir (de J à J+6) ; puis on collectait les pluies observées (pour faire une moyenne sur 5 à 10 postes et approcher la lame reçue par chaque bassin).
    Pour deux gros épisodes, on compare, sur la figure 2, les pluies effectivement observées avec les fourchettes de prévision :


  • le matin du jour J pour la journée (24h) à venir,
  • celle fournie 3 jours pleins auparavant,
  • celle fournie 5 jours pleins auparavant.
  • On constate que ces gros épisodes (notamment celui des 19 et 20 septembre 1999) ont été bien détectés et bien «encadrés» par la fourchette de prévision.
    En conclusion de ces tests, cette approche s’est révélée informative quantitativement sur les échéances J, J+1 et J+2, et permettant une mise en alerte assez fiable jusqu’à J+5, ce qui constitue un complément d’information appréciable pour le prévisionniste.




    Pourquoi un regain de possibilités ?


    Cette approche a commencé à être utilisée dans les années 1960-70, avec l’apparition des calculateurs. Elle a ensuite souffert de problèmes d’archives, du fait du manque de standardisation et des perpétuelles évolutions des réseaux de mesures ainsi que des techniques d’analyse et d’archivage. Heureusement, dans les années 1990, à la demande de la communauté climatique, on a cherché à mettre un peu d’ordre dans tout cela en reprenant et en standardisant l’archivage des cinquante dernières années : ce sont les Réanalyses, proposées d’abord par le centre américain NCEP/NCAR sur la période 1949 à aujourd’hui, puis par le Centre Européen de Prévision Météorologique à Moyen Terme (ECMWF) de Reading. On dispose ainsi de données nombreuses et homogènes sur l’ensemble du globe.


    3 : Evolution de la prévision de la précipitation sur le bassin du Gard.
     

    L’utilisation de ces archives permet de caractériser plus finement les analogies et d’utiliser des algorithmes plus riches. A titre d’exemple de ce que cela peut apporter à la prévision, la figure 3 montre les prévisions émises le samedi 7 septembre 2002 au matin pour le bassin du Gard pour les jours suivants. En a), la prévision n’utilise que les champs de pression prévus . En b) on y ajoute le flux d’humidité dans les basses couches (850 hPa). On voit que cette variable renforce les pluies prévues et alerte bien, plus de 30 heures avant, sur un épisode important (les pluies intenses sont tombées dans la soirée du dimanche 8 et la crue a eu lieu dans la nuit du 8 au 9 septembre).




    Des applications en recherche climatique : divers exemples

    Climat «homogène» ? «hétérogène» ?

    Les premières applications climatologiques de cette approche concernent la recherche d’hétérogénéités dans les archives : elles ne peuvent porter que sur les archives elles-mêmes donc sur les 50 dernières années. Mais il est intéressant de voir si l’on détecte quelque chose puis d’identifier ensuite à quoi cela correspond. L’idée directrice est la suivante :

  • Si le climat est homogène, alors une année donnée (considérée jour par jour), devrait trouver des analogues un peu partout dans l’archive. En effet, sous cette hypothèse, chaque situation peut se reproduire, avec une probabilité spécifique mais inchangée, à peu près n’importe quand.
  • Par contre, si par exemple pour les années 1955 à 60, on ne trouve d’analogues que dans les décennies 1950 et 60, et de même pour les années 1991 à 95 dans les seules décennies 1980 à 2000, cela suggère une évolution du climat.

  • 4 : Exemple d'hétérogénéité apparente résultant d'un biais dans les mesures
     

    C’est ce qui a été fait, par exemple avec les archives utilisées par EDF que nous utilisions jusqu’à récemment. On voit sur la figure 4a qu’il y a une dérive systématique tendant à mettre en évidence une «évolution» significative dans cette archive… Par contre, quand on applique cette approche à l’archive des Réanalyses NCEP/NCAR (figure 4b), cette tendance est beaucoup plus tenue. C’est en fait notre archive, ou plutôt les réseaux sur lesquels elle s’appuyait, qui avaient beaucoup évolué au cours des années 1970, d’où une hétérogénéité apparente.

    «Désagrégation des sorties de grands modèles»

    Une autre application possible concerne la désagrégation des sorties de grands modèles climatiques (E. Martin 1995). Ceux-ci sont appelés à fonctionner sur des périodes longues de 30 ou 50 ans, avec différents scénarios d’évolution de gaz à effet de serre. Vu le volume de calculs, ils ne peuvent avoir une définition très fine (maille de la centaine de km, voire plus) : cela suffit pour décrire correctement les circulations synoptiques, mais non pour décrire des variables cruciales comme les précipitations, ou leur répartition spatiale. Donc, à défaut de pouvoir simuler le détail de cette variable, on peut prendre la circulation synoptique simulée et rechercher, dans une archive météorologique observée, la situation analogue la plus proche : on lui emprunte alors le détail de ses pluies observées, à une échelle plus fine, pour calculer ensuite l’hydrologie du modèle climatique. Par rapport aux pavés grossiers du GCM, celle-ci a évidemment toute la définition souhaitable et les caractéristiques, notamment spatiales, d’un vrai champ de précipitations.
    Cela implique l’hypothèse forte suivante : toute situation d’un climat modifié dans les décennies à venir trouvera encore des analogues dans la période 1950-2000 ; chacune des situations observées reste possible, seules les fréquences d’apparition auront éventuellement changé. Une hypothèse à débattre, naturellement.

    Conclusion

    Face à des défis comme ceux de la prévision des crues, et donc des pluies intenses qui les génèrent, ou à la prédiction climatique, toutes les approches méritent d’être considérées, y compris des approches heuristiques et statistiques. S’agissant de méthodes d’adaptation, elles s’améliorent sans cesse, puisqu‘elles bénéficient des performances améliorée des modèles eux-mêmes, comme la prévision d'ensemble...! Pour la prévision des précipitations, ces approces analogiques ont aujourd'hui des performances qui les rendent pzrmi les plus compétitives, sur le moyen terme notamment ainsi qu'en prévision saisonnière. Elles peuvent aussi rendre des services en modélisation climatique. On peut donc s'étonner de leur écho modeste dans une communauté peut-être trop exclusivement tournée vers le physico-déterminisme ?

         

    Contact : Charles OBLED
    Institut National Polytechnique de Grenoble
    ENS Hydraulique et Mécanique
    Laboratoire d’études des Transferts en Hydrologie et Environnement
    BP 53- 38 041 Greoble Cedex 9.

         


    © CNRS - Contact : Sagascience@cnrs-dir.fr  - http://www.cnrs.fr