Dossier : Climat   
    La recherche française sur le climat
  Les thèmes de recherche
  Prévisibilité aux échelles
mensuelles, saisonnières, interannuelles
 
   

Peut-on faire des prévisions saisonnières ? Le point de vue d’un modélisateur
Extrait de la Lettre n°17 Programme International Géosphère Biosphère-Programme Mondial de Recherches sur le Climat (PIGB-PMRC)


retour sommaire  

Le malentendu sur le terme

La langue française, dont les nuances et les subtilités en ont fait la langue de la diplomatie internationale pendant quelques siècles, est pauvre face à la langue anglaise dans le domaine de la prévision météorologique: les mots «prediction », «prognostic», «outlook», «forecast», «foresight» sont systématiquement traduits dans un contexte météorologique par le mot «prévision», car la «prédiction» est réservée aux astrologues, et le «pronostic» aux turfistes. Il en résulte un malentendu entre les scientifiques qui parlent de prévision saisonnière et le public qui attend qu’on leur annonce le temps qu’il va faire.

Avec l’expérience, le public a admis qu’on puisse se tromper une fois sur dix pour le temps du lendemain (ce qui fait presque une erreur par semaine) et que, plus l’échéance s’éloigne, plus la chronologie des phénomènes est floue. Par exemple il est facile d’admettre qu’on ne prévoie pas en mai 2003 le début de l’épisode caniculaire du mois d’août au jour près, mais le public s’attend à ce que les prévisions lui disent que l’été 2003 sera notablement plus chaud que les précédents. Pourtant, la nature est plus capricieuse, ou notre conception de la nature à travers les lois de la physique est en défaut dans ce domaine.

Approche déterministe versus probabiliste

Les scientifiques, depuis H. Poincaré (1881), considèrent qu’il y a une limite à la prévision météorologique déterministe, à cause de la structure des équations des phénomènes. La résolution approchée des équations sur ordinateur, depuis plusieurs dizaines d’années, montre que cette limite se situe entre dix et vingt jours. Ne peut-on rien faire au-delà ? Si, mais l’approche devient alors probabiliste (voir plus bas la section sur l’analogie avec une expérience de pile ou face). Il y a plusieurs solutions possibles pour l’atmosphère et ces solutions ne sont pas équiprobables. Le calcul peut tenter de nous fournir les probabilités, c’est ce qu’on attend de la prévision saisonnière. Mais l’atmosphère réelle va choisir une seule de ces solutions, pas systématiquement la plus probable, et aucun modèle ne peut prédire laquelle avec certitude. C’est pourquoi même la moyenne de température sur une saison ne peut être prédite de manière déterministe.

Pour le public, l’approche probabiliste peut sembler une échappatoire. A courte échéance, la prévision est également probabiliste, mais la densité de probabilité est suffisamment pointue. Le rôle d’un prévisionniste est de transformer une information probabiliste (utilisation de plusieurs modèles numériques, expérience de terrain conduisant à envisager des situations analogues passées) en information déterministe (rédaction d’un bulletin). Ce faisant, il va se tromper de temps en temps, et c’est son droit le plus strict. S’il se contentait de transmettre un message probabiliste, c’est l’usager qui aurait à prendre la décision, et donc qui porterait la responsabilité de ses erreurs, ce qu’il ne veut pas. Le faible niveau de prévisibilité à l’échelle de la saison ne permet pas l’interface par un prévisionniste. Aussi les usagers potentiellement concernés par la prévision saisonnière sont très peu nombreux.

     
     
   

Pourquoi fait-on des prévisions saisonnières ?

La plupart des services météorologiques, dont Météo-France, produisent des prévisions saisonnières, diffusées ou non. Une première raison est que le surcoût, pour un service qui fait déjà des prévisions numériques opérationnelles, est très faible: pas besoin de réseau d’observation à l’échelle du département, de satellites de la dernière génération, d’un nouveau calculateur, ni de prévisionnistes dans toutes les régions. Si on a déjà tout cela, il suffit d’y consacrer une partie de la puissance de calcul dont on dispose. Comme les modèles de prévision à court terme ont besoin de fournir une prévision le plus rapidement possible, mais pas de répéter l’opération toute les heures, plus le calculateur est puissant, plus il reste du temps de calcul disponible. Le modèle numérique de l’atmosphère utilisé pour la prévision saisonnière est constitué en grande partie par le modèle utilisé par la prévision globale à courte échéance. Il peut même être identique comme au Centre Européen de Prévision Météorologique à Moyen Terme (CEPMMT).

Le service météorologique n’a donc à investir que dans deux domaines: la recherche, pour rester en pointe et faire progresser aussi bien la science que les bénéfices de ses usagers, et la commercialisation, pour convaincre des clients d’utiliser un produit qui est loin d’être fiable à 100%. La deuxième raison qui pousse à la production de prévision saisonnière est la possibilité de gain, directe comme en Europe, indirecte via les taxes sur les sociétés de service et les sur les bénéfices induits comme aux Etats-Unis. La prévision saisonnière n’est pas faite pour protéger les personnes et les biens, mais pour aider les décideurs publics ou privés à optimiser leur stratégie. Il est donc légitime que ce soit le bénéficiaire et non le contribuable qui participe aux frais.

     
     
 
 
 
 
 
 

Figure 1 – Distribution probabiliste de la température quotidienne à Toulouse
 

Une analogie physique

L’atmosphère obéit à des lois, donc le temps doit être prévisible, et la saison à venir en particulier. La pièce de monnaie que je lance en l’air obéit aussi à des lois. Mais ce que je retire de ces lois est que, si la pièce est constituée d’un matériau uniforme, la probabilité de chaque face est 50%. Si une face est recouverte d’un matériau plus dense, je peux soit effectuer des séries de lancers et compter les occurrences, soit faire des calculs de trajectoires à partir des lois physiques et en déduire les nouvelles fréquences. Notre approche de la prévision saisonnière n’est pas différente. La loi du 50% correspond à la climatologie: pas la climatologie moyenne qui dit qu’il fait 5°C à Toulouse en janvier, mais la loi de distribution probabiliste des températures à Toulouse en hiver (Figure 1, courbe noire). Une exploitation judicieuse de cette information par un usager qui réclame des prévisions saisonnières peut déjà apporter un bénéfice substantiel à celui-ci.

La méthode empirique de la répétition des lancers correspond à la prévision statistique. Longtemps on a dû s’en contenter, faute de moyens de calcul suffisants. C’est ainsi que l’Oscillation Australe a été découverte, par la recherche de prédicteurs de la mousson indienne. Les proverbes météorologiques sont l’expression d’une approche statistique embryonnaire, s’appuyant sur quelques dizaines de cas au mieux, et sans doute biaisée par les quelques cas extrêmes qui ont marqué les esprits. De nos jours, certains pratiquent une version améliorée de cette méthode qui a le mérite du coût minimal : un PC, pas nécessairement de la dernière génération, et un compte sur Internet pour récupérer des données. Elle souffre pourtant d’une difficulté : le lanceur de pièces peut choisir le nombre d’expériences, pas le prévisionniste statisticien. Nous avons à peu près 50 années bien documentées à notre disposition. En prévision saisonnière, cela ne fait que 50 cas. Les mécanismes en hiver ne sont pas les mêmes qu’en été en Europe. Comme la diversité des situations climatiques est très riche, il est difficile de trouver dans le passé des enchaînements statistiquement stables, c’est à dire qui ne sont pas de simples coïncidences. Certains hivers se ressemblent, mais pas forcément pour les mêmes raisons. Par exemple les deux phénomènes majeurs « El Nino » de la deuxième moitié du 20ème siècle se sont traduits pour la France par un hiver normal (1982-83) et un hiver très doux (1997-98). J’ai donc une opinion assez réservée vis à vis de ceux qui annoncent des corrélations de 0.80 à l’échelle saisonnière en exploitant uniquement les séries passées. Mais dans 500 ans je changerai peut être d’avis.

Revenons à notre pièce de monnaie. L’approche par la modélisation correspond à notre approche en prévision saisonnière. Elle est essentiellement probabiliste, ce qui se traduit, dans notre cas, par la production d’un ensemble de prévisions. Calculer une seule trajectoire a aussi peu de sens en prévision saisonnière qu’en prévision de pile ou face. En poursuivant l’analogie, il faut non seulement connaître les lois physiques, mais aussi disposer d’un modèle numérique pour les résoudre. Le calcul des solutions d’un cylindre dont le centre de gravité n’est pas le centre de symétrie, en mouvement tridimensionnel dans un champ de pesanteur en tenant compte de la résistance de l’air et de la poussée d’Archimède n’est pas simple si on choisit la voie analytique. Pour l’atmosphère, la voie analytique a été abandonnée depuis longtemps, et c’est à Météo-France au modèle ARPEGE (Déqué et al., 1994) qu’est confié ce calcul. Enfin il faut un troisième ingrédient : la connaissance du forçage. Sans cette connaissance, la distribution probabiliste que l’on prévoit ne peut être que la distribution climatologique. Pour la pièce de monnaie, il faut connaître l’épaisseur et la densité de chaque milieu (approche numérique), ou disposer d’une pièce du même type (approche statistique). Pour l’atmosphère, il faut savoir en quoi par exemple l’été 2003 se distingue a priori des autres étés.

     
     
   

D’où vient la prévisibilité ?

L’effet papillon popularisé par E. Lorenz dans les années 1960, illustré par le fameux modèle à trois variables (Lorenz, 1963) consiste en la divergence rapide (quelques dizaines de jours) de deux trajectoires initialement très proches (un battement d’aile de papillon). Cet effet montre que l’état initial de l’atmosphère n’est pas lié univoquement à l’état au cours de la saison suivante, car la connaissance de l’état initial est toujours entachée d’erreur (imprécision de la mesure, densité du réseau). L’effet papillon existe clairement dans les équations et donc les modèles, mais ne peut être mis en évidence à partir des observations (il faudrait des milliers d’années pour trouver deux situations très proches pour tous les paramètres en tout point du globe).

Un modèle de prévision numérique utilise deux ingrédients susceptibles de changer d’une année à l’autre :

• les conditions aux limites,
• les conditions initiales.

     
   

Les forçages

Si le modèle n’est pas couplé à un modèle d’océan, la température de surface de la mer et l’étendue de banquise sont les conditions aux limites clés pour la variabilité interannuelle. Comme forçage d’un ordre inférieur, on trouve les aérosols volcaniques (éruption du Pinatubo), et à un ordre encore inférieur les concentrations en gaz à effet de serre autres que la vapeur d’eau (dioxyde de carbone, méthane, oxyde nitreux, ozone ...) et l’activité énergétique du soleil («constante» solaire). Ces deux derniers paramètres jouent un rôle majeur dans l’évolution du climat sur plusieurs décennies, mais ne varient pas significativement d’une année à l’autre.

     
   

Les conditions initiales

Pour ce qui est des conditions initiales, on trouve l’état atmosphérique, l’humidité des sols et la couverture de neige continentale. L’état atmosphérique joue un rôle aux latitudes tempérées, en dépit de l’effet papillon : en effet les expériences de prévision dans lesquelles on choisit délibérément un état initial arbitraire conduisent à une dégradation des scores. Des expériences académiques ou utilisant des années extrêmes ont montré que l’humidité du sol ou la couverture de neige initiale contribuaient positivement à la prévisibilité.

     
   

Le paramètre majeur : température de surface de la mer dans les régions tropicales

Il n’en demeure pas moins que dans les modèles numériques actuels, le paramètre majeur pour forcer une année à se comporter différemment d’une autre est la température de surface de la mer dans les régions tropicales. La modulation du réchauffement des basses couches qu’elle produisent, se propage à toute la colonne par la convection, et conduit à l’excitation d’ondes dites de Rossby qui se propagent vers les latitudes tempérées. A partir de là, la circulation moyenne peut se faire préférentiellement du Nord-Ouest ou du Sud-Ouest sur une région donnée. Ceci conduit à des anomalies saisonnières de température ou de précipitations pour la région en question. Il s’agit bien entendu d’une différence de comportement au niveau de la distribution statistique; deux prévisions individuelles peuvent se comporter très différemment du simple fait de l’effet papillon.

     
     
   

Comment prévoir l’océan ?

Bien prévoir l’état de la surface océanique est donc la clé de la prévision saisonnière. Ce n’est pourtant pas la solution magique du problème prédictif, puisque le projet européen PROVOST (Doblas-Reyes et al., 2000), où des modèles d’atmosphère étaient forcés par les températures de la mer observées, a donné des scores assez modestes. Malgré le forçage imposé, l’atmosphère garde une grande part de liberté pour produire des saisons à sa fantaisie. Une pièce en plomb/aluminium ne va pas non plus toujours tomber sur la même face. Dans un modèle non couplé (c’est à dire où l’état de l’atmosphère et celui de la surface de l’océan sont calculés indépendament), comme celui utilisé opérationnellement à Météo-France sur le calculateur de Toulouse, la température de la mer est prévue par un algorithme statistique utilisant essentiellement la persistance des anomalies tropicales. Ce système existe depuis 1997.

Depuis le projet européen DEMETER (Palmer et al., 2004), nous utilisons le modèle OPA de l’Institut Pierre-Simon Laplace (IPSL) couplé par le logiciel OASIS du Centre Européen de Recherche et de Formation Avancée en Calcul Scientifique (CERFACS). Ce projet s’est achevé en septembre 2003. Une des principales conclusions qui nous concernent est la supériorité de l’approche couplée, en particulier sur le domaine Europe-Atlantique (voir plus bas la section sur une illustration), par rapport à l’approche des prévisions statistiques des températures de la mer. Il s’agit tout de même de scores faibles, avec des coefficients de corrélation rarement supérieurs à 0.20. Nous avons en outre montré que le couplage joue un rôle intrinsèque, puisque le forçage d’ARPEGE par les températures prévues par le modèle couplé donne des scores inférieurs à ceux du modèle couplé. Pourtant, dans les deux expériences l’atmosphère voit les mêmes températures de surface à l’échelle mensuelle.

     
   

Difficulté des prévisions couplées

La principale difficulté dans la mise en oeuvre de prévisions couplées réside dans l’état initial de l’océan. Contrairement à ce qui se passe pour l’atmosphère, notre connaissance de l’état initial par les observations est moins précise, et le rôle des conditions initiales est déterminant (l’effet papillon met plusieurs mois à se développer dans l’océan).

     
   

Les techniques d’assimilation

Le CERFACS effectue des recherches sur l’amélioration des techniques d’assimilation. Dans DEMETER, l’assimilation était constituée seulement d’une intégration du modèle d’océan forcé par les flux en surface de la réanalyse ERA40. A la suite du projet DEMETER, le CEPMMT et le Met Office ont développé un schéma d’assimilation utilisant plus d’observations océaniques et produisent chaque mois des prévisions en temps réel. Depuis le début de 2004 le modèle ARPEGE produit à son tour chaque mois au CEPMMT un ensemble de 40 prévisions à 6 mois utilisant les analyses océaniques fournies par le projet d’océanographie opérationnelle MERCATOR. Les trois modèles vont donc fusionner en un super-ensemble de 120 membres, plus à même de prendre en compte l’incertitude liée au choix d’un modèle.

     
     
   

L’adaptation statistique

Les prévisions non couplées ont-elles un avenir ? Une première réponse est que ce type de prévision utilise une approche différente, donc forcément complémentaire. Le projet DEMETER a bien montré que la synthèse de plusieurs modèles donne souvent des scores supérieurs au meilleur des composants. La deuxième réponse est que le produit fini «prévision saisonnière » n’est pas seulement le résultat des intégrations d’un modèle. Pour produire une prévision probabiliste qui fasse mieux que la prévision climatologique, pour faire une adaptation régionale des prévisions de précipitations à des domaines comme le Maghreb ou l’Afrique de l’Ouest, pour ajuster une stratégie économique à base de prévisions numériques, il faut compléter le processus par des algorithmes statistiques.

Pour ce faire, disposer d’un échantillon de 40 ans de prévisions n’est pas un luxe. Or les techniques d’assimilation océanique perfectionnées ont besoin de données que les satellites ou les réseaux de bouées ne mesurent que depuis la fin des années 1980. Les analyses de MERCATOR ne sont disponibles qu’à partir de 1993. La relative faiblesse des prévisions non couplées peut se trouver largement compensée par l’amélioration apportée par l’adaptation statistique. Dans le doute sur la meilleure des approches, il vaut mieux mener les deux de front lorsque les moyens de calcul le permettent.

Des travaux récents (Clark and Déqué, 2003) ont montré qu’en combinant des longues séries de prévisions et des ensembles de grande taille, une méthode de recherche de situations d’analogues permettait de construire des prévisions probabilistes fiables et possédant une résolution décente (pour les notions de fiabilité et de résolution d’une prévision probabiliste, voir Déqué, 2001).

     
     
   

A quoi servent les prévisions ?

Sur le plan théorique, il est satisfaisant de constater que les modèles numériques produisent une information au delà de la barrière de prévisibilité déterministe. Sur le plan pratique, l’utilisation de cette information est très limitée. Si un usager se pose la question de partir en pique-nique le lendemain et reçoit l’information « probabilité de pluie = 40% », il en déduira qu’il ne pleuvra pas puisque cet événement est plus probable que son contraire, et partira en pique-nique. L’information probabiliste est dégradée en information déterministe. Si l’usager était capable d’évaluer dans une unité quelconque (Euro, degré de satisfaction ...) le plaisir d’un pique-nique ensoleillé, la déception de rester chez soi quand il fait beau, le désagrément d’un pique-nique sous la pluie, et le soulagement d’être resté chez soi au sec, il s’apercevrait sans doute que le seuil de décision qui optimise son critère d’évaluation n’est pas forcément 50%.

La prévision saisonnière ne s’adresse qu’à celui qui peut calculer les conséquences de chaque décision dans chaque cas de figure des caractéristiques pertinentes de la saison à venir. Pour un usager comme EDF, c’est une fonction qui ne peut se décrire que par un modèle économique compliqué demandant des moyens de calcul. Du côté des producteurs de prévision, on utilise le modèle le plus simple qui soit pour garder la plus grande généralité dans l’évaluation de la valeur économique d’une prévision. Ce modèle s’appelle le modèle coût-perte.

     
     
 


Figure 2 - Corrélation des prévisions d'hiver et d'été
 
 
 
 
 
 
 

Illustration

Compte tenu de ce qui a été dit, monter une carte de température pour une saison donnée, par exemple l’hiver 1997/98, et la carte de la prévision moyenne correspondante relève un peu de l’escroquerie scientifique. Face à un système probabiliste dont la validation n’a de sens que pour un nombre suffisamment grand de prévisions, choisir le cas qui « colle » le mieux ne rend pas compte de la qualité du système. Plus l’échantillon de prévisions passées est grand, plus on a dechance de trouver un couple prévision moyenne/observation en bonne concordance. On ne peut illustrer les prévisions que par leurs scores. On trouvera sur cette page des centaines de cartes et de diagrammes issus du projet DEMETER :
http://www.ecmwf.int/research/demeter/d/charts/verification.

Dans cet article, nous nous contenterons de regarder des scores de corrélation. Même s’il ne s’agit pas de scores probabilistes, ils mesurent la qualité du système. Si la moyenne de l’ensemble est indépendante de l’observation, il est assez vain de chercher à faire des prévisions probabilistes.

La Figure 2 montre les corrélations temporelles sur 44 hivers (Figure 2A) et 44 étés (Figure 2B) de 1958 à 2002 de la température à 850 hPa (vers 1500 m). Quatre expériences sont considérées suivant le type de températures de la mer utilisées dans le modèle, données a priori clé pour calculer la température atmosphérique. Dans les trois premiers cas, le modèle qui calcule la température atmosphérique, est forcé par les températures de la mer (a) observées, b) prévues par méthode statistiques, c) calculées au préalable par une simulation couplée. Dans le dernier cas (d), le modèle atmosphérique est couplé au modèle océan.

Les cartes sont constituées de points de grille. Dans chaque expérience, on calcule à chaque point de grille la température saisonnière hivernale (puis estivale) de l’atmosphère (850 hPa) pour chacune des 44 années considérées. On compare ces valeurs aux valeurs mesurées en calculant le coefficient de corrélation entre les deux ensembles (valeurs simulées versus mesurées) : une corrélation positive indique une certaine capacité prédictive du modèle – une valeur nulle (en fait en moyenne nulle entre +0,05 et -0,05) : aucune.

La méthode a) n’est pas applicable à de vraies prévisions : en effet elle utilise comme entrée de données des valeurs mesurées (températures de la mer). On constate qu’en hiver les prévisions couplées donnent les meilleurs scores sur la France (majorité de vert qui correspond à une corrélation au moins égale à +0,2). Par contre en été, les trois dernières méthodes donnent des corrélations négatives sur la France, ce qui indique qu’il n’y a pas de capacité prédictive à l’échelle saisonnière des modèles.

     
     

Figure 3 - Moyennes d'été
 

La prévision au-delà de la saison

La Figure 3 montre les moyennes d’été (juin-juillet-août) sur la France pour les observations depuis 1960, et pour les résultats d’une simulation climatique de 1960 à 2100 utilisant des hypothèses (GIEC-A2) pour la concentration en gaz à effet de serre. On se rend bien compte que pour un été donné, la simulation du modèle n’a aucun caractère prédictif. L’été 2003 n’est pas particulièrement chaud dans la simulation. Par contre, en terme de climat, c’est à dire de distribution statistique sur une période de 30 ans, le modèle prédit une évolution vers des étés plus chauds à la fin du 21e siècle qu’à la fin du 20ème. L’évolution d’une année à l’autre est dominée par le chaos, alors que l’évolution lente est contrainte par le forçage radiatif anthropique.

     
     
   

Conclusion

Si la prévision saisonnière avait porté un autre nom, comme « aide à la prise de décision face à un horizon météorologique lointain », on se féliciterait des progrès accomplis depuis plus de 20 ans, par l’apparition des modèles de circulation générale atmosphérique initialisés par des observations à la fin des années 1970, par leur couplage à des modèles globaux océaniques au début des années 1990, et par l’apparition de l’océanographie opérationnelle au début des années 2000. On ne verrait pas sur les sites Internet des cartes du monde avec des plages rouges là où il va faire chaud la saison prochaine, bleues là où il va faire froid. Les scientifiques ne seraient pas appelés par des journalistes leur demandant si l’été prochain ne va pas subir une canicule pire que celle de 2003.

Utilisant moi-même abondamment ce terme, je contribue à entretenir la confusion. Aussi, j’espère que cet article me rachètera un peu, en expliquant au lecteur ce qu’est réellement une prévision saisonnière, ce qu’on peut en attendre grâce au progrès de l’observation, des moyens de calcul, de la modélisation, et du post-traitement statistique, et ce qui est de l’ordre de l’utopie tant qu’un savant n’aura pas bouleversé notre conception de la mécanique des fluides.

     
     
   

Contact : Michel Déqué
Météo-France/CNRM,
42 Av. Coriolis, 31057 Toulouse

     


© CNRS - Contact : Sagascience@cnrs-dir.fr  - http://www.cnrs.fr