Dossier : Climat   
    La recherche française sur le climat
  Les thèmes de recherche
  Rôle de l'océan  
   

La dynamique océanique
Christian Le Provost

 

Texte extrait de :
INSU, 30 ans de recherches en sciences de l'Univers,
1967 - 1997

 

 




1 - Le El Niño 1997


















2 - Distribution verticale de la salinité des masses d'eau océanique.














































3 - La mission altimétrique Topex-Poseidon

Sans vouloir dresser un bilan exhaustif des progrès récents réalisés en océanographie physique, nous tentons ici de regrouper en quatre rubriques les avancées les plus marquantes de ces quinze dernières années.

El Niño, Southern Oscillation (Enso)
Le programme Toga, mené de 1985 à 1995, avait pour objectifs de comprendre le phénomène ENSO et de mettre en place un réseau d’observation qui en permette la prédiction en utilisant des modèles numériques couplant l’océan et l’atmosphère.
C’est ainsi que l’on a pu suivre dans le détail les événements ENSO de 1986-87 et 1992-94, et comprendre mieux les mécanismes en jeu, sans toutefois parvenir à cerner les facteurs de déclenchement de cette instabilité. Sans chauvinisme, on peut dire que la communauté française fut parmi les pionniers de cette thématique d’étude des océans tropicaux, avec la conception et la réalisation, au début des années 1980, d’un programme d’observation de l’Atlantique Equatorial : l’expérience Focal. Sur sa lancée, elle a joué un rôle notable dans Toga.

Un nombre important de campagnes océanographiques furent menées dans le Pacifique Equatorial, en particulier à partir de la base Orstom (IRD) de Nouméa, contribuant au déploiement et au maintien du réseau d’observation mis en place. Dans le même temps, les travaux des équipes françaises au plan théorique avançaient, favorisés en particulier à partir de fin 92 par la disponibilité des mesures de la mission altimétrique Topex/Poseidon.

Citons quelques résultats marquants : la clarification des scénarios de déplacement des masses d’eau au cours des différents El Niño ainsi que des ondes qui parcourent alors l’océan équatorial, la démonstration toute fraîche de l’importance du contenu en sel des couches superficielles qui influence les mécanismes d’échange entre l’océan et l’atmosphère, l’existence de téléconnections avec l’Océan Indien et l’Océan Atlantique, et l’importance des écoulements au travers des détroits Indonésiens dans le couplage entre l’Enso et les moussons indiennes et Nord australiennes. Parallèlement, un modèle numérique d’océan était développé. Dans le cadre d’une action nationale entre physiciens de l’océan et de l’atmosphère, ce modèle a été couplé avec les modèles atmosphériques de la communauté nationale.


L’état des lieux de notre océan
La réussite du programme Woce aura d’abord été de mobiliser la communauté internationale pour réaliser sur un laps de temps limité (1990-97) un ensemble considérable de mesures permettant de dresser pour la première fois un véritable “état des lieux” de notre océan. L’une des composantes majeures de ce programme fut la réalisation de “sections hydrographiques” quadrillant tous les océans. A la verticale de chaque section, des mesures de température, de salinité, d’oxygène dissous et d’autres paramètres géochimiques, ont été acquises suivant des méthodes hautement standardisées. Chaque section a demandé de un à plusieurs mois de mission d’un navire océanographique.

Toute la communauté française s’est mobilisée (Insu/Cnrs, Ifremer, Orstom) assurant 8 de ces sections sur l’Atlantique Sud et Equatorial. La mise en commun de toutes ces mesures va permettre de mieux comprendre comment l’océan fonctionne actuellement globalement. A titre d’illustration, sur la figure 2, la salinité observée le long d’une section Nord-Sud du Pacifique met en évidence la plongée de masses d’eau à partir des côtes du continent Antarctique qui envahissent le fond de l’Océan Pacifique. Pour rationaliser la synthèse de ces observations, des méthodes dites “inverses” ont été développées : elles permettent d’élaborer des cartes globales quantifiant les écoulements des masses d’eau à l’intérieur des bassins océaniques, ainsi que leur contenu en chaleur, en sel et autres composants.

Plusieurs français ont contribué au développement de ces méthodes, actuellement utilisées en routine dans nos laboratoires. C’est cet état des lieux qui va servir de base de référence pour continuer l’analyse de l’océan actuel et l’étude de son évolution (sur laquelle nous reviendrons dans la quatrième rubrique). En ce qui concerne l’océan actuel, une question majeure reste posée : pourquoi sa structure en couches et l’existence de la thermocline, zone de forts gradients de température et salinité située entre 500 et 1 000 mètres de profondeur ? Sans avoir une réponse définitive à cette question, on note deux avancées marquantes sur ces dernières quinze années.

La première est la théorie de la “thermocline ventilée”qui propose une explication sur les mécanismes de pénétration des masses d’eau dans les couches superficielles de l’océan sous l’action du vent et des échanges de chaleur avec l’atmosphère. Ces eaux sont brassées en surface ; elles sont ensuite entraînées dans les couches plus profondes par les courants océaniques. Au plan théorique, les équipes françaises ont en particulier développé une nouvelle modélisation de la couche de mélange océanique dans laquelle se réalisent les échanges thermodynamiques et chimiques avec l’atmosphère, testée dans l’Atlantique Nord-Est avec l’expérience Sémaphore. Elles ont participé à la documentation de cette ventilation, par une série de campagnes de mesures in situ dans l’Atlantique Sud, et l’analyse de simulations numériques de haute résolution de ce bassin.

La deuxième avancée marquante concerne la convection profonde qui génère le renouvellement des couches inférieures de l’océan. En certains endroits de l’océan mondial, (Mer de Norvège, Mer du Labrador, Mer de Weddel, Méditerrannée) les eaux, refroidies par les échanges très intenses avec l’atmosphère, coulent à grande profondeur (1500 m et au-delà), pour ensuite circuler très lentement dans les couches profondes. A la suite de travaux expérimentaux menés à la fin des années 60 en Méditerranée, la France a fortement contribué aux progrès réalisés dans l’observation, la compréhension et la modélisation de ce phénomène.

Fluctuations cycliques et turbulence des écoulements
océaniques.

Pour introduire l’état de nos connaissances des fluctuations cycliques ou turbulentes des écoulements océaniques, rappelons simplement que l’océan n’est pas stationnaire. Tout marin en fait l’expérience au quotidien. Mais la difficulté de l’observation scientifique est immense en raison de la complexité des échelles spatiales et temporelles. Une avancée majeure de ces dernières années aura été l’arrivée des techniques d’observation satellitaires. Elles permettent enfin d’obtenir une couverture quasi-globale de l’océan mondial en quelques jours, avec un niveau de détail souvent inouï. Il en est ainsi pour la mesure de la température de surface, du vent et de son action sur les couches superficielles de l’océan, de la hauteur des vagues, et de la topographie de la surface libre d’où l’on déduit l’intensité et la direction des courants de surface.

Prenons comme exemple la mission altimétrique Topex/Poseidon, réalisation conjointe du Cnes et de la Nasa. L’analyse de ses observations a mobilisé la majeure partie de la communauté des océanographes physiciens français dans un contexte de stimulation internationale très productif. Leur exploitation a permis de décrire avec précision des phénomènes encore mal observés, faute d’outils adéquat, et de découvrir des phénomènes inconnus.

Citons quelques uns des résultats acquis par les équipes françaises : une cartographie des marées de précision centimétrique et l’établissement d’un nouveau bilan de la dissipation de l’énergie des marées à l’échelle mondiale qui remet en cause les idées établies, une caractérisation de la distribution de l’énergie turbulente des courants de surface, une analyse des variations saisonnières de la position et du transport des grands courants comme le Gulf Stream dans l’Atlantique, le Kuroshio dans le Pacifique Nord, le Courant Circumpolaire autour de l’Antarctique, une cartographie du stockage thermique saisonnier dans l’océan de surface, et, pour la première fois, sans ambiguïté, l’observation des ondes qui traversent lentement les océans (les ondes de Rossby) à des vitesses de propagation très différentes de ce que prévoyaient les théories classiques. Notons aussi que la précision est telle que ce type de mesure apporte enfin un moyen de suivre la distribution géographique de la montée du niveau de la mer, imparfaitement observée depuis plus d’une centaine d’années figure 3. Mais si l’on se réjouit aujourd’hui de pouvoir suivre l’évolution de l’état de surface de l’océan au jour le jour, on doit malheureusement reconnaître que son intérieur reste difficilement accessible.

Pourtant, des progrès majeurs ont été réalisés, et les équipes françaises y ont contribué. Par exemple, elles ont acquis l’expertise pour déployer par 5 000 mètres de fond des lignes de mouillage équipées de courantomètres, de capteurs de pression et autres instruments, disposés et maintenus en place plusieurs mois, voire plusieurs années. L’Ifremer a développé un flotteur “Marvor” capable de suivre des masses d’eau déterminées pendant plusieurs années. Une équipe de l’Insu/Cnrs conçoit actuellement un système “Yoyo” qui permettra d’observer l’océan de sa surface au fond, en des points fixes, sur de longues périodes de temps. Un autre domaine où les équipes françaises ont apporté leur contribution est la tomographie acoustique, véritable auscultation à distance de l’océan dans ses trois dimensions.

Les mesures recueillies à l’aide de ces nouvelles techniques sont venues confirmer les concepts théoriques développés au cours de ces vingt dernières années. C’est en particulier le cas pour le rôle des tourbillons de moyenne échelle (200 km) dans le déplacement et la diffusion des masses d’eau ainsi que de la chaleur et de la quantité de mouvement qu’elles transportent. Citons comme exemple les résultats de l’expérience Topogulf menée dans les années 80 au-dessus de la dorsale médio-atlantique : confirmant le rôle de barrière contrôlant la communication des masses d’eau dans l’océan entre les bassins ouest et est. Ces mesures viennent aussi nourrir nos interrogations sur la nature du mélange des masses d’eau à petite échelle (de quelques centaines de mètres), en particulier le rôle de la double diffusion, des ondes internes, de la topographie, et des couches limites de fond. Nous entrons là dans l’intimité encore plus complexe de l’océan, mais les réponses à ces questions sont essentielles pour augmenter la fiabilité de nos modélisations numériques. Et là aussi, les équipes françaises ont marqué des points au cours de ces dernières années, avec par exemple l’identification de zones de mélanges considérables au débouché de la fracture Romanche dans l’Atlantique équatorial, et le chiffrage de l’énergie dissipée par les marées internes dans l’océan mondial. Notons aussi la position de pointe de l’école française de dynamique des fluides géophysiques qui étudie au plan théorique cette turbulence océanique.

Variations basses fréquences
Pour aborder notre quatrième rubrique, celle des variations à basse fréquence de l’océan, on peut remarquer les idées qui émergent de l’analyse de toutes les observations accumulées depuis le début de l’exploration scientifique de l’océan. Ainsi l’examen des El Niño du passé signale qu’ils sont souvent très différents les uns des autres. De même l’analyse des observations hydrographiques réalisées à plusieures décennies de différence dans l’Atlantique et le Pacifique révèle des variations de température de plusieurs dizièmes de degrés, ce qui est considérable pour l’océan. L’observation de la salinité de surface dans l’Atlantique Nord confirme l’existence de fluctuations de 10 à 20 ans probablement liées à l’extension des glaces de mer. On pense que ces variations dépendent de processus d’instabilité du système océan atmosphère dont les conséquences sont importantes pour notre climat européen puisqu’elles affectent la température, les vents et la pluviométrie au-dessus de l’Europe. Plus globalement, à l’échelle de la planète, les études théoriques et numériques sur les composantes lentes de la circulation océanique laissent à penser que l’intensité de la “boucle thermohaline” qui recycle les masses d’eau profondes avec des échelles de temps très longues (de plusieurs centaines d’années) est très sensible aux variations et aux échanges d’eau en surface avec l’atmosphère. Elle pourrait être affectée d’oscillations de périodes pluri-décennales entraînant des modulations importantes de l’intensité des grands courants de surface. L’analyse de la base historique des observations semble en confirmer l’existence. Et les enregistrements paléoclimatiques suggèrent que cette variabilité peut conduire à des bouleversements catastrophiques de la circulation générale, bloquant la formation des eaux profondes dans l’Atlantique Nord, favorisant l’extension des glace de mer vers le sud, et conduisant à un refroidissement dramatique de notre climat. Notons que l’éventualité de l’existence de plusieurs états d’équilibre métastables de cette circulation thermohaline avait été suggérée par Stommel dès 1961.

Les équipes françaises sont au cœur de cette nouvelle problématique au plan théorique, au plan de l’analyse des données historiques, et de la modélisation du système couplé océan-atmosphère. Ces recherches s’organisent actuellement dans le cadre de nouveaux programmes internationaux, dont Clivar (Climate variability).

En guise d’épilogue, disons quelques mots sur l’ouverture de l’océanographie physique au domaine de la prédiction opérationnelle. Nous venons de souligner combien notre connaissance de l’océan a progressé au cours de ces dernières années. La fiabilité de nos modèles de simulation de l’océan réel s’en trouve considérablement améliorée, favorisée par ailleurs par l’accroissement exponentiel des performances des ordinateurs. La réalisation des programmes Toga et Woce a conduit à la mise en place de réseaux d’observation qu’il est possible de maintenir en mode opérationnel. Parallèlement, et la France excelle sur ce créneau, des méthodes d’”assimilation” sont actuellement en cours de développement pour corriger les défauts des modèles de simulation en utilisant ces observations. Tous ces éléments convergent pour permettre à notre discipline d’entrer dans le domaine de la prédiction opérationnelle. Il en est déjà ainsi pour certains paramètres océaniques : les états de mer, désormais produits en routine par exemple à Météo-France, la marée océanique où la France est en position de pointe, le contenu thermique des océans tropicaux (le modèle français Opera pour l’Atlantique, les modèles de prédiction des El Niño dans le Pacifique). Un autre exemple est la prévision régionale des structures de moyenne échelle, assurée désormais par les marines de plusieurs pays, dont la France avec son système Soprane sur l’Atlantique Nord-Est. Comme nous l’avons mentionné en introduction, l’océanographie dynamique est désormais suffisamment mature pour franchir le pas de l’opérationnalité à l’échelle globale. La France a décidé de relever ce défi : c’est le projet Mercator qui devrait permettre vers 2 005 de prédire “le temps de l’océan”, pour répondre à de nombreux besoins sociétaux de la navigation, de la pêche, des études d’aménagement et de surveillance des zones côtières. C’est aussi une étape nécessaire pour aider les météorologues dans leur désir de prédire le climat qu’il fera la saison prochaine.



© CNRS - Contact : Sagascience@cnrs-dir.fr