"Tourbillonnez, turbulences !"
Vers une solution du problème de la turbulence
 
Pour des informations complémentaires, contacter les chercheurs, en cliquant ici Page précédente

La turbulence intervient dans les situations les plus diverses : mouvements de l'atmosphère, prévisions météorologiques, formation des galaxies dans l'Univers primitif, évacuation de la chaleur produite par les réactions nucléaires à l'intérieur du Soleil, écoulements autour des automobiles et des avions, circulation sanguine etc. Il s'agit d'un sujet très fondamental, intéressant à la fois les mathématiciens, les physiciens et les astronomes, avec de nombreuses ramifications pratiques en météorologie, ingénierie, médecine et même en finance : les techniques d'analyse et les modèles utilisés pour étudier les tourbillons dans une soufflerie servent parfois pour les fluctuations des marchés boursiers.

  Léonard de Vinci fut le premier à utiliser le mot turbulence (ou turbolenza) pour décrire les mouvements complexes de l'eau ou de l'air. En examinant les sillages turbulents derrière des obstacles placés dans un écoulement, il découvrit trois étapes clés : la turbulence est engendrée près de l'obstacle ; ensuite, on observe des tourbillons qui subsistent assez longtemps ; enfin, la turbulence disparaît loin de l'obstacle. Ce n'est qu'au début du XIXe siècle que Claude Navier put écrire les équations de base décrivant l'évolution de la vitesse du fluide turbulent avec le temps. Les équations précédemment écrites par Leonhard Euler pour un fluide idéal devaient être complétées par un terme de diffusion prenant en compte la viscosité du fluide.


Figure : concentration d'un scalaire passif transporté par un écoulement turbulent bi-dimensionnel du type que l'on trouve dans l'atmosphère et l'océan, simulé numériquement sur une grille 2048 x 2048. Le scalaire est fortement intermittent et possède des propriétés d'échelle "anomales" qui ne peuvent être prédites par l'analyse dimensionnelle. Concentrations les plus faibles en bleu et les plus fortes en jaune.
© A. Celani, A. Noullez et M. Vergassola, observatoire de la Côte d'Azur, laboratoire G.D. Cassini, UMR 6529 ; simulations à l'IDRIS, CNRS
.

  Quelques décennies plus tard, Adhemar de Saint-Venant remarqua qu'un écoulement turbulent, par exemple dans un canal de grande largeur, possède une viscosité "effective" beaucoup plus élevée que celle d'un fluide laminaire comme on en trouve dans un capillaire. Le transport turbulent de quantité de mouvement, de chaleur et de polluants, peut être de 3 à 15 ordres de grandeur plus efficace que ce que prédit la théorie cinétique de Maxwell pour le transport laminaire. Ainsi, sans la turbulence, la pollution urbaine persisterait pendant des millénaires, la chaleur produite par les réactions nucléaires dans les étoiles ne pourrait pas s'en échapper sur une échelle de temps acceptable et les phénomènes météorologiques deviendraient prévisibles à très long terme.

 
La modélisation du transport turbulent a été vite perçue comme un défi important à relever, et l'est encore à ce jour. Joseph Boussinesq, élève de Saint-Venant, introduisit le concept de "longueur de mélange". Il supposa que le transport d'éléments fluides résulte d'une promenade aléatoire dans laquelle chaque pas est comparable en longueur à la taille des tourbillons. Depuis, d'autres modèles bien plus perfectionnés, adaptés aux écoulements complexes (par exemple en aéronautique), ont été développés par Ludwig Prandtl, Andreï Kolmogorov, Brian Spalding (grâce à de substantiels progrès théoriques et expérimentaux en turbulence1).

 
Un des défis majeurs actuels est la turbulence développée, associée aux grands nombres de Reynolds, un paramètre sans dimension qui caractérise le rapport des forces d'inertie et des forces visqueuses. La viscosité moléculaire n'intervient alors qu'à des échelles bien plus petites que celle des instabilités qui causent la turbulence. Une vision cohérente de la turbulence développée commence à émerger vers le milieu du XXe siècle (travaux de Lewis Fry Richardson, Andreï Kolmogorov, Lars Onsager, etc.). Il est postulé que les solutions des équations de Navier-Stokes (voir également texte "Simulation numérique de la turbulence"), qui décrivent les propriétés hydrodynamiques du fluide, ont dans un sens probabiliste la même invariance d'échelle que les équations elles-mêmes. Par exemple, la moyenne de la différence de vitesse sur une certaine distance, élevée à la puissance p, devrait varier comme cette distance élevée à une puissance dont l'exposant est proportionnel à p. Dans cette vision "autosimilaire" de la turbulence, les divers exposants sont déterminés par une simple analyse dimensionnelle sans qu'il soit nécessaire de résoudre les équations de Navier-Stokes. Des expériences et des simulations numériques ont montré que l'invariance d'échelle supposée est en fait brisée et que la turbulence développée est "intermittente" : l'activité turbulente est de plus en plus localisée quand on observe des échelles de plus en petites et se comporte comme les ramifications fractales d'un brocoli. Les exposants précités ont des valeurs "anomales" non prévues par l'analyse dimensionnelle ; en revanche, ils sont universels, indépendants de la façon dont la turbulence est produite2.

 
Pendant des années, cette intermittence n'a été décrite qu'à travers des modèles phénoménologiques ayant peu de contact avec les équations de la mécanique des fluides. Les premiers modèles ont été développés vers 1960 par l'école de Kolmogorov. Le concept moderne de "multifractale", introduit par Giorgio Parisi et l'auteur dans les années 1980, permet de décrire l'intermittence à défaut de l'expliquer. En 1994, Robert Kraichnan prédit que l'intermittence et les lois d'échelle anomales sont présentes dans un problème, régi par une dynamique linéaire, le problème du "scalaire passif". Un exemple type est un polluant transporté par un écoulement turbulent " synthétique " dont le champ de vitesse est choisi délibérément invariant d'échelle et donc dépourvu lui-même d'intermittence. Le champ transporté devient néanmoins très fortement intermittent comme le révèlent, par exemple, des simulations numériques (voir figure).

 
Cette prédiction a été, depuis peu, confirmée et, pour la première fois, on dispose d'une véritable théorie de l'intermittence capable de prévoir les valeurs anomales des exposants. La théorie utilise des outils mathématiques empruntés à la théorie quantique des champs. Les exposants anomaux ont pu être calculés par des théories perturbatives dans lesquelles le petit paramètre est lié, soit au degré d'irrégularité du champ des vitesses3, soit à la dimension de l'espace4. Quant au régime non perturbatif, il a pu être analysé par une méthode de Monte Carlo Lagrangienne5.

 
L'extension de telles idées au problème complet et non linéaire de la turbulence fait l'objet de recherches très actives. Les optimistes espèrent une solution pour bientôt. Mais de nombreuses années peuvent encore être nécessaires pour comprendre toute la complexité de la turbulence, question qui défie les physiciens, les mathématiciens et les ingénieurs depuis au moins un demi millénaire.

Ce texte est une adaptation autorisée de : Uriel Frisch. Turbulence nears a final answer. Physics World. Vol. 12, décembre 1999, "Millenium" issue, p. 53.

1 Contributions de Lord Kelvin, Osborne Reynolds, Geoffrey Ingram Taylor, Jean Leray, Theodor von Kármán, etc.

2 Travaux de Roberto Benzi, Benoît Mandelbrot, Steven Orszag, Patrick Tabeling, etc.

Travaux de :
3 Krzysztof Gawedzki et Antti Kupiainen ; Boris Shraiman et Eric Siggia.
4 Mikhail Chertkov, Gregory Falkovich, Vladimir Lebedev et Igor Kolokolov.
5 Andrea Mazzino, Massimo Vergassola et l'auteur.