English German Espagnol Portugese Chinese Japanese Arab Rusian Italian Norvegian Dutch Hebrew Polish Turkish Hindi
Accueil du site > 02 - Livre Deux : SCIENCES > Géodynamique et climatologie de la Terre - Protection de la planète > Climatologie et chaos déterministe

Climatologie et chaos déterministe

vendredi 12 novembre 2010, par Robert Paris

Le cyclone

Le basculement rapide du climat

Climatologie, le film

Bernard Sapoval dans « Universalités et fractales :

« Certaines questions relèvent de phénomènes non-linéaires dont nous verrons qu’ils mettent en jeu les limites essentielles de la prévisibilité. Prenons un exemple, celui du réchauffement de l’atmosphère par l’effet de serre. Ce que l’on sait avec certitude, c’est que l’effet de serre, en lui-même, existe, et dire que cet effet de serre ne peut pas exister est contraire à la science constituée. En revanche, dire comment, quand, et même répondre à la simple question de savoir quelle est la mesure qui prouve ou prouvera le réchauffement de l’atmosphère reste une question totalement ouverte pour les spécialistes. Le chaos déterministe entraîne que certains phénomènes connus ont un comportement à long terme impossible à prédire. »

Site Matière et révolution

www.matierevolution.fr

Pourquoi ce site ?

Pour nous écrire, cliquez sur Répondre à cet article

Lire également :

L’image du chaos déterministe

Chaos déterministe (dynamique non-linéaire) et dialectique - en anglais -

La dynamique chaotique de la géophysique et de la climatologie.

Le cœur et le chaos déterministe

Le cerveau et le chaos déterministe

Psychanalyse et chaos déterministe

Chaos cardiaque, cérébral et cellulaire : les rythmes émergents du vivant

Qu’est-ce que le chaos déterministe en sciences ?


L’évolution de la Terre est-elle prédictible ? La dynamique chaotique de la Terre et de son climat

En 1889, le mathématicien et physicien Henri Poincaré cherchait à répondre lui aussi à cette question de la stabilité du système solaire. Son mémoire intitulé "sur le problème des trois corps et les équations de la dynamique" remporta le prix du concours ouvert à Stockholm par le roi Oscar II entre les mathématiciens du monde entier, apportant à Poincaré une notoriété internationale. Et c’est dans l’étude du système solaire que l’on a découvert pour la première fois un phénomène chaotique ! En effet, il devait montrer que la gravitation avait beau obéir à des lois, celles-ci engendraient le chaos, cette imbrication d’ordre et de désordre que l’on appelle chaos déterministe. Je rappelle que déterministe signifie un phénomène issu de lois. Poincaré a ainsi montré que certaines lois non-linéaires, les lois de l’attraction universelle de Newton en l’occurrence, peuvent engendrer des mouvements chaotiques. Poincaré a également montré qu’un mouvement chaotique peut paraître stable durant quelques dizaines ou centaines de millions d’années avant de quitter la zone de stabilité appelée par lui « un îlot » de stabilité. Et pour cette étude il a considérablement simplifié le problème du système solaire. Il a étudié le mouvement de trois corps. Poincaré a ainsi découvert en étudiant mathématiquement la loi de Newton pour ces trois corps qu’on y trouvait des possibilités nombreuses de mouvements imprédictibles. Etonné et en même temps déçu, il aurait déclaré : « si j’avais su qu’en étudiant les lois de la physique on ne pourrait rien prédire, j’aurais préféré me faire boulanger ou postier que physicien et mathématicien ! »

Mais Poincaré avait rapidement compris que ce n’était pas une faiblesse personnelle qui l’empêchait ainsi de pénétrer le fonctionnement de la nature mais une propriété fondamentale de ce fonctionnement et de sa relation avec l’entendement humain. N’oublions pas que Poincaré, même s’il était un grand scientifique, a plutôt souligné le caractère humain et sensible de l’activité intellectuelle de la science. Je le cite commentant l’activité de la découverte scientifique et expliquant qu’entre deux périodes de travail conscient, il se réalise un travail inconscient. "Le moi inconscient ou, comme on dit, le moi subliminal, joue un rôle capital dans l’invention mathématique [...] le moi subliminal n’est nullement inférieur au moi conscient ; il n’est pas purement automatique, il est capable de discernement, il a du tact, de la délicatesse ; il sait choisir, il sait deviner. ... les phénomènes inconscients privilégiés, ceux qui sont susceptibles de devenir conscients, ce sont ceux qui, directement ou indirectement, affectent le plus profondément notre sensibilité. On peut s’étonner de voir invoquer la sensibilité à propos de démonstrations mathématiques qui, semble-t-il, ne peuvent intéresser que l’intelligence. Ce serait oublier le sentiment de la beauté mathématique, de l’harmonie des nombres et des formes, de l’élégance géométrique. C’est un vrai sentiment esthétique que tous les vrais mathématiciens connaissent." Je citait un passage du chapitre « L’invention mathématique », dans l’ouvrage « Science et méthode » de Poincaré.

Et l’un des résultats de ses travaux sera de relativiser le caractère purement objectif des énoncés scientifiques. Il montre que la science reste une conjecture et non un domaine du certain comme on l’a longtemps cru de façon un peu prétentieuse, à la suite de Laplace. Selon lui, la science est une activité humaine et la relation entre l’homme et la nature reste une recherche sans réponse finale. La meilleure preuve en est que ses propres travaux allaient être rapidement contredits puisqu’il concluait que le système solaire était stable ce que, par la suite, il allait lui-même corriger. Par contre, il a inventé à cette occasion la plupart des méthodes théoriques aujourd’hui appliquées dans un domaine qui n’existait pas à l’époque : l’étude des systèmes dynamiques, autrement appelée chaos déterministe. Il va notamment inventer des méthodes d’étude de systèmes pris dans leur ensemble sans étudier les éléments du système pris un par un, méthode particulièrement novatrice. Il va étudier non une seule trajectoire mais l’ensemble des trajectoires possibles et leur relation entre elles. Enfin, il va montrer que les phénomènes physiques sont du domaine de la géométrie et non des formules mathématiques. Je le répète, sa conclusion est qu’avec trois corps interagissant par attraction gravitationnelle on a déjà du chaos c’est-à-dire un phénomène obéissant à la propriété de la sensibilité aux conditions initiales : un tout petit changement de celles-ci peut entraîner un grand changement de la suite de l’évolution. Rappelons que cette thèse révolutionne la conception que l’on avait de la gravitation depuis Newton. Ce dernier pensait que si l’on connaissait précisément les positions et les vitesses de tous les corps célestes on pouvait connaître à tout moment la suite des positions. Poincaré infirme cette thèse. Essayons d’expliquer pourquoi.

Je vous rappelle que pour deux corps, du moment que l’on connaît la masse des deux corps et les données de position et de vitesse à l’instant initial on peut calculer les positions des deux corps à tout instant. On connaît en effet une solution analytique qui indique le mouvement et il y a une seule trajectoire possible qui est une ellipse. On pourrait imaginer que l’on est certain d’avoir une solution puisque l’on connaît les équations du mouvement mais ce n’est pas du tout le cas. La plupart des équations mathématiques non-linéaires n’ont pas du tout de solution ou ont une infinité de solutions. Une solution analytique est une formule qui indiquera positions et déplacements à tout instant. Les équations ne permettent pas de le dire. Les équations de Newton relient par une formule les diverses dérivées de ces quantités, c’est-à-dire position, vitesse et accélération. Lorsque l’on peut revenir des dérivées aux quantités elles-mêmes on dit que le système d’équations est intégrable mais généralement ce n’est pas le cas. Un exemple bien connu d’intégration est l’équation du mouvement d’un boulet de canon si on connaît la vitesse initiale et l’angle de lancement. Et justement dans le cas du système solaire, en se contentant de trois corps, Poincaré a montré que le système n’est pas intégrable. Il n’y a pas de solution analytique des équations de Newton du mouvement. Poincaré en a même expliqué la raison : il n’y a pas assez d’équations par rapport au nombre d’inconnues. Ce que l’on appelle les inconnues ce sont les positions des corps et leurs variations. Les équations indiquent la conservation d’un certain nombre de quantités qui ne peuvent que s’échanger et non diminuer ou augmenter : l’énergie, la quantité de mouvement et la quantité de rotation. Il a montré que la multiplicité des trajectoires très proches et imbriquées rend improbable que le système soit intégrable. Les équations ne sont pas assez nombreuses pour en déduire une solution. Il a également montré qu’il en découle une infinité de trajectoires possibles et que l’on n’a aucun moyen de trancher entre elles. En plus la proximité des trajectoires signifie qu’une petite perturbation peut faire sauter le corps d’une trajectoire à une autre imperceptiblement avec du coup un avenir tout à fait différent au bout d’un certain temps. Quelle en est la raison ? Dans le mouvement des trois corps, aucun n’est négligeable. A tout instant la position d’un corps et son mouvement sont modifiés par la position précédente d’un autre corps qui est elle-même modifiée par celle du troisième. C’est ce qui rend impossible les approximations. Impossible par conséquent de dire que tel objet est trop petit pour influencer le système sur le long terme. Impossible de dire que telle modification de distance est négligeable puisqu’elle peut entraîner un changement de trajectoire qui peut être considérable sur le long terme. Impossible même de distinguer l’une des planètes comme un objet indépendant du système. Impossible aussi de distinguer passé et présent. En effet, la position d’une planète dépend de l’ensemble des positions précédentes, de toute l’histoire passée du système. C’est ainsi que, pour prédire, il faudrait connaître avec une précision infinie l’ensemble des conditions précédentes et pas seulement les conditions initiales, c’est-à-dire à un instant donné, du système. Du coup, les trajectoires possibles étant infiniment proches les unes des autres, il suffit d’un petit changement dans les conditions initiales ou d’une petite imprécision pour changer relativement vite l’ensemble de l’histoire de tout le système. Poincaré venait de découvrir le premier domaine d’étude d’un phénomène d’un type nouveau : le chaos déterministe.

Parmi les successeurs des travaux de Poincaré, il convient d’abord de citer Kolmogorov, Arnold et Moser. Ces trois scientifiques vont reprendre le travail de Poincaré et montrer en 1962 dans un théorème appelé KAM de leurs initiales que, dans certaines conditions initiales particulières, il peut y avoir stabilité. Il y a alors des mouvements quasi périodiques et des perturbations suffisamment petites ne peuvent éloigner durablement la planète de sa trajectoire. . Ils ont donc fait la démonstration que, si les masses et les inclinaisons des ellipses parcourues restent faibles, ces trajectoires restent contraintes à n’évoluer qu’autour d’une espèce de tuyau refermé sur lui-même et appelé le tore. Cette contrainte entraîne une garantie de stabilité, une espèce de garde fou pour le mouvement. Mais le débat n’était pas achevé pour autant car d’autres physiciens allaient montrer que le théorème KAM s’applique bien à des interactions entre plusieurs corps mais pas au système solaire qui ne satisfait pas aux conditions initiales nécessaires. Ainsi, en 1998, les savants américains Sussman et Wisdom intègrent le mouvement de Pluton sur un ordinateur et ce mouvement s’avère chaotique. Ils démontrent que ce mouvement obéit à ce que l’on appelle la « sensibilité aux conditions initiales » ou encore la propriété de divergence exponentielle. Exponentielle signifie ici qu’une perturbation au lieu d’additionner ses effets les multiplie et c’est là que réside la source du chaos. En effet, ces deux scientifiques ont calculé que l’incertitude sur les conditions initiales est multiplié par trois tous les 20 millions d’années. Cela signifie qu’en 400 millions d’années, durée sur laquelle on cherche à obtenir une réponse de stabilité, la position de Pluton est complètement imprédictible. L’incertitude est en effet multipliée par trois à la puissance vingt soit 3.486.784.401. Une erreur d’un centimètre se traduit au bout de 400 millions d’années par une modification du résultat de trois milliards et demi de centimètres ! ! Mais c’est surtout dans la foulée des travaux de Jacques Laskar, directeur de recherches au bureau des longitudes de Paris qu’ont été faites les principales découvertes tendant à prouver le caractère chaotique du système solaire. Il a notamment mis en équation le calcul des perturbations qui permet d’extrapoler pour trouver les positions des planètes et il a montré que ce calcul n’était pas valable sur un temps de plusieurs centaines de millions d’années. Les calculs que nous faisons pour positionner les planètes ne sont pas faux mais ils ne sont pas extrapolables pour en déduire la position d’une planète sur une aussi longue durée. La raison ne provient pas d’une erreur ni d’une approximation mais du principe lui-même du calcul. Toute petite approximation entraîne sur un temps aussi long une modification considérable du fait du caractère exponentiel des divergences. Comment ces perturbations peuvent-elles se multiplier ainsi au lieu de simplement s’additionner ? L’explication provient de la rétroaction qui se produit parfois entre deux trajectoires, c’est-à-dire qu’elles ont des fréquences que l’on dit accrochées ou en résonance. Sont en résonance deux phénomènes réguliers dont les périodes sont dans un rapport simple par exemple un sur deux ou trois sur cinq. Dès que deux phénomènes sont dans ce cas, ils interagissent bien plus que la proportion de leur cause. C’est ce qui se produit avec une personne poussant en résonance une balançoire. Cela a pour effet d’accumuler des effets d’entraînement pouvant aller jusqu’au tour complet. Or le rapport entre les périodes des mouvements de Saturne et Jupiter autour du Soleil est exactement dans la fraction 2 sur 5. Cela signifie qu’ils vont se trouver à intervalle régulier dans des positions susceptibles de déformer leurs trajectoires et toujours dans le même sens. On constate d’autres résonances dans les mouvements planétaires comme la résonance entre les mouvements de précession des orbites de la terre et de Mars, comme la résonance entre les mouvements de précession de Mercure, Vénus et Jupiter. La précession est l’un des paramètres caractérisant le mouvement d’une planète. Du coup, il est difficile de dire si une forte augmentation de l’excentricité du mouvement elliptique d’une planète ne serait pas possible dans un intervalle de cent millions d’années, augmentation pouvant donner une énergie suffisante pour que cette planète sorte du système solaire. L’augmentation de l’excentricité du mouvement elliptique peut causer un choc entre deux planètes comme le montrent les extrapolations de calcul effectuées par Laskar dans une simulation sur ordinateur des équations sur dix milliards d’années. Ce seraient également ces mouvements chaotiques causés par des résonances qui expliqueraient la capacité de certaines trajectoires d’entraîner le corps hors du système, expliquant ainsi les trous dans la ceinture de Kirkwood des astéroïdes (un million de blocs rocheux de moins d’un kilomètre de diamètre qui voyagent entre Jupiter et Mars.)

La dynamique chaotique du climat

Introduction à la météorologie et à la question du réchauffement

Le chaos déterministe climatique Le fonctionnement climatique est une dynamique auto-organisée où les structures globalement stables sont fondées sur l’instabilité, et où coexistent des rétroactions positives et négatives qui rendent impossible la prédictibilité du fait de la sensibilité aux conditions initiales. Le climat est même le premier domaine scientifique dans lequel les caractéristiques de chaos déterministe aient été mis en évidence, avec les travaux de Lorenz en 1963. Cette année là, Edward Lorenz du Massachusetts Institute of Technology, spécialiste en météorologie, fait tourner sur un ordinateur les équations physiques connues qui relient les trois paramètres les plus fondamentaux de la météorologie : température, pression et vent. C’est ce que l’on appelle des équations différentielles non linéaires, le terme « différentielles » signifiant qu’elles relient des petites différences des paramètres. On n’est pas capable de résoudre ces équations et d’en déduire une fonction permettant de calculer la relation directe entre les paramètres et, du coup, la suite des événements si on connaît les conditions initiales. Par contre on peut partir de ces conditions et rajouter de petites variations en les calculant par les équations différentielles. Et involontairement, parce qu’il avait été prendre entre temps un café dit la légende, Lorenz a relancé son calcul à partir de deux conditions initiales très légèrement différentes du fait d’une modification des approximations. Il s’est aperçu de ce que l’on appelle maintenant la sensibilité aux conditions initiales qui signifie que même la plus petite différence des paramètres entraîne que la position n’est plus sur la même couche de la courbe et, très vite, cela cause des divergences considérables et irrémédiables. D’autre part, il a montré que cela se produisait avec seulement trois facteurs. Il est parvenu à montrer qu’il y avait bien une loi avec un attracteur mais c’est un attracteur étrange, feuilleté, fractal Un attracteur signifie que pour chaque série de valeurs des variables il y a un seul point possible. Un attracteur étrange signifie qu’avec une valeur très proche des variables on peut passer très vite dans une tout autre zone. Ce qui était très difficile à établir sur ordinateur quand Lorenz l’a fait est très simple aujourd’hui : sur un ordinateur personnel, les mathématiciens peuvent faire tourner les équations de Lorenz sur un logiciel mathématique appelé Maple 5 et retrouver très facilement l’attracteur étrange. Pas plus que nous, l’ordinateur ne peut résoudre les équations mais il peut calculer rapidement des valeurs par variations successives et construire l’attracteur point par point. On retrouve là une figure appelée " le papillon ", à deux branches construit pas séries de couches feuilletées sous forme fractale. Examinons l’importance de cette découverte du chaos déterministe en météorologie en reprenant la question du réchauffement. Et d’abord il importe de constater que le modèle qui fonde les thèses de l’IPCC est linéaire, et cela pour une raison fondamentale : la principale conséquence du modèle ultra-simple de Lorenz est l’inutilité de vouloir prédire par une modélisation puisque même la plus simple des modélisations du climat diverge. L’IPPC n’a fait que le confirmer : le moindre des changements dans les données change tout dans le résultat. D’autre, part l’IPCC et tous les autres prédictionnistes ont été contraints de modéliser plusieurs interactions connues comme non-linéaires par du linéaire. Un exemple flagrant est celui de la pluviométrie. Il est impossible de faire rentrer dans un modèle le fonctionnement des nuages et leur manière de produire de la pluie. Du coup, ils se sont contentés du degré d’hygrométrie de l’air qui est plus simplement mesurable. Et ils ont décidé que c’était une approximation valable de considérer que la pluviométrie est proportionnelle au degré d’hygrométrie, établir le lien avec le réchauffement du climat, des scientifiques de l’équipe de Julia Cole ont étudié les archives des coraux de l’atoll Maïana, dans le Pacifique près des îles Hawaï et une autre étude, toujours pour confirmer le lien entre El Nino et le réchauffement global, celle d’Anne Juillet-Leclerc dans une île près de Tahiti. Cependant cette dernière équipe du CEA-CNRS de Gif sur Yvette remarque qu’il pourrait s’agir d’une variabilité de l’espèce animale. D’autre part, la thèse de Juillet-Leclerc est inverse : selon elle, le réchauffement global serait au contraire causé par El Nino. Mais dans cette conception, on ne voit pas ce qui serait à l’origine d’épisodes forts de ce courant chaud. On se heurte toujours aux mêmes objections : isolement d’un phénomène climatique rendu responsable de l’ensemble du climat, signe d’égalité entre une augmentation de température locale et momentanée donnant des effets de pointe du climat et une augmentation globale de la température et toujours aussi l’isolement de la température par rapport aux autres facteurs du climat. Curieusement les partisans du réchauffement global font d’El Nino un point fort de leur argumentation alors qu’aucun de leurs modèles du climat ne prévoit les apparitions de ce courant. Pascale Delescluze, responsable de l’équipe de modélisation du climat au Laboratoire Ecume du CNRS-Paris, le reconnaît en ces termes : " Les modèles réalisés reproduisent mal les El Nino déjà observés, et, d’une manière générale nous manquons d’une modélisation réaliste du climat depuis 1840. " Et elle rajoute : "El Nino est difficile à modéliser, car il est très sensible à de faibles modifications du couple océan-atmosphère." Cependant, en dehors de cette modélisation totalement abstraite comme elle le reconnaît, une interprétation réaliste de la dynamique océan-atmosphère en question qui est ignorée des fameux modélisateurs a pourtant été proposée, toujours à partir des relations entre pôles nord et sud et latitudes tropicales : celle du déplacement des anticyclones mobiles polaires. Elle est exposée notamment dans l’ouvrage de Marcel Leroux " La dynamique du temps et du climat ". Depuis 1950, il y a des anticyclones polaires qui ont plus de force du fait d’une recrudescence du froid dans toute une zone : Est du Canada, Arctique canadien, Atlantique Nord, Nord-Ouest de l’Europe, Nord de l’Amérique (côte ouest excepté), et Groenland. Ce froid accentué en basse atmosphère et au sol est compensé par une hausse de température en moyenne atmosphère. La cause de cette baisse de température qui n’est pas extraordinaire mais reprend des niveaux froid d’avant 1950. Ce sont les masses froides anticycloniques qui descendent le long des Etats Unis et de l’Océan Atlantique. L’espace Atlantique qui va de l’est des Montagnes Rocheuses américaines aux façades occidentales de l’Europe et de l’Afrique a une évolution climatique commune de températures et de pression. La cause de cette évolution commune a été trouvée : les masses froides qui descendent du pôle nord et traversent l’Atlantique nord. A la base, il y a un refroidissement observé dans le bassin Arctique de moins 4,4° en hiver et moins 4,9° en automne (études de Leroux, de Rogers et Kahl), ce qui contredit la thèse du réchauffement global. Si on indique en haut les températures d’hiver et en bas celles d’été dans l’Atlantique Arctique, il n’y a de réchauffement correspondant que dans les couches moyennes de l’atmosphère de l’Arctique. Pas de modification globale donc mais une différenciation entre les couches basses et moyennes. Il en résulte une baisse continue des températures du Canada avec une baisse maximale à l’Est du pays. Les Etats Unis sont également atteints par cette baisse des températures en période hivernale avec des vagues de froid allant jusqu’au golfe du Mexique. L’évolution du climat serait donc liée au départ fréquent d’anticyclones du pôle nord avec de fortes pressions. Ce sont de grosses lentilles d’air froid de 1500 mètres qui descendent l’Atlantique en causant un fort refroidissement à des latitudes exceptionnellement sudistes. Et sur leur passage, ces anticyclones provoquent de part et d’autre des dépressions avec de l’air chaud qui remonte des deux côtés du couloir des anticyclones mobiles polaires, les AMP. Les conséquences ne sont pas uniquement des refroidissements mais aussi des réchauffements comme l’augmentation de température de la côte ouest des Etats Unis et aussi celle de l’Alaska qui enregistre le plus fort réchauffement des températures de surface de l’hémisphère nord. En effet, quand de l’air froid descend dans l’Atlantique cela a comme effet des remontées d’air chaud de part et d’autre du parcours des AMP.. C’est en hiver, quand les AMP sont les plus puissants, qu’en Atlantique nord-est, en bordure des AMP, les pressions tombent, les températures augmentent ainsi que les pluies. Le nombre d’anticyclones mobiles partant du pôle nord a augmenté. Les déplacements d’air froid partis du pôle expliquent le réchauffement atmosphérique de 1500m à 3000m au dessus du pôle. Des départs journaliers des AMP ont lieu respectivement du pôle nord et du pôle sud. Comme je viens de l’expliquer brièvement, des interprétations alternatives des faits observés existent sans faire appel à un réchauffement global, même si, Météo-France et d’autres institutions de climatologie mondiale refusent apparemment de les diffuser. Les AMP permettent d’expliquer à la fois le réchauffement réel de certaines zones que l’on constate par exemple avec les hivers doux d’Europe occidentale et de l’Alaska et le refroidissement que l’on constate avec les hivers très rigoureux de régions des USA et de Russie. On peut citer un nombre important de scientifiques et d’organismes comme l’IAPSO ou encore d’instituts météorologiques des pays proches des pôles qui reconnaissent ce mécanisme. On a établi le lien entre les descentes plus sudistes des AMP et une modification de la ligne de l’équateur météorologique de l’atmosphère appelé équateur mobile vertical EMV. La ligne médiane thermique entre les AMP arctiques et les AMP antarctiques s’est donc déplacée vers le sud. Comme on peut le constater, cette ligne est plus au nord que l’équateur géographique du fait que le pôle sud est plus froid, la glace y disposant d’une plaque continentale alors qu’au nord c’est une banquise d’océan. En fait au cours du temps, l’EMV, équateur de l’atmosphère, se modifie sans cesse par rapport à l’équateur thermique au sol et par rapport à l’équateur géographique. L’évolution de la différence de température entre les pôles entraîne une variation de la force des avancées des AMP et donc de la limite équatoriale dans l’air, l’EMV. Les différences entre ces limites thermiques et géographiques entraînent des différences de pluviométrie et des courants marins qui sont des réactions à ces descentes de masses froides. Il s’agit de montées d’air chaud entraînant le réchauffement de certaines zones, des désertifications, des remontées aussi d’eau chaude par des courants marins. Cette petite modification récente de l’équateur atmosphérique due à une relative augmentation de la descente au sud d’anticyclones du pôle nord daterait de 50 ans et aurait des conséquences comme la désertification du Sahel et une aggravation du phénomène El Nino. Ainsi, selon Leroux, la désertification du Sahel, aurait pour origine une translation vers le sud de l’ensemble des structures pluviométriques. Les eaux de surface chaudes du golfe de Guinée coïncideraient en effet avec la réduction des pluies estivales au Sahel. Le niveau du désert actuel correspond au déplacement de l’équateur mobile au sol EMI correspondant à l’équateur mobile vertical EMV. Comme on le voit, il n’y a rien là de mystérieux, rien non plus dont l’homme soit responsable mais une modification de la place de l’équilibre nord-sud, modification qui n’a rien d’exceptionnel puisque toute l’histoire de la météo terrestre est marquée par ce déplacement. Je rappelle que c’est ce déplacement qui cause la modification de la place des pôles thermiques et est l’un des facteurs fondamentaux d’une glaciation puisqu’une ère glaciaire dépend avant tout de la place du pôle thermique par rapport aux plaques continentales. El Nino doit également être interprété comme le produit de la même dynamique et non comme un événement climatique à part. Je ne rentrerai pas non plus dans les détails d’explication que donne Leroux. Je résume seulement le point de vue de Leroux en le citant : " Un El Nino fort correspond
- à un Pacifique Nord-Occidental et central froid,
- à un Pacifique Est chaud, à un déplacement vers le sud des perturbations,
- une concentration d’anticyclones d’Hawaî décalée vers le sud,
- une dépression creusée aux Aléoutiennes,
- un anticyclone anormalement fort sur le Canada (dû à des AMP puissants),
- un hiver froid et pluvieux sur le sud des Etats Unis (les AMP puissants atteignant fréquemment le Golfe du Mexique)
- et une côte ouest américaine plus arrosée que la moyenne. " L’analyse de Leroux a le mérite de ne pas s’en tenir à une région ou à un phénomène mais d’examiner l’ensemble des données satellites. Il donne une analyse des différentes zones et diverses latitudes. Ainsi, il montre comment l’anticyclone des Açores se maintient grâce à l’inclusion des AMP. Ce qui est figuré par AA est l’agglutination d’anticyclones qui donne une zone presque stable d’anticyclone comme celle des Açores. ...

à suivre

....

5- L’évolution de la Terre est-elle prédictible ? La dynamique chaotique de la Terre et de son climat

En 1889, le mathématicien et physicien Henri Poincaré cherchait à répondre lui aussi à cette question de la stabilité du système solaire. Son mémoire intitulé "sur le problème des trois corps et les équations de la dynamique" remporta le prix du concours ouvert à Stockholm par le roi Oscar II entre les mathématiciens du monde entier, apportant à Poincaré une notoriété internationale. Et c’est dans l’étude du système solaire que l’on a découvert pour la première fois un phénomène chaotique ! En effet, il devait montrer que la gravitation avait beau obéir à des lois, celles-ci engendraient le chaos, cette imbrication d’ordre et de désordre que l’on appelle chaos déterministe. Je rappelle que déterministe signifie un phénomène issu de lois. Poincaré a ainsi montré que certaines lois non-linéaires, les lois de l’attraction universelle de Newton en l’occurrence, peuvent engendrer des mouvements chaotiques. Poincaré a également montré qu’un mouvement chaotique peut paraître stable durant quelques dizaines ou centaines de millions d’années avant de quitter la zone de stabilité appelée par lui « un îlot » de stabilité. Et pour cette étude il a considérablement simplifié le problème du système solaire. Il a étudié le mouvement de trois corps. Poincaré a ainsi découvert en étudiant mathématiquement la loi de Newton pour ces trois corps qu’on y trouvait des possibilités nombreuses de mouvements imprédictibles. Etonné et en même temps déçu, il aurait déclaré : « si j’avais su qu’en étudiant les lois de la physique on ne pourrait rien prédire, j’aurais préféré me faire boulanger ou postier que physicien et mathématicien ! »

Mais Poincaré avait rapidement compris que ce n’était pas une faiblesse personnelle qui l’empêchait ainsi de pénétrer le fonctionnement de la nature mais une propriété fondamentale de ce fonctionnement et de sa relation avec l’entendement humain. N’oublions pas que Poincaré, même s’il était un grand scientifique, a plutôt souligné le caractère humain et sensible de l’activité intellectuelle de la science. Je le cite commentant l’activité de la découverte scientifique et expliquant qu’entre deux périodes de travail conscient, il se réalise un travail inconscient. "Le moi inconscient ou, comme on dit, le moi subliminal, joue un rôle capital dans l’invention mathématique [...] le moi subliminal n’est nullement inférieur au moi conscient ; il n’est pas purement automatique, il est capable de discernement, il a du tact, de la délicatesse ; il sait choisir, il sait deviner. ... les phénomènes inconscients privilégiés, ceux qui sont susceptibles de devenir conscients, ce sont ceux qui, directement ou indirectement, affectent le plus profondément notre sensibilité. On peut s’étonner de voir invoquer la sensibilité à propos de démonstrations mathématiques qui, semble-t-il, ne peuvent intéresser que l’intelligence. Ce serait oublier le sentiment de la beauté mathématique, de l’harmonie des nombres et des formes, de l’élégance géométrique. C’est un vrai sentiment esthétique que tous les vrais mathématiciens connaissent." Je citait un passage du chapitre « L’invention mathématique », dans l’ouvrage « Science et méthode » de Poincaré.

Et l’un des résultats de ses travaux sera de relativiser le caractère purement objectif des énoncés scientifiques. Il montre que la science reste une conjecture et non un domaine du certain comme on l’a longtemps cru de façon un peu prétentieuse, à la suite de Laplace. Selon lui, la science est une activité humaine et la relation entre l’homme et la nature reste une recherche sans réponse finale. La meilleure preuve en est que ses propres travaux allaient être rapidement contredits puisqu’il concluait que le système solaire était stable ce que, par la suite, il allait lui-même corriger. Par contre, il a inventé à cette occasion la plupart des méthodes théoriques aujourd’hui appliquées dans un domaine qui n’existait pas à l’époque : l’étude des systèmes dynamiques, autrement appelée chaos déterministe. Il va notamment inventer des méthodes d’étude de systèmes pris dans leur ensemble sans étudier les éléments du système pris un par un, méthode particulièrement novatrice. Il va étudier non une seule trajectoire mais l’ensemble des trajectoires possibles et leur relation entre elles. Enfin, il va montrer que les phénomènes physiques sont du domaine de la géométrie et non des formules mathématiques. Je le répète, sa conclusion est qu’avec trois corps interagissant par attraction gravitationnelle on a déjà du chaos c’est-à-dire un phénomène obéissant à la propriété de la sensibilité aux conditions initiales : un tout petit changement de celles-ci peut entraîner un grand changement de la suite de l’évolution. Rappelons que cette thèse révolutionne la conception que l’on avait de la gravitation depuis Newton. Ce dernier pensait que si l’on connaissait précisément les positions et les vitesses de tous les corps célestes on pouvait connaître à tout moment la suite des positions. Poincaré infirme cette thèse. Essayons d’expliquer pourquoi.

Je vous rappelle que pour deux corps, du moment que l’on connaît la masse des deux corps et les données de position et de vitesse à l’instant initial on peut calculer les positions des deux corps à tout instant. On connaît en effet une solution analytique qui indique le mouvement et il y a une seule trajectoire possible qui est une ellipse. On pourrait imaginer que l’on est certain d’avoir une solution puisque l’on connaît les équations du mouvement mais ce n’est pas du tout le cas. La plupart des équations mathématiques non-linéaires n’ont pas du tout de solution ou ont une infinité de solutions. Une solution analytique est une formule qui indiquera positions et déplacements à tout instant. Les équations ne permettent pas de le dire. Les équations de Newton relient par une formule les diverses dérivées de ces quantités, c’est-à-dire position, vitesse et accélération. Lorsque l’on peut revenir des dérivées aux quantités elles-mêmes on dit que le système d’équations est intégrable mais généralement ce n’est pas le cas. Un exemple bien connu d’intégration est l’équation du mouvement d’un boulet de canon si on connaît la vitesse initiale et l’angle de lancement. Et justement dans le cas du système solaire, en se contentant de trois corps, Poincaré a montré que le système n’est pas intégrable. Il n’y a pas de solution analytique des équations de Newton du mouvement. Poincaré en a même expliqué la raison : il n’y a pas assez d’équations par rapport au nombre d’inconnues. Ce que l’on appelle les inconnues ce sont les positions des corps et leurs variations. Les équations indiquent la conservation d’un certain nombre de quantités qui ne peuvent que s’échanger et non diminuer ou augmenter : l’énergie, la quantité de mouvement et la quantité de rotation. Il a montré que la multiplicité des trajectoires très proches et imbriquées rend improbable que le système soit intégrable. Les équations ne sont pas assez nombreuses pour en déduire une solution. Il a également montré qu’il en découle une infinité de trajectoires possibles et que l’on n’a aucun moyen de trancher entre elles. En plus la proximité des trajectoires signifie qu’une petite perturbation peut faire sauter le corps d’une trajectoire à une autre imperceptiblement avec du coup un avenir tout à fait différent au bout d’un certain temps. Quelle en est la raison ? Dans le mouvement des trois corps, aucun n’est négligeable. A tout instant la position d’un corps et son mouvement sont modifiés par la position précédente d’un autre corps qui est elle-même modifiée par celle du troisième. C’est ce qui rend impossible les approximations. Impossible par conséquent de dire que tel objet est trop petit pour influencer le système sur le long terme. Impossible de dire que telle modification de distance est négligeable puisqu’elle peut entraîner un changement de trajectoire qui peut être considérable sur le long terme. Impossible même de distinguer l’une des planètes comme un objet indépendant du système. Impossible aussi de distinguer passé et présent. En effet, la position d’une planète dépend de l’ensemble des positions précédentes, de toute l’histoire passée du système. C’est ainsi que, pour prédire, il faudrait connaître avec une précision infinie l’ensemble des conditions précédentes et pas seulement les conditions initiales, c’est-à-dire à un instant donné, du système. Du coup, les trajectoires possibles étant infiniment proches les unes des autres, il suffit d’un petit changement dans les conditions initiales ou d’une petite imprécision pour changer relativement vite l’ensemble de l’histoire de tout le système. Poincaré venait de découvrir le premier domaine d’étude d’un phénomène d’un type nouveau : le chaos déterministe.

Parmi les successeurs des travaux de Poincaré, il convient d’abord de citer Kolmogorov, Arnold et Moser. Ces trois scientifiques vont reprendre le travail de Poincaré et montrer en 1962 dans un théorème appelé KAM de leurs initiales que, dans certaines conditions initiales particulières, il peut y avoir stabilité. Il y a alors des mouvements quasi périodiques et des perturbations suffisamment petites ne peuvent éloigner durablement la planète de sa trajectoire. . Ils ont donc fait la démonstration que, si les masses et les inclinaisons des ellipses parcourues restent faibles, ces trajectoires restent contraintes à n’évoluer qu’autour d’une espèce de tuyau refermé sur lui-même et appelé le tore. Cette contrainte entraîne une garantie de stabilité, une espèce de garde fou pour le mouvement. Mais le débat n’était pas achevé pour autant car d’autres physiciens allaient montrer que le théorème KAM s’applique bien à des interactions entre plusieurs corps mais pas au système solaire qui ne satisfait pas aux conditions initiales nécessaires. Ainsi, en 1998, les savants américains Sussman et Wisdom intègrent le mouvement de Pluton sur un ordinateur et ce mouvement s’avère chaotique. Ils démontrent que ce mouvement obéit à ce que l’on appelle la « sensibilité aux conditions initiales » ou encore la propriété de divergence exponentielle. Exponentielle signifie ici qu’une perturbation au lieu d’additionner ses effets les multiplie et c’est là que réside la source du chaos. En effet, ces deux scientifiques ont calculé que l’incertitude sur les conditions initiales est multiplié par trois tous les 20 millions d’années. Cela signifie qu’en 400 millions d’années, durée sur laquelle on cherche à obtenir une réponse de stabilité, la position de Pluton est complètement imprédictible. L’incertitude est en effet multipliée par trois à la puissance vingt soit 3.486.784.401. Une erreur d’un centimètre se traduit au bout de 400 millions d’années par une modification du résultat de trois milliards et demi de centimètres ! ! Mais c’est surtout dans la foulée des travaux de Jacques Laskar, directeur de recherches au bureau des longitudes de Paris qu’ont été faites les principales découvertes tendant à prouver le caractère chaotique du système solaire. Il a notamment mis en équation le calcul des perturbations qui permet d’extrapoler pour trouver les positions des planètes et il a montré que ce calcul n’était pas valable sur un temps de plusieurs centaines de millions d’années. Les calculs que nous faisons pour positionner les planètes ne sont pas faux mais ils ne sont pas extrapolables pour en déduire la position d’une planète sur une aussi longue durée. La raison ne provient pas d’une erreur ni d’une approximation mais du principe lui-même du calcul. Toute petite approximation entraîne sur un temps aussi long une modification considérable du fait du caractère exponentiel des divergences. Comment ces perturbations peuvent-elles se multiplier ainsi au lieu de simplement s’additionner ? L’explication provient de la rétroaction qui se produit parfois entre deux trajectoires, c’est-à-dire qu’elles ont des fréquences que l’on dit accrochées ou en résonance. Sont en résonance deux phénomènes réguliers dont les périodes sont dans un rapport simple par exemple un sur deux ou trois sur cinq. Dès que deux phénomènes sont dans ce cas, ils interagissent bien plus que la proportion de leur cause. C’est ce qui se produit avec une personne poussant en résonance une balançoire. Cela a pour effet d’accumuler des effets d’entraînement pouvant aller jusqu’au tour complet. Or le rapport entre les périodes des mouvements de Saturne et Jupiter autour du Soleil est exactement dans la fraction 2 sur 5. Cela signifie qu’ils vont se trouver à intervalle régulier dans des positions susceptibles de déformer leurs trajectoires et toujours dans le même sens. On constate d’autres résonances dans les mouvements planétaires comme la résonance entre les mouvements de précession des orbites de la terre et de Mars, comme la résonance entre les mouvements de précession de Mercure, Vénus et Jupiter. La précession est l’un des paramètres caractérisant le mouvement d’une planète. Du coup, il est difficile de dire si une forte augmentation de l’excentricité du mouvement elliptique d’une planète ne serait pas possible dans un intervalle de cent millions d’années, augmentation pouvant donner une énergie suffisante pour que cette planète sorte du système solaire. L’augmentation de l’excentricité du mouvement elliptique peut causer un choc entre deux planètes comme le montrent les extrapolations de calcul effectuées par Laskar dans une simulation sur ordinateur des équations sur dix milliards d’années. Ce seraient également ces mouvements chaotiques causés par des résonances qui expliqueraient la capacité de certaines trajectoires d’entraîner le corps hors du système, expliquant ainsi les trous dans la ceinture de Kirkwood des astéroïdes (un million de blocs rocheux de moins d’un kilomètre de diamètre qui voyagent entre Jupiter et Mars.)

La dynamique chaotique du climat

Introduction à la météorologie et à la question du réchauffement

Le chaos déterministe climatique Le fonctionnement climatique est une dynamique auto-organisée où les structures globalement stables sont fondées sur l’instabilité, et où coexistent des rétroactions positives et négatives qui rendent impossible la prédictibilité du fait de la sensibilité aux conditions initiales. Le climat est même le premier domaine scientifique dans lequel les caractéristiques de chaos déterministe aient été mis en évidence, avec les travaux de Lorenz en 1963. Cette année là, Edward Lorenz du Massachusetts Institute of Technology, spécialiste en météorologie, fait tourner sur un ordinateur les équations physiques connues qui relient les trois paramètres les plus fondamentaux de la météorologie : température, pression et vent. C’est ce que l’on appelle des équations différentielles non linéaires, le terme « différentielles » signifiant qu’elles relient des petites différences des paramètres. On n’est pas capable de résoudre ces équations et d’en déduire une fonction permettant de calculer la relation directe entre les paramètres et, du coup, la suite des événements si on connaît les conditions initiales. Par contre on peut partir de ces conditions et rajouter de petites variations en les calculant par les équations différentielles. Et involontairement, parce qu’il avait été prendre entre temps un café dit la légende, Lorenz a relancé son calcul à partir de deux conditions initiales très légèrement différentes du fait d’une modification des approximations. Il s’est aperçu de ce que l’on appelle maintenant la sensibilité aux conditions initiales qui signifie que même la plus petite différence des paramètres entraîne que la position n’est plus sur la même couche de la courbe et, très vite, cela cause des divergences considérables et irrémédiables. D’autre part, il a montré que cela se produisait avec seulement trois facteurs. Il est parvenu à montrer qu’il y avait bien une loi avec un attracteur mais c’est un attracteur étrange, feuilleté, fractal Un attracteur signifie que pour chaque série de valeurs des variables il y a un seul point possible. Un attracteur étrange signifie qu’avec une valeur très proche des variables on peut passer très vite dans une tout autre zone. Ce qui était très difficile à établir sur ordinateur quand Lorenz l’a fait est très simple aujourd’hui : sur un ordinateur personnel, les mathématiciens peuvent faire tourner les équations de Lorenz sur un logiciel mathématique appelé Maple 5 et retrouver très facilement l’attracteur étrange. Pas plus que nous, l’ordinateur ne peut résoudre les équations mais il peut calculer rapidement des valeurs par variations successives et construire l’attracteur point par point. On retrouve là une figure appelée " le papillon ", à deux branches construit pas séries de couches feuilletées sous forme fractale. Examinons l’importance de cette découverte du chaos déterministe en météorologie en reprenant la question du réchauffement. Et d’abord il importe de constater que le modèle qui fonde les thèses de l’IPCC est linéaire, et cela pour une raison fondamentale : la principale conséquence du modèle ultra-simple de Lorenz est l’inutilité de vouloir prédire par une modélisation puisque même la plus simple des modélisations du climat diverge. L’IPPC n’a fait que le confirmer : le moindre des changements dans les données change tout dans le résultat. D’autre, part l’IPCC et tous les autres prédictionnistes ont été contraints de modéliser plusieurs interactions connues comme non-linéaires par du linéaire. Un exemple flagrant est celui de la pluviométrie. Il est impossible de faire rentrer dans un modèle le fonctionnement des nuages et leur manière de produire de la pluie. Du coup, ils se sont contentés du degré d’hygrométrie de l’air qui est plus simplement mesurable. Et ils ont décidé que c’était une approximation valable de considérer que la pluviométrie est proportionnelle au degré d’hygrométrie,

Sur la turbulence, le chaos et la prédictibilité

Nous avons le plaisir de publier aujourd’hui un long texte du Pr Maxence Revault d’Allonnes, consacré à l’une des questions les plus épineuses de la modélisation, celle des écoulements turbulents caractérisant le comportement de l’atmosphère et de l’océan, et de leurs conséquences sur la prédictibilité des phénomènes climatiques. Spécialiste de turbulence océanique, Maxence Revault d’Allonnes est professeur au Muséum national d’Histoire naturelle, où il a dirigé pendant une dizaine d’années le Laboratoire d’Océanographie physique avant d’en devenir quelque temps Directeur de la recherche et de l’enseignement. Son doctorat de troisième cycle (1972) et son doctorat d’Etat (1980) portent sur la structure de la turbulence à l’interface de l’océan et de l’atmosphère. Outre deux livres dans la collection Que sais-je ? (PUF) (Les océans et L’océanographie physique), Maxence Revault d’Allonnes a récemment publié chez Vuibert un ouvrage sur La marée océanique (2005). Il se consacre désomais aux enseignements universitaires, aux cours publics, et à la formation des enseignants du secondaire.

Tout le monde a déjà vu les feuilles d’un arbre s’agiter dans le vent. Tous ont pu voir qu’à de certains moments c’est telle ou telle feuille ou tel rameau qui bouge, puis cesse, et qu’à l’instant suivant ce peut – ou non - devenir celle ou celui d’à côté. Certaines rafales affectent l’arbre entier, certaines quelques branches, d’autres une seule et puis plus rien ne remue cependant que d’un coup, tout repart à nouveau, par exemple…

Si ce vent demeurait pourtant rigoureusement le même à chaque instant, parfaitement constant dans le temps, chaque élément de l’arbre atteindrait presque aussitôt une position d’équilibre déterminée d’un côté par sa rigidité propre et de l’autre par le frottement qu’exerce le vent sur lui : plus rien ne bougerait plus alors. Il en va de même pour un champ de blé mûr, dans lequel chaque épi ploierait jusqu’à ce que sa résistance s’oppose exactement à la tension de ce vent stable, puis il ne bougerait plus.

Mais tout remue sans cesse et ceci montre qu’au vent moyen, fort ou faible, s’ajoutent des fluctuations, bourrasques, rafales ou risées, éminemment et rapidement variables dans le temps. Et dans l’espace aussi, puisque les mouvements désordonnés du tronc, des branches, des rameaux et des feuilles semblent indépendants les uns des autres et que tout ceci n’est pas seulement un mouvement d’ensemble.

La turbulence est précisément l’existence, dans l’écoulement d’un fluide, de fluctuations désordonnées dans l’espace et dans le temps.

On raconte qu’à la fin de sa vie, on avait demandé au célèbre physicien Werner Heisenberg (1901-1976), par ailleurs responsable du programme nucléaire de l’Allemagne nazie, ce qui lui avait en physique posé le plus de difficultés. L’électrodynamique quantique, aurait-il répondu, et l’eau qui coule du robinet, ajoutant « pour le premier problème, je suis assez optimiste, mais pour ce qui concerne la turbulence des fluides, je suis un bon chrétien et je ne veux pas mettre dieu dans l’embarras ».

L’EXPERIENCE DE REYNOLDS (1883)

Dès 1883, Osborne Reynolds (1842-1912) avait pourtant déjà malmené dieu, par une expérience assez rudimentaire : il faisait circuler de l’eau dans un tube transparent en libérant un colorant au milieu du tuyau, par un fin dispositif d’émission. Pour des vitesses très faibles et de petits diamètres du tube, le colorant révélait la nature lisse et régulière de l’écoulement alors baptisé « laminaire » puisque s’effectuant par lames ou nappes fluides glissant calmement les unes le long des autres. Pour de plus gros diamètres ou de plus grandes vitesses, l’écoulement -dit alors « turbulent »- s’effectuait de manière désordonnée et chaotique, tel le mouvement d’une foule, que le latin dénomme justement « turba ».

Un peu plus précisément, il montra que l’apparition de la turbulence dépend d’un nombre sans dimension, maintenant dit « nombre de Reynolds », égal au produit de la vitesse moyenne de l’écoulement par le diamètre du tube divisé par la viscosité du fluide. En dessous d’une valeur critique de l’ordre de 2300, l’écoulement demeure laminaire. Il devient turbulent au delà. Dans les équations de la mécanique des fluides, expression mathématique du principe fondamental de la mécanique, ce nombre de Reynolds représente le rapport des forces d’inertie aux forces de frottement visqueux. La viscosité stabilise donc l’écoulement tandis que l’inertie le perturbe, ou plutôt que les effets des perturbations sont décrits par le terme d’inertie.

Compte tenu de ce qui précède, les écoulements strictement laminaires demeurent rarissimes dans la nature. On en cite couramment pour exemples ceux de la sève des arbres et du sang des capillaires : faibles vitesses, diamètres infimes et très grandes viscosités… Bien que cette approximation n’ait pas grand sens, on peut évaluer les nombres de Reynolds des écoulements des fluides géophysiques, dans l’atmosphère et dans les océans : les dimensions sont supérieures à 1000 kilomètres (106 mètres), les vitesses de l’ordre du mètre par seconde dans l’océan et de 10 mètres par seconde dans l’atmosphère et les viscosités de l’ordre de 10-4 m2/s pour l’air et 10-6 m2/s pour l’eau. Les nombres de Reynolds en question sont donc pour ces deux milieux largement supérieurs à des valeurs de l’ordre de 1010. Ceci suggère ce que confirme par exemple l’examen d’animations des mouvements de l’atmosphère : les écoulements géophysiques sont largement dominés par la turbulence et ne peuvent en aucune manière être considérés comme laminaires.

TURBULENCE ET DIFFUSION

La première conséquence purement physique de ce constat porte sur la diffusivité ou aptitude au mélange, car la turbulence est susceptible de multiplier par plusieurs puissances de dix les valeurs « moléculaires » des coefficients de diffusion. Une application courante et assez universelle permet d’appréhender cette propriété : il existe en effet au moins deux manières de sucrer son café. Une première méthode consiste à déposer un sucre dans la tasse pleine et attendre que l’agitation brownienne des molécules ait effectué le mélange du sucre et du café. C’est alors la diffusion « moléculaire » qui assure le flux de sucre depuis les zones les plus sucrées vers celles qui le sont moins, au terme de la loi de Fick (1855) qui relie les flux aux gradients de concentration. Il est clair que le café sera froid bien avant d’être uniformément sucré. Une deuxième méthode, plus courante, consiste à s’emparer d’une cuiller et à agiter le contenu de la tasse aussitôt déposé le morceau de sucre, c’est à dire d’y introduire de la turbulence. Mais presque tous perçoivent intuitivement l’idée qu’un mouvement régulier n’est pas très turbulent : quelqu’un qui créerait en tournant sa cuiller un unique tourbillon parfait dans sa tasse aurait rapidement l’idée de le briser par un rapide retour en arrière ou toute autre forme de mouvement plus complexe. Là, le café sera uniformément sucré bien avant d’être froid, et par le seul effet de la turbulence créée par les mouvements de la cuiller. L’importante turbulence des fluides géophysiques fait donc de l’atmosphère et des océans des milieux éminemment diffusifs, comme un café bien agité.

Cette aptitude de la turbulence à diffuser les diverses grandeurs conduit le plus souvent à une approximation tellement grossière qu’elle est en fait une erreur grave et courante. Cette approximation consiste à décrire les effets diffusifs de la turbulence de la même manière que ceux de l’agitation moléculaire, en introduisant un « coefficient de diffusion turbulente » beaucoup plus important que le coefficient de diffusion purement moléculaire. Cette approche attribue de la sorte au fluide une propriété qui appartient en fait à l’écoulement : on peut mesurer dans une éprouvette le coefficient de diffusion thermique de l’air atmosphérique. On ne peut évidemment pas y évaluer sa valeur en régime turbulent réel… Le problème est infiniment plus compliqué, et c’est le cas de le dire.

NATURE DE LA TURBULENCE

De nombreux artistes comme Van Gogh, Utagawa et Léonard de Vinci, pour ne citer qu’eux, on tenté de représenter la turbulence. Contraints par la nature de leur art à figer les mouvements, ils en ont été « réduits » à peindre ou dessiner quelques tourbillons de tailles différentes, mais forcément peu nombreux. Seul Léonard de Vinci, dans son « torrent » s’approche d’une réalité dans laquelle ces « tourbillons » sont si nombreux et de tailles si diverses que le dessin suggère bien le chaos turbulent. Mais l’idée même de « tourbillon » porte sur quelque chose de bien identifié et -somme toute- d’assez circulaire et régulier pour ne pas évoquer correctement l’image d’une turbulence réelle. A la place de termes comme « volutes » ou « nappes », les scientifiques ont préféré celui de « structure », qui n’évoque aucune forme et laisse place à de très rapides fluctuations temporelles.

En 1992, un cargo pris dans une tempête perdit dans l’Océan Pacifique un conteneur mal fermé rempli de 29 000 canards en plastique destinés au bain des bébés. Par la suite, on découvrit certains de ces canards dans l’Océan arctique, au Groenland, en Grande-Bretagne et sur les côtes Est du Canada… Il est intéressant d’analyser de manière statistique, c’est à dire « en moyenne », les causes susceptibles d’écarter de telle sorte des objets initialement très voisins. Soient donc considérés deux canards dont la distance, quelconque, est notée « d » à un instant donné. Les structures turbulentes dont l’échelle est beaucoup plus petite que « d » demeurent sans grande influence statistique sur la distance entre les deux canards considérés. Elles les agitent indépendamment l’un de l’autre. Inversement, les structures turbulentes dont l’échelle est très grande devant « d » transportent en moyenne l’ensemble des deux canards sans en modifier la distance. Ce sont donc en fin de compte essentiellement les structures d’échelle « d » qui influent le plus sur la distance des deux canards. Si ces canards sont susceptibles de s’écarter de plus en plus, comme c’est ici le cas, c’est donc qu’il existe dans l’océan des structures turbulentes de toutes échelles, et ceci de manière continue.

Un écoulement turbulent est donc constitué par des structures ou « tourbillons » dont l’échelle couvre une gamme ininterrompue, un spectre continu.

CONDITIONS INITIALES

Mais il y a plus dans cette affaire de canards, que l’on pourrait d’ailleurs supposer minuscules, aussi petits que l’on veut. Ils ont été lâchés dans l’eau presque au même endroit, presque au même instant. Pour chacun de ces canards, les conditions de départ ou conditions initiales –en lieux et dates- sont donc quasiment identiques. Leurs lieux et dates d’arrivée sont pourtant très éloignés, puisqu’on en retrouve aussi bien sur les côtes britanniques que dans l’Océan Arctique. En d’autres termes, et du fait de la turbulence, des conditions initiales presque identiques conduisent à des résultats presque aussi différents que l’on veut… Cette étonnante propriété, improprement nommée pendant quelque temps « crise du déterminisme », s’appelle maintenant la « sensibilité aux conditions initiales ». Henri Poincaré (1854-1912) l’exprimait déjà sous la forme suivante : « une cause très petite qui nous a échappé détermine un effet considérable que nous ne pouvons pas ne pas voir, et alors nous disons que cet effet est dû au hasard ».

C’est Edward Lorenz – né en 1917 aux Etats Unis d’Amérique- qui, le second, causa à dieu plus encore d’embarras que Reynolds, au sens de Werner Heisenberg. Météorologue au MIT, il montra en 1963 que la sensibilité aux conditions initiales relève, pour un système présentant au moins trois degrés de liberté, de la non-linéarité des équations qui gouvernent son évolution. Ce système est alors dit « chaotique » en ce sens que d’infimes différences des conditions de départ peuvent engendrer de rapides divergences. L’idée de non-linéarité est relativement simple à exprimer : un système physique est dit « non-linéaire » dès lors que le résultat d’une somme d’actions exercées sur lui n’est pas la somme des résultats de chacune de ces actions.

Le principe fondamental de la mécanique exprime le fait que l’accélération subie par une masse donnée est proportionnelle aux forces auxquelles cette masse est soumise. En mécanique des fluides, les équations dites « de Navier-Stokes » expriment directement ce principe fondamental de la mécanique, et se révèlent non-linéaires du fait de l’expression de l’accélération. Elles comportent évidemment plusieurs infinités de degrés de liberté et sont de surcroît dissipatives en raison du frottement visqueux qui – aux plus petites échelles - convertit en chaleur une part de l’énergie cinétique du mouvement. Les équations de la mécanique des fluides, qui décrivent les mouvements, comportent donc structurellement le germe du chaos, de la turbulence et de la sensibilité aux conditions initiales.

FERMETURE

Une approche de la question de la turbulence consiste à se désintéresser dans un premier temps des fluctuations turbulentes proprement dites pour se préoccuper exclusivement des caractéristiques moyennes de l’écoulement : vitesses, températures, humidités, salinités ou concentrations diverses… On est alors conduit à rechercher les équations que vérifient ces champs moyens, étant entendu que les champs réels instantanés –sommes des moyennes et des fluctuations- vérifient bien l’ensemble des équations qui régissent le mouvement et la diffusion.

Un opérateur de moyenne étant choisi qui relève d’une axiomatique simple dite encore « axiomatique de Reynolds », on peut démontrer que les champs moyens vérifient les mêmes équations que les champs instantanés à l’exception de celles qui ne sont pas linéaires, comme c’est précisément le cas des équations de Navier-Stokes. Dans ce cas, de nouvelles inconnues apparaissent dans les équations qui décrivent le champ des vitesses moyennes : ce sont les six tensions de Reynolds, moyennes des produits deux par deux des trois composantes des fluctuations de la vitesse. De ce fait, la question des champs moyens comporte plus d’inconnues que d’équations. Il est donc mathématiquement hors de question d’espérer résoudre le moindre problème tant que l’on ne disposera pas au minimum d’autant d’équations que d’inconnues. Il faut donc rechercher des équations supplémentaires : c’est le célèbre problème dit « de la fermeture des équations ».

Les tensions de Reynolds pouvant s’interpréter comme des flux turbulents de quantité de mouvement, la première idée qui vient à l’esprit est celle qui est évoquée plus haut : remplacer dans les équations de Navier-Stokes la viscosité moléculaire par une viscosité « virtuelle » ou « turbulente », par analogie des flux moléculaires de quantité de mouvement décrits par le terme visqueux et des flux turbulents décrits par les tensions de Reynolds. Encore une fois, cette aberration usuelle attribue au fluide une propriété qui relève de l’écoulement. Il existe quantité d’autres fermetures infiniment plus astucieuses qui reposent toutes sur des considération empiriques ou semi-empiriques, en général basées sur des équations dites « d’ordre supérieur », comme celle de l’énergie cinétique turbulente, à l’ordre deux. Si telle ou telle hypothèse de fermeture peut se révéler correctement adaptée à tel ou tel type d’écoulement, aucune n’est évidemment à même de permettre une fois pour toutes et dans tous les cas d’écrire pour le mouvement moyen, autant d’équations qu’il existe d’inconnues. On rencontre donc une fois de plus un problème structurel lié à la non-linéarité des équations du mouvement. Aucune fermeture empirique ne peut prétendre à l’universalité.

Il est par conséquent totalement faux d’affirmer comme beaucoup le croient que la turbulence constitue une « dentelle » inapte à entacher la prédiction des champs moyens. C’est pourtant fréquemment dans les médias le propos d’économistes, de géographes ou de simples militants écologistes. C’est hélas aussi celui de scientifiques qui se baptisent eux-mêmes « climatologues », tout en ignorant les fondements théoriques de la mécanique des fluides…

PREDICTIBILITE

Les travaux de Lorenz d’une part et la question de la fermeture des équations d’autre part posent en définitive l’immense question de la prédictibilité (ou prévisibilité) des écoulements turbulents. Et non pas seulement de la possibilité de prévoir le détail des champs à venir, mais aussi celle de leurs caractéristiques moyennes. Dans son ouvrage sur la turbulence (« La turbulence », Presses Universitaires de Grenoble, 1994, page 22) Marcel Lesieur écrit d’ailleurs que « l’exemple le plus immédiat de l’imprévisibilité est donné par la météorologie, cependant que Bernard Strauss, directeur du Centre National de prévision de Météo France à Toulouse, reconnaît dans le journal « Le Monde » (8 et 9 octobre 2006), qu’en raison de ce chaos, la limite des futures prévisions météorologiques « doit se situer aux alentours de 13 à 15 jours et qu’il n’y aura sans doute jamais aucun moyen d’aller au delà ». Ceci relève évidemment des questions évoquées ci-dessus, depuis les énormes valeurs des nombres de Reynolds des écoulements géophysiques au problème de la fermeture des équations, en passant notamment par le sensibilité aux conditions initiales…

Les désormais célèbres modèles numériques, et notamment ceux qui sont censés prévoir le temps qu’il fera, consistent en fait à remplacer les systèmes d’équations aux dérivées partielles qui régissent les mécanismes concernés par des approximations itératives, dites par exemple « aux différences finies », que les ordinateurs peuvent résoudre aux nœuds d’un système de mailles plus ou moins serrées, à deux ou le plus souvent à trois dimensions spatiales. Structurellement approximatifs, donc, ces modèles font en outre appel à des fermetures et sont sensibles aux conditions initiales aussitôt que les équations exploitées ne sont pas linéaires. Ceci conduit par exemple David Ruelle (Hasard et chaos, Odile Jacob, 1991) à écrire que « pour être honnête, il faut dire que l’évolution naturelle diverge d’une évolution calculée plus vite que deux évolutions calculées ne divergent l’une de l’autre ».

Cette imprédictibilité structurelle des écoulements turbulents, et particulièrement ceux de l’atmosphère et des océans est très largement méconnue, pour ne pas dire dissimulée. Le plus souvent scotomisée par les climatologues, elle exaspère pourtant les militants verts et de nombreux journalistes incompétents en sciences, telle Marie Muller qui, dans le Nouvel Observateur (2093, 11-24 décembre 2004, page 31) n’hésite pas à insulter les météorologistes à propos de la célèbre tempête de 1999 : « Or là, ils n’ont rien vu, rien prévu, rien compris, rien expliqué. Ce qui ne les empêche pas, avec la suffisance qui les caractérise, de persister dans leur attitude de sidération bornées » écrit-elle, déplorant plus loin la « médiocrité médusée des explications des spécialistes ». Madame Muller mérite certainement le prix Nobel de physique pour penser que de telles prévisions sont possibles, à moins qu’elle n’ait rien compris.

Au delà de la météorologie, l’étude par ordinateur de l’évolution climatique met en œuvre des « modèles dynamiques planétaires » (MDP) analogues à ceux qui fournissent les prévisions du temps, sur le plan des mathématiques et de la physique. Mais il y a plus, comme on peut le lire dans ce cours avancé sur la variabilité du climat : « les modèles numériques initialement développés pour la prévision météorologiques sont maintenant utilisés pour la prédiction du climat. Certains instituts construisent des modèles unifiés servant dans une égale mesure à la prédiction du temps et du climat. La confiance que l’on peut accorder à un modèle de simulation du climat sera d’autant plus grande que ce même modèle fonctionne avec succès en prévision météorologique » (Decadal Climate Variability, Dynamics and Predictability, NATO Advanced Study Institute, D. Anderson et J. Willebrand ed., 1996, p. 148).

Formellement analogues aux modèles météorologiques, les modèles climatiques incluent évidemment en outre les descriptions de très nombreux mécanismes que l’on peut négliger lors d’une approche prédictive du temps qu’il fera dans quelques jours. Ils sont donc éminemment plus complexes et encore plus non-linéaires. Contrairement à ce que l’on trouve régulièrement dans la « grande » presse, ce n’est donc pas fondamentalement en raison de la difficulté très réelle d’intégrer l’ensemble des processus qui régissent l’évolution climatique que ces modèles peinent à fonctionner. C’est - à la base - en raison de la non-linéarité des équations de la mécanique des fluides, elle-même responsable de la sensibilité aux conditions initiales, du chaos, et de l’imprédictibilité structurelle des écoulements atmosphériques et océaniques au delà d’un certain délai.

Il va de soi qu’en termes de bilans globaux, la question de la prédictibilité ne se pose pas. Si la Terre reçoit du Soleil plus d’énergie qu’elle n’en réémet, elle se réchauffe et inversement. Mais le devenir exact de la chaleur ainsi reçue de même que son impact sur les pluies, les vents, ou les courants marins de telle ou telle région particulière relève bien, pour sa part, des questions évoquées plus haut.

Que penser alors de l’obstination des modélisateurs du climat à vanter, malgré le chaos turbulent, la validité de leur approche ?

Dans La Recherche (hors-série numéro 9, novembre-décembre 2002, page 29 « L’effet papillon bat-il de l’aile ? »), Nicolas Witkowski fournit - sans le dire et peut-être même sans y penser - les éléments d’une réponse possible : il propose en effet un diagramme de l’évolution par discipline du nombre d’articles scientifiques contenant le terme chaos, et ceci depuis 1990. Il en recense par exemple près de 450 en physique et 200 en sciences appliquées vers 1995. Une notule de la figure en question mentionne qu’en raison d’un nombre trop faible de citations, la météorologie et les sciences de la Terre, de l’océan et de l’espace ne figurent pas sur cette courbe…

Ignorance, donc, ou dénégation ? L’affaire est bien étrange, en vérité.

Maxence Revault d’Allonnes

1 Message

  • Climatologie et chaos déterministe 10 février 2010 11:37, par ZOGO DE BKO

    je vous écis pour souléver quelque probleme o cours de notre discuission sur le big bang nous avons parlé de galaxie mais concretement parlant quesque la galaxie.??
    existe t’il reellement un monde différent de notre monde ??
    Quand galilée parle de loi de gravitation et de loi d’inertie qu’est k’il voulais réellement dire ??

    Répondre à ce message

Répondre à cet article

SPIP | squelette | | Plan du site | Suivre la vie du site RSS 2.0