Accueil > 01 - Livre Un : PHILOSOPHIE > Des contradictions dynamiques > Etudes sur l’irréversibilité ?

Etudes sur l’irréversibilité ?

dimanche 28 mars 2010, par Robert Paris

"La Fin des Certitudes"

de Ilya Prigogine

"On sait qu’Einstein a souvent affirmé que "le temps est illusion"· Et en effet, le temps tel qu’il a été incorporé dans les lois fondamentales de la physique, de la dynamique classique newtonienne jusqu’à la relativité et à la physique quantique, n’autorise aucune distinction entre le passé et le futur. Aujourd’hui encore pour beaucoup de physiciens, c’est là une véritable profession de foi : au niveau de la description fondamentale de la nature, il n’y a pas de flèche du temps. (...)

[...]au cours des dernières décennies, une nouvelle science est née, la physique des processus de non-équilibre. Cette science a conduit à des concepts nouveaux tels que l’auto-organisation et les structures dissipatives qui sont aujourd’hui largement utilisés dans des domaines qui vont de la cosmologie jusqu’à l’écologie et aux sciences sociales, en passant par chimie et la biologie. La physique de non-équilibre étudie les processus dissipatifs, caractérisés par un temps unidirectionnel, et ce faisant elle confère une nouvelle signification à l’irréversibilité. (...)

L’irréversibilité ne peut plus être attribuée à une simple apparence qui disparaîtrait si nous accédions à une connaissance parfaite. Elle est une condition essentielle de comportements cohérents de milliards de milliards de molécules. Selon une formule que j’aime a répéter, la matière est aveugle à l’équilibre là où la flèche du temps ne se manifeste pas ; mais lorsque celle-ci se manifeste, loin de l’équilibre, la matière commence à voir ! Sans la cohérence des processus irréversibles de non-équilibre, l’apparition de la vie sur la Terre serait inconcevable. La thèse selon laquelle la flèche du temps est seulement phénoménologique est absurde. Ce n’est pas nous qui engendrons la flèche du temps. Bien au contraire, nous sommes ses enfants. (...)

Le second développement concernant la révision du concept de temps en Physique a été celui des systèmes dynamiques instables. La science classique privilégiait l’ordre, la stabilité, alors qu’à tous les niveaux d’observation nous reconnaissons désormais le rôle primordial des fluctuations et de l’instabilité [...] Mais comme nous le montrerons dans ce livre, les systèmes dynamiques instables conduisent aussi à une extension de la dynamique classique et de la physique quantique, et dès lors à une formulation nouvelle des lois de la physique. Cette formulation brise la symétrie entre passé et futur qu’affirmait la physique traditionnelle, y compris la mécanique quantique et la relativité. [...] Dès que l’instabilité est incorporée, la signification des lois de la nature prend un nouveau sens. Elles expriment désormais des possibilités.

D’autres questions sont directement rattachées au problème du temps. L’une est le rôle étrange conféré à l’observateur dans la théorie quantique. Le paradoxe du temps fait de nous les responsables de la brisure de symétrie temporelle observée dans la nature. Mais, plus encore, c’est l’observateur qui serait responsable d’un aspect fondamental de la théorie quantique qu’on appelle la réduction de la fonction d’onde. C’est ce rôle qu’elle attribue à l’observateur qui, nous le verrons, a donné à la mécanique quantique son aspect apparemment subjectiviste et a suscité des controverses interminables. Dans l’interprétation usuelle, la mesure, qui impose une référence à l’observateur en théorie quantique, correspond à une brisure de symétrie temporelle. En revanche, l’introduction de l’instabilité dans la théorie quantique conduit à une brisure de la symétrie du temps. L’observateur quantique perd dès lors son statut singulier ! La solution du paradoxe du temps apporte également une solution au paradoxe quantique, et mène à une formulation réaliste de la théorie. Soulignons que cela ne nous fait pas revenir à l’orthodoxie classique et déterministe ; bien au contraire, cela nous conduit à affirmer encore davantage le caractère statistique de la mécanique quantique. Comme nous l’avons déjà souligné, tant en dynamique classique qu’en physique quantique, les lois fondamentales expriment maintenant des possibilités et non plus des certitudes. Nous avons non seulement des lois mais aussi des événements qui ne sont pas déductibles des lois mais en actualisent les possibilités.

La question du temps et du déterminisme n’est pas limitée aux sciences, elle est au cœur de la pensée occidentale depuis l’origine de ce que nous appelons la rationalité et que nous situons à l’époque présocratique. Comment concevoir la créativité humaine, comment penser l’éthique dans un monde déterministe ? [...] La démocratie et les sciences modernes sont toutes deux les héritières de la même histoire, mais cette histoire mènerait à une contradiction si les sciences faisaient triompher une conception déterministe de la nature alors que la démocratie incarne l’idéal d’une société libre. Nous considérer comme étrangers à la nature implique un dualisme étranger à l’aventure des sciences aussi bien qu’à la passion d’intelligibilité propre au monde occidental. Cette passion est selon Richard Tarnas [1], de "retrouver son unité avec les racines de son être". Nous pensons nous situer aujourd’hui à un point crucial de cette aventure au point de départ d’une nouvelle rationalité qui n’identifie plus science et certitude, probabilité et ignorance. En cette fin de siècle, la question de I’avenir de la science est souvent posée. Pour certains, tel Stephen Hawking dans sa Brève histoire du temps [2], nous sommes proches de la fin, du moment où nous serons capables de déchiffrer la "pensée de Dieu". Je crois, au contraire que nous sommes seulement au début de l’aventure Nous assistons à l’émergence d’une science qui n’est plus limitée à des situations simplifiées, idéalisées, mais nous met en face de la complexité du monde réel, une science qui permet à la créativité humaine de se vivre comme l’expression singulière d’un trait fondamental commun à tous les niveaux de la nature.

[1]Richard Tarnas "The Passion of the Western Mind", New York, Harmony, 1991, p443. [2]Stephen Hawking, "Une brève histoire du temps", Paris, Flammarion, Collection "Champs", 1991

Les questions étudiées dans ce livre - l’univers est-il régi par des lois déterministes ? Quel est le rôle du temps ? - ont été formulées par les présocratiques à l’aube de la pensée occidentale. Elles nous accompagnent depuis plus de deux mille cinq cent ans. Aujourd’hui, les développements de la physique et des mathématiques du chaos et de l’instabilité ouvrent un nouveau chapitre dans cette longue histoire. Nous percevons ces problèmes sous un angle renouvelé. Nous pouvons désormais éviter les contradictions du passé. Épicure fut le premier à dresser les termes du dilemme auquel la physique moderne a conféré le poids de son autorité. Successeur de Démocrite, il imaginait le monde constitué par des atomes en mouvement dans le vide. Il pensait que les atomes tombaient tous avec la même vitesse en suivant des trajets parallèles. Comment pouvaient-ils alors entrer en collision ? Comment la nouveauté, une nouvelle combinaison d’atomes, pouvait-elle apparaitre ? Pour Épicure, le problème de la science, de l’intelligibilité de la nature et celui de la destinée des hommes étaient inséparables. Que pouvait signifier la liberté humaine dans le monde déterministe des atomes ? Il écrivait à Ménécée : "Quant au destin, que certains regardent comme le maître de tout, le sage en rit. En effet, mieux vaut encore accepter le mythe sur les dieux que de s’asservir au destin des physiciens. Car le mythe nous laisse l’espoir de nous concilier les dieux par les honneurs que nous leur rendons, tandis que le destin a un caractère de nécessité inexorable". Les physiciens dont parle Épicure ont beau être les philosophes stoïciens cette citation résonne de manière étonnamment moderne ! [...] Mais avons-nous besoin d’une pensée de la nouveauté ? Toute nouveauté n’est-elle pas illusion ? Aussi la question remonte aux origines. Pour Héraclite, tel que l’a compris Popper, "la vérité est d’avoir saisi l’être essentiel de la nature, de l’avoir conçue comme implicitement infinie, comme le processus même". (...)

Chacun sait que la physique newtonienne a été détrônée au XXème siècle par la mécanique quantique et la relativité. Mais les traits fondamentaux de la loi de Newton, son déterminisme et sa symétrie temporelle, ont survécu. Bien sûr, la mécanique quantique ne décrit plus des trajectoires mais des fonctions d’onde (voir section IV de ce chapitre et le chapitre VI), mais son équation de base, l’équation de Schrödinger, est elle aussi déterministe et à temps réversible. Les lois de la nature énoncée par la physique relèvent donc d’une connaissance idéale qui atteint la certitude. Dès lors que les conditions initiales sont données, tout est déterminé. La nature est un automate que nous pouvons contrôler, en principe du moins. La nouveauté, le choix, l’activité spontanée ne sont que des apparences, relatives seulement au point de vue humain. Page 20 Remarque : Le déterminisme est issu de la pensée de l’outil. L’emploi de l’outillage, le processus technique est le prototype du déterminisme intellectuel. Comme il n’existe que très peu de processus techniques qui font usage de processus de type probabilistes, l’incertitude n’apparait pas dans la logique usuelle qui n’est que le reflet intellectuel de la pratique technique concrète. Mais tout n’est pas outil, il faut comprendre aussi ce que la nature a de naturel. C’est en quoi le point de vue de Prigogine est difficile à assimiler dans ce monde-ci... Il s’agit d’une logique qui n’a pas de précédent dans la pratique technicienne.

De nombreux historiens soulignent le rôle essentiel joué par la figure du Dieu chrétien, conçu au XVII ème siècle comme un législateur tout-puissant, dans cette formulation des lois de la nature. La théologie et la science convergeaient alors. Leibniz a écrit : "...dans la moindre des substances, des yeux aussi perçants que ceux de Dieu pourraient lire toute la suite des choses de l’univers. Quae sint, quae fuerint, quae mox futura trahantur (qui sont, qui ont été, qui se produiront dans l’avenir)". La soumission de la nature à des lois déterministes rapprochait ainsi la connaissance humaine du point de vue divin atemporel. La conception d’une nature passive, soumise à des lois déterministes, est une spécificité de l’Occident. En Chine et au Japon, "nature" signifie "ce qui existe par soi-même ". Joseph Needham nous a rappelé l’ironie avec laquelle les lettrés chinois reçurent l’exposé des triomphes de la science moderne.

Remarque : Quant à l’idée qu’une nature passive serait une spécifié de l’Occident, tout dépend de quelle période de l’Occident on parle : l’étymologie grecque du mot physique (physis) par exemple suggère tout le contraire

Dans l’un des ses derniers livres, L’Univers Irrésolu, Karl Popper écrit : "Je considère le déterminisme laplacien - confirmé comme il semble l’être par le déterminisme des théories physiques, et par leur succès éclatant - comme l’obstacle le plus solide et plus sérieux sur le chemin d’une explication et d’une apologie de la liberté, de la créativité, et de la responsabilité humaines". Pour Popper, cependant, le déterminisme ne met pas seulement en cause la liberté humaine. Il rend impossible la rencontre de la réalité qui est la vocation même de notre connaissance : Popper écrit plus loin que la réalité du temps et du changement a toujours été pour lui "le fondement essentiel du réalisme". Dans "Le possible et le réel", Henri Bergson demande "A quoi sert le temps ?... le temps est ce qui empêche quc tout soit donné d’un seul coup. Il retarde, ou plutôt il est retardement. Il doit donc étre élaboration. Ne serait-il pas alors le véhicule de création et de choix ? L’existence du temps ne prouverait-elle pas qu’il y a de l’indétermination dans les choses ?". Pour Bergson comme pour Popper 1e réalisme et l’indéterminisme sont solidaires. Mais cette conviction se heurte au triomphe de la physique moderne, au fait que le plus fructueux et le plus rigoureux des dialogues que nous ayons mené avec nature aboutit à l’affirmation du déterminisme. L’opposition entre le temps réversible et déterministe de la physique et le temps des philosophes a mené à des conflits ouverts. Aujourd’hui, la tentation est plutôt celle d’un repli, qui se traduit par un scepticisme général quant à la signification de nos connaissances. Ainsi, la philosophie postmoderne prône la déconstruction. Rorty par exemple appelle à transformer les problèmes qui ont divisé notre tradition en sujets de conversation civilisée. Bien sûr, pour lui les controverses scientifiques, trop techniques n’ont pas de place dans cette conversation.

[...] Mais le conflit n’oppose pas seulement les sciences et la philosophie, Il oppose la physique à tous les autres savoirs. En octobre 1994 Scientific American a consacré un numéro spécial à "La vie dans l’univers". A tous les niveaux, que ce soit celui de la cosmologie, de la géologie, de la biologie ou de la société, le caractère évolutif de la réalité s’affirme de plus en plus. On s’attendrait donc à ce que la question soit posée : comment comprendre ce caractère évolutif dans le cadre des lois de la physique ? Or un seul article, écrit par le célèbre physicien Steven Weinberg, discute cet aspect. Weinberg écrit : "Quel que soit notre désir d’avoir une vision unifiée de la nature, nous ne cessons de nous heurter à la dualité du rôle de la vie intelligente dans l’univers... D’une part, il y a l’équation de Schrödinger, qui décrit de manière parfaitement déterministe comment la fonction d’onde de n’importe quel système évolue dans le temps. Et puis, d’une manière parfaitement indépendante, i1 y a un ensemble de principes qui nous disent comment utiliser la fonction d’onde pour calculer les probabilités des différents résultats possibles produits par nos mesures". "Nos mesures ?" Est-i1 donc suggéré que c’est nous par nos mesures, qui serions responsables de ce qui échappe au déterminisme universel, qui serions donc à l’origine de l’évolution cosmique ? C’est le point de vue que défend également Stephen Hawking dans "Une brève histoire du Temps". I1 y expose une interprétation purement géométrique de la cosmologie : le temps ne serait en quelque sorte qu’un accident de l’espace.

Dans The Emperor’s New Mind, Roger Penrose écrit que "c’est notre compréhension actuellement insuffisante des lois fondamentales de la physique qui nous empêche d’exprimer la notion d’esprit (mind) en termes physiques ou logiques". Je suis d’accord avec Penrose : nous avons besoin d’une nouvelle formulation des lois fondamentales de la physique, mais celle-ci ne doit pas nécessairement décrire la notion d’esprit, elle doit d’abord incorporer dans nos lois physiques la dimension évolutive sans laquelle nous sommes condamnés à une conception contradictoire de la réalité. Enraciner l’indéterminisme et l’asymétrie du temps dans les lois de la physique est la réponse que nous pouvons donner aujourd’hui au dilemme d’Épicure. Sinon, ces lois sont incomplètes, aussi incomplètes que si elles ignoraient la gravitation ou l’électricité.

13. R. Penrose, The Ernperor’s New Mind. Oxford, Oxford University Press, Vintage edition, 1990, p. 4-5.

Au début de ce chapitre, nous avons mentionné les penseurs présocratiques. En fait, les anciens grecs nous ont légué deux idéaux qui ont guidé notre histoire : celui d’intelligibilité de la nature ou, comme l’a écrit Whitehead, de "former un système d’idées générales qui soit nécessaire, logique, cohérent, et en fonction duquel tous les éléments de notre expérience puissent être interprétés" ; et celui de démocratie basée sur le présupposé de la liberté humaine, de la créativité et de la responsabilité. Nous sommes certes très loin de l’accomplissement de ces deux idéaux, du moins nous pouvons désorrnais conclure qu ïls ne sont pas contradictoires. (...)

La nature nous présente des processus irréversibles et des processus réversibles, mais les premiers sont la règle, et les seconds l’exception. Les processus macroscopiques, tels que réactions chimiques et phénomènes de transport, sont irréversibles. Le rayonnement solaire est le résultat de processus nucléaires irréversibles. Aucune description de l’écosphère ne serait possible sans les processus irréversibles innombrables qui s’y déroulent. Les processus réversibles, en revanche, correspondent toujours à des idéalisations : nous devons négliger la friction pour attribuer au pendule un comportement réversible, et cela ne vaut que comme une approximation. (...)

[...] Après plus d’un siècle, au cours duquel la Physique a connu d’extraordinaires mutations,1’interprétation de 1’irreversibilité comme approximation est présentée par la majorité des physiciens contemporains comme allant de soi. Qui plus est, le fait que nous serions alors responsables du caractère évolutif de 1’univers n’est pas explicité. Au contraire, une première étape du raisonnement qui doit mener le lecteur a accepter le fait que 1’irréversibilité n’est rien d’autre qu’une conséquence de nos approximations consiste toujours à présenter les conséquences du second principe comme évidentes, voire triviales. Voici par exemple comment Murray Gell-Mann s’exprime dans The Quark and the Jaguar [17] : "L’explication de 1’irréversibilité est qu’il y a plus de manières pour les clous ou les pièces de monnaie d’être mélangés que triés. I1 y a plus de manières pour les pots de beurre et de confiture d’être contaminés 1’un par 1’autre que de rester purs. Et il y a plus de manières pour les molécules d’un gaz d’oxygène et d’azote d’être mélangées que séparées. Dans la mesure où on laisse aller les choses au hasard, on peut prévoir qu’un système clos caractérisé par quelque ordre initial évoluera vers le désordre, qui offre tellement plus de possibilités. Comment ces possibilités doivent-elles être comptées ? Un système entièrement clos, décrit de manière exacte, peut se trouver dans un grand nombre d’états distincts, souvent appelés "microétats ". En mécanique quantique, ceux-ci sont les états quantiques possibles du système. Ils sont regroupés en catégories (parfois appelées macroétats) selon des propriétés établies par une description grossière (coarse grained). Les microétats correspondant à un macroétat donné sont traités comme équivalents, ce qui fait que seul compte leur nombre. " Et Gell-Man conclut : " L’entropie et 1’information sont étroitement liées. En fait, l’entropie peut être considérée comme une mesure de l’ignorance. Lorsque nous savons seulement qu’un systeme est dans un macroétat donné, l’entropie du macroétat mesure le degré d’ignorance à propos du microétat du système, en comptant le nombre de bits d’information additionnelle qui serait nécessaire pour le specifier, tous les microétats dans le macroétat étant considérés comme également probables". J’ai cité longuement Gell-Mann, mais le même genre de présentation de la flèche du temps figure dans la plupart des ouvrages. Or cette interprétation, qui implique que notre ignorance, le caractère grossier de nos descriptions, seraient responsables du second principe et dès lors de la flèche du temps, est intenable. Elle nous force à conclure que le monde paraîtrait parfaitement symétrique dans le temps à un observateur bien informé, comme le démon imaginé par Maxwell, capable d’observer les microétats. Nous serions les pères du temps et non les enfants de l’évolution. Mais comment expliquer alors que les propriétés dissipatives, comme les coefficients de diffusion ou les temps de relaxation, soient bien définis, quelle que soit la précision de nos expériences ? Comment expliquer le rôle constructif de la flèche du temps que nous avons évoqué plus haut ? (...)

[17]. M. Gell-Mann, The Quark and the Jaguar, Londres. Little Brown and Co, 1994, p. 218-220.

Remarque : quelle belle image... quel beau parfum de logique quasi raciste. Ce qui n’est pas pur est "contaminé"...

[...] Les développements récents de la physique et de la chimie de non équilibre montrent que la flèche du temps peut être une source d’ordre. Il en était déjà ainsi dans des cas classiques simples, comme la diffusion thermique. Bien sûr, les molécules mettons d’hydrogène et d’azote au sein d’une boite close, évolueront vers un mélange uniforme. Mais chauffons une partie de la boite et refroidissons l’autre. Le système évolue alors vers un état stationnaire dans lequel la concentration de l’hydrogène est plus élevée dans la partie chaude et celle de l’azote dans la partie froide. L’entropie produite par le flux de chaleur, qui est un phénomène irréversible, détruit l’homogénéité du mélange. C’est donc un processus générateur d’ordre, un processus qui serait impossible sans le flux de chaleur. L’irréversibilité mène à la fois au désordre et à l’ordre. (...°

Remarque : et même encore plus simples - merveilleusement simples - les "pots vibrants" utilisés dans l’industrie pour trier et mettre en ordre des pièces sont un autre example du fait qu’il suffit parfois d’injecter un peu d’énergie créer de l’ordre.

Retenons ici que nous pouvons affirmer aujourd’hui que c’est grâce aux processus irréversibles associés à la flèche du temps que la nature réalise ses structures les plus délicates et les plus complexes. La vie n’est possible que dans un univers loin de l’équilibre. Le développement remarquable de la physique et de la chimie de non-équilibre au cours de ces dernières décennies renforce donc les conclusions présentées dans La Nouvelle Alliance * : 1. Les processus irréversibles (associés à la flèche du temps) sont aussi réels que les processus réversibles décrits par les lois traditionnelles de la physique ; ils ne peuvent pas s’interpréter comme des approximations des lois fondamentales. 2. Les processus irréversibles jouent un rôle constructif dans la nature. 3. L’irréversibilité exige une extension de la dynamique. (...)

[*] I. Prigogine et I. Stengers, La Nouvelle Alliance, Paris, Gallimard, 1979

II y a deux siècles, Lagrange décrivait la mécanique analytique, où les lois du mouvement newtonien trouvaient leur formulation rigoureuse, comme une branche des mathématiques [18]. Aujourd’hui encore on parle souvent de "mécanique rationnelle", ce qui signifierait que les lois newtoniennes exprimeraient les lois de la "raison" et pourraient ainsi prétendre à une vérité immuable. Nous savons qu’il n’en est pas ainsi puisque ous avons vu naître la mécanique quantique et la relativité. Mais aujourd’hui c’est à la mécanique quantique que l’on est tenté d’attribuer une vérité absolue. Gell-Mann écrit dans The Quark and the Jaguar que "la mécanique quantique n’est pas, en elle-même une théorie ; c’est plutôt le cadre dans lequel doit entrer toute théorie physique contemporaine". En est-il vraiment ainsi ? Comme mon regretté ami LéonRosenfeld ne cessait de le souligner, toute théorie est fondée sur des concepts physiques associés à des idéalisations qui rendent possible la formulation mathématique de ces théories ; c’est pourquoi "aucun concept physique n’est suffisamment défini sans que soient connues les limites de sa validité", limites provenant des idéalisations mêmes qui le fondent. (....)

[18] J.-L. Lagrange, Théorie des fonctions analytiques, Paris, Imprimerie de la République 1796. [20] L. Rosenfeld, "Considérations non-philosophiques sur la causalité", in Les Théories de la Causalité, Paris, PUF, 1971, P137.

La différence entre systèmes stables et instables nous est familière. Prenons un pendule et étudions son mouvement en tenant compte de 1’existence d’une friction. Supposons-le d’abord immobile à l’équilibre. On sait que son énergie potentielle y presente une valeur minimale. Une petite perturbation sera suivie par un retour à 1’équilibre. L’état d’équilibre du pendule est stable. En revanche, si nous réussissons à faire tenir un crayon sur sa pointe,1’équilibre est instable. La moindre perturbation le fera tomber d’un côté ou de I’autre. I1 y a une distinction fondamentale entre les mouvements stables et instables. En bref, les systèmes dynamiques stables sont ceux ou de petites modifications des conditions initiales produisent de petits effets. Mais pour une classe très étendue de systèmes dynamiques, ces modifications s’amplifient au cours du temps. Les systèmes chaotiques sont un exemple extrême de systèmes instables car les trajectoires correspondant à des conditions initiales aussi proches que I’on veut divergent de maniere exponentielle au cours du temps. On parle alors de "sensibilité aux conditions initiales" telle que 1’illustre la parabole bien connue de "1’effet papillon" : le battement des ailes d’un papillon dans le bassin amazonien peut affecter le temps qu’il fera aux Etats-Unis. Nous verrons des exemples de systèmes chaotiques aux chapitres III et IV. On parle souvent de "chaos déterministe". En effet, les équations de systèmes chaotiques sont déterministes comme le sont les lois de Newton. Et pourtant elles engendrent des comportements d’allure aléatoire ! Cette découverte surprenante a renouvelé la dynamique classique, jusque là considérée comme un sujet clos.

[...]

A la fin du XIXème siècle seulement, Poincaré a montré que les problèmes sont fondamentalement différents selon qu’il s’agit d’un système dynamique stable ou non. Déjà le problème à trois corps [Le Soleil, la Terre et la Lune] entre dans la catégorie des systèmes instables. [...]

Au lieu de considérer un seul système, nous pouvons en étudier une collection, un "ensemble p", selon le terme utilisé depuis le travail pionnier de Gibbs et d’Einstein au début de ce siècle. Un ensemble est représenté par un nuage de points dans l’espace des phases. Ce nuage est décrit par une fonction ro(q,p,t) dont l’interprétation physique est simple : c’est la distribution de probabilité, qui décrit la densité des points du nuage au sein de l’espace des phases. Le cas particulier d’un seul système correspond alors à la situation où ro a une valeur nulle partout dans 1’espace des phases sauf en un point unique q0, p0. Ce cas correspond à une forme spéciale de ro : les fonctions qui ont la propriété de s’annuler partout sauf en un seul point noté x0 sont appelées "fonctions de Dirac" delta(x-x0). Une telle fonction delta(x-x0) est donc nulle pour tout point x différent de x0. Nous reviendrons sur les propriétés des fonctions delta par la suite. Soulignons d’ores et déjà qu’elles appartiennent à une classe de fonctions généralisées ou de distributions (à ne pas confondre avec les distributions de probabilité). Elles ont en effet des propriétés anormales par rapport aux fonctions régulières car lorsque x=x0, la fonction delta(x-x0) diverge, c’est-à-dire tend vers l’infini. Soulignons-le déjà, ce type de fonction ne peut être utilisé qu’en conjonction avec des fonctions régulières, les fonctions test phi(x). La nécessité d’introduire une fonction test jouera un rôle crucial dans l’extension de la dynamique que nous allons décrire. Bornons-nous à souligner l’inversion de perspective qui s’esquisse ici : alors que la description d’un système individuel semble intuitivement la situation première, elle devient, lorsqu’on part des ensembles, un cas particulier, impliquant l’introduction d’une fonction delta aux propriétes singulières.

(....)

Henri Poincaré fut tellement impressionné par ce succès de la théorie cinétique qu’il écrivit : "peut-être est-ce la théorie cinétique des gaz qui va prendre du développement et servir de modèles aux autres... La loi physique alors prendrait un aspect entièrement nouveau... elle prendrait le caractère d’une loi statistique" [21]. Nous le verrons, cet énoncé était prophétique. La notion de probabilité introduite empiriquement par Boltzmann a été un coup d’audace d’une très grande fécondité. Plus d’un siècle après, nous commençons à comprendre comment elle émerge de la dynamique à travers 1’instabilité : celle-ci détruit 1’équivalence entre le niveau individuel et le niveau statistique, si bien que les probabilités prennent alors une signification intrinsèque , irréductible à une interprétation en termes d’ignorance ou d’approximation. C’est ce que mon collègue B. Misra et moi avons souligné en introduisant l’expression "intrinsèquement aléatoire". (...)

[21] . H. Poincaré, La valeur de la science, Paris, Flammarion, 1913, p. 210.

[...] la distribution de probabilité nous permet d’incorporcr dans le cadre de la description dynamique la microstructure complexe de l’espace des phases. Elle contient donc une infonnation additionnelle, qui est perdue dans la description des trajectoires individuelles. Comme nous le verrons au chapitre IV, c’est un point fondamental : la description probabiliste est plus riche que la description individuelle, qui pourtant a toujours été considérée comme la description fondamentale. C’est la raison pour laquelle nous obtiendrons au niveau des distributions de probabilité ro une description dynamique nouvelle permettant de prédire l’évolution de l’ensemble. Nous pouvons ainsi obtenir les échelles de temps caractéristiques correspondant à l’approche des fonctions de distribution vers l’équilibre, ce qui est impossible au niveau des trajectoire individuelles. L’équivalence entre le niveau individuel et le niveau statistique est bel et bien détruite. Nous parvenons, pour les distributions de probabilité, à des solutions nouvelles irréductibles, au sens où elles ne s’appliquent pas aux trajectoires individuelles. Les "lois du chaos" associées à une description régulière et prédictive des systèmes chaotiques se situent au niveau statistique. C’est ce que nous entendions lorsque nous parlions à la section précédente d’une "généralisation de la dynamique". Il s’agit d’une formulation de la dynamique au niveau statistique qui n’a pas d’équivalent en termes de trajectoires. Cela nous conduit à une situation nouvelle. Les conditions initiales ne peuvent plus être assimilées à un point dans l’espace des phases, elles correspondent à une région décrite par une distribution de probabilité. Il s’agit donc d’une description non-locale. De plus, comme nous le verrons, la symétrie par rapport au temps est brisée car dans la fomulation statistique le passé et le futur jouent des rôles différents. Bien sûr, lorsque l’on considère des systèmes stables, la description statistique se réduit à la description usuelle. On pourrait se demander pourquoi il a fallu tellement de temps pour arriver à une formulation des lois de la nature qui inclue l’irréversibilité et les probabilités. L’une des raisons en est certainement d’ordre idéologique : c’est le désir d’accéder à un point de vue quasi divin sur la nature. Que devient le démon de Laplace dans le monde que décrivent les lois du chaos ? Le chaos déterministe nous apprend qu’il ne pourrait prédire le futur que s’il connaissait l’état du monde avec une précision infinie. Mais on peut désormais aller plus loin car il existe une forme d’instabilité dynamique encore plus forte, telle que les trajectoires sont détruites quelque soit la précision de la description. Ce type d’instabilité est d’une importance fondamentale puisqu ïl s’applique, comme nous le verrons, aussi bien à la dynamique classique qu’à la mécanique quantique. ll est central dans tout ce livre. Une fois de plus, notre point de départ est le travail fondamental d’Henri Poincaré à la fin du XIXème siècle [23]

Nous avons déjà vu que Poincaré avait établi une distinction fondamentale entre systèmes stables et systèmes instables. Mais il y a plus. Il a introduit la notion cruciale de "système dynamique non intégrable". Il a montré que la plupart des systèmes dynamiques étaicnt non intégrables. I1 s’agissait de prime abord d’un résultat négatif, longtemps considéré comme un simple problème de technique mathématique. Pourtant comme nous allons le voir, ce résultat exprime la condition sine qua non à toute possibilité d’articuler de manière cohérente le langage de la dynamique à ce monde en devenir qui est le nôtre. Qu’est-ce en effet qu’un système intégrable au sens de Poincaré ? Tout système dynamique pent être caractérisé par une énergie cinétique, qui dépend de la seule vitesse des corps qui le composent, et par une énergie potentielle, qui dépend de l’interaction entre ces corps, c’est-à-dire de leurs distances relatives. Un cas particulièrement simple est celui de particules libres, dénuées d’interactions mutuelles. Dans ce cas, il n y a pas d’énergie potentielle ct le calcul de la trajectoire devient trivial. Un tel système est intégrable au sens de Poincaré. On peut montrer que tout système dynamique intégrable peut être représenté comme s’il était constitué de corps dépourvus d’interactions. Nous reviendrons au chapitre V sur le formalisme hamiltonien qui permet ce type de transformation. Nous nous bornons ici à présenter la définition de 1’intégrabilité énoncée par Poincaré : un système dynamique intégrable est un système dont on peut définir les variables de telle sorte que l’énergie potentielle soit éliminée, c’est-à-dire de telle sorte que son comportement devienne isomorphe à celui d’un système de particules libres sans interaction. Poincaré a montré qu’en général de telles variables ne peuvent pas être obtenues. Des lors, en général, les systèmes dynamiques sont non intégrables. Si la démonstration de Poincaré avait conduit à un résultat différent, s’il avait pu montrer que tous les systèmes dynamiques étaient intégrables, jeter un pont entre le monde dynamique et le monde des processus que nous observons aurait été exclu. Dans un monde isomorphe à un ensemble de corps sans interaction, il n’y a pas de place pour la flèche du temps ni pour l’auto-organication, ni pour la vie. Mais Poincaré n’a pas seulement démontré que l’intégrabilité s’applique seulement à une classe réduite de systèmes dynamiques, il a identifié la raison du caractère exceptionnel de cette propriété : 1’existence de résonance entre les degrés de liberté du système. Il a, ce faisant, identifié le problème à partir duquel une formulation élargie de la dynamique devient possible. La notion de résonance caractérise un rapport entre des fréquences. Un exemple simple de fréquence est celui de l’oscillateur harmonique, qui décrit le comportement d’une particule liée à un centre par une force proportionnelle à la distance : si on écarte la particule du centre, elle oscillera avec une fréquence bien définie. Considérons maintenant le cas le plus familier d’oscillateur, celui du ressort qui, éloigné de sa position d’équilibre, vibre avec une fréquence caractéristique. Soumettons un tel ressort à une force extérieure, caractérisée elle aussi par une fréquence que nous pouvons faire varier. Nous observons alors un phénomène de couplage entre deux fréquences. La résonance se produit lorsque les deux fréquences, celle du ressort et celle de la force extérieure, correspondent à un rapport numérique simple (l’une des fréquences est égale à un multiple entier de l’autre). L’amplitude de la vibration du pendule augmente alors considérablement. Le même phénomène se produit en musique, lorsque nous jouons une note sur un instrument. Nous entendons les harmoniques. La résonance "couple" les sons. Les fréquences, et en particulier la question de leur résonance, sont au coeur de la description des systèmes dynamiques. Chacun des degrés de liberté d’un système dynamique est caractérisé par une fréquence. La valeur des différentes fréquences dépend en général du point de l’espace des phases. Considérons un système à deux degrés de liberté, caractérisé par les fréquences w1 et w2. Par définition, en chaque point de l’espace des phases où la somme n1w1+n1w2 s’annule pour des valeurs entières, non nulles de n1 et n2 nous avons résonance, car en un tel point n1/n2=-w2/w1. Or, le calcul de la trajectoire de tels systèmes fait intervenir des dénominateurs de type 1/(n1w1+n2w2), qui divergent donc aux points de résonance, ce qui rend le calcul impossible. C’est le problème des petits diviseurs, déjà souligné par Le Verrier. Ce que Poincaré a montré, c’est que les résonances et les dénominateurs dangereux qui leur correspondent constituaient un obstacle incontournable s’opposant à l’intégration de la plupart des systèmes dynamiques. Poincaré avait compris que son résultat menait à ce qu’il appela "le problème général de la dynamique", mais ce problème fut longtemps négligé. Max Born a écrit : "Il serait vraiment remarquable que la Nature ait trouvé le moyen de résister au progrès de la connaissance en ce cachant derrière le rempart des difficultés analytiques du problème à n-corps" [...]

[21] H. Poincaré, "La valeur de la Science", Paris Flammarion, 1913, P210 [22] B Mandelbrot, "The Fractal Geometry of Nature", San Francisco, J.Wiley, 1982 [23] H. Poincaré, "Les méthode nouvelles de la rnécanique", Paris, Gauthier-Villars 1893 (Dover 1957).

Remarque : c’est une demie explication car il resterait à savoir d’où vient le dit "point de vue divin". En fait, ce point de vue divin n’est pas celui de n’importe quelle religion. Par exemple, ce n’est pas celui du taoisme, ni du boudhisme, ni même de l’animisme. Le point de vue divin en question est le point de vue de dieux techniciens, soit Grecs, Hébreux ou dérivés [...]

Nous pouvons désormais aller au delà du résultat négatif de Poincaré et montrer que la non-intégrabilité ouvre, comme les systèmes chaotiques, la voie à une formulation statistique des lois de la dynamique. Page 47

J’ai toujours pensé que la science était un dialogue avec la nature. Comme dans tout dialogue véritable les réponses sont souvent être inattendues. (...)

Adolescent, j’étais fasciné par l’archéologie, la philosophie et la musique. [...] Les sujets qui intéressaient avait toujours été ceux où le temps jouait un rôle essentiel, que ce soit l’émergence des civilisations, les problèmes éthiques associés à la liberté humaine où l’organisation temporelle des sons en musique. Mais la menace de la guerre pesait et il semblait plus raisonnable que je me dirige vers une carrière dans les sciences "dures". C’est ainsi que j’entamai des études de Physique et de Chimie à l’Université libre de Bruxelles. Après tant d’années je ne peux pas me souvenir précisément de mes réactions, mais il me semble que j’ai ressorti étonnement et frustration. En physique, le temps était considéré comme un simple paramètre géométrique. Plus de cent ans avant Einstein et Minkowski, en 1796 déjà, Lagrange avait baptisé la dynamique "une géométrie à 4 dimensions". Einstein affirmait que le temps associé à l’irréversibilité était une illusion. Étant donné mes premiers intérêts, c’était une conclusion qu’il m’était impossible d’accepter, mais même aujourd’hui la tradition d’un temps spatialisé reste toujours vivante. (...)

Je ne suis certainement pas le premier à avoir senti que cette spatialisation du temps était incompatible tant avec l’univers évolutif que nous observons qu’avec notre expérience humaine. Ce fut d’ailleurs le point de départ du philosophe Henri Bergson, pour qui "le temps est invention où il n’est rien du tout". J’ai déjà cité l’article "le possible et le réel", une oeuvre assez tardive puisque l’article fut écrit en 1930 à l’occasion de son prix Nobel Bergson y parle du temps comme "jaillissement effectif de nouveauté imprévisible" dont témoigne notre expérience de la liberté humaine mais aussi de l’indétermination des choses. En conséquence, le possible est plus riche que le réel. L’univers autour de nous doit être compris à partir du possible , non à partir d’un quelconque état initial dont il pourrait, de quelque manière, être déduit. (...)

Remarque : et même probablement, comme somme, comme intégrale des possibles

Comme l’a écrit le grand physicien A.S. Eddington : "dans toute tentative pour construire un pont entre les domaines d’expériences qui appartiennent aux dimensions spirituelles et aux dimensions physiques, le temps occupant la position cruciale". (...)

Il me semblait que nier toute pertinence de la physique en ce qui concerne le temps était payer un prix trop élevé . Après tout, la science était un exemple unique de dialogue fructueux entre l’homme et la nature. N’était-ce pas parce que la science classique s’est cantonnée à l’étude de problèmes simples qu’elle a pu réduire le temps à un paramètre géométrique ? [...] Le temps ne serait-il pas une propriété émergente ? Mais il faut alors découvrir ses racines. Jamais la flèche du temps n’émergera d’un monde régi par des lois temporelles symétriques. J’ai acquis la conviction que irréversibilité macroscopique était l’expression d’un caractère aléatoire niveau microscopique. J’étais encore très loin des contributions résumées au chapitre précédent, où l’instabilité impose une reformulation des lois fondamentales classiques et quantiques, même au niveau microscopique. (...°

Pour la grande majorité des scientifiques, la thermodynamique devrait se limiter de manière stricte à l’équilibre. Pour eux, l’irréversibilité associée à un temps unidirectionnel était une hérésie. Lewis alla jusqu’à écrire : "nous allons voir que presque partout le physicien a purifié sa science de l’usage d’un temps unidirectionnel ... Étranger à idéal de la physique." (....)

Après mon exposé, le plus grand expert en la matière fit le commentaire suivant : "je suis étonné que ce jeune homme soit tellement intéressé par la physique de non équilibre. Les processus irréversibles sont transitoires. Pourquoi alors ne pas attendre et étudier l’équilibre comme tout le monde ?" J’ai été tellement étonné que je n’ai pas eu la présence d’esprit de lui répondre : "Mais nous aussi nous sommes des êtres transitoires. N’est il pas naturel de s’intéresser à notre condition humaine commune ?". J’ai ressenti toute ma visite l’hostilité que suscite chez les physiciens le temps unidirectionnel. [...] Partout autour de nous nous voyons l’émergence de structures, témoignage de la créativité de la nature pour utiliser le terme de Whitehead. J’étais persuadé que, d’une manière ou d’une autre, cette créativité était liée aux processus irréversibles.

(....)

Contrairement aux systèmes soit à l’équilibre soit proches de l’équilibre, les systèmes loin de l’équilibre ne conduisent plus à un extremum d’une fonction telles que l’énergie libre où la production d’entropie. En conséquence, il n’est plus certain que les fluctuations soient amorties. Il est seulement possible de formuler les conditions suffisantes de stabilité que nous avons baptisé "critère général d’évolution". Ce critère met en jeu le mécanisme des processus irréversibles dont le système est le siège. Alors que à l’équilibre et près de l’équilibre, les lois de la nature sont universelles, loin de l’équilibre elles deviennent spécifiques, elles dépendent du type de processus irréversibles. Cette observation est conforme à la variété des comportements de la matière que nous observons autour de nous. Loin de l’équilibre, la matière acquiert de nouvelles propriétés où les fluctuations, les instabilités jouent un rôle essentiel : la matière devient active. (....)

La thermodynamique permet de formuler les conditions nécessaires à l’apparition de structures dissipatives en Chimie. Elles sont de deux types : Les structures dissipatives se produisant dans des conditions éloignées de l’équilibre, il y a toujours une distance critique en deçà de laquelle la branche thermodynamique est stable. Les structures dissipatives impliquent l’existence d’étapes catalytiques. Cela signifie qu’il existe dans la chaîne des réactions chimiques une étape dans laquelle un produit intermédiaire Y est obtenu à partir d’un produit intermédiaire X alors que dans une autre étape X est produit et à partir de Y. Ces conditions, remarquons-le, sont satisfaites par tous les organismes vivants. Les enzymes, qui sont codées dans le matériel génétique, assurent une richesse et une multiplicité de réactions catalytiques sans équivalent dans le monde inorganique. Et sans elles, le matériel génétique resterait lettre morte.

(....)

La réaction de Belousov-Zhabotinski constitue un exemple spectaculaire d’oscillations chimiques qui se produisent en phase liquide loin de l’équilibre. Je ne décrirai pas ici cette réaction. Je veux seulement évoquer notre émerveillement lorsque nous vîmes cette solution réactive devenir bleue, puis rouge, puis bleue à nouveau... Aujourd’hui, bien d’autres réactions oscillantes sont connues, mais la réaction de Belousov-Zhabotinski garde une importance historique. Elle a été la preuve que la matière loin de l’équilibre acquiert bel et bien de nouvelles propriétés. Des milliards de molécules évoluent ensemble et cette cohérence se manifeste par le changement de couleur de la solution. Cela signifie que des corrélations à longue portée apparaissent dans des conditions de non équilibre, des corrélations qui existent pas à l’équilibre. Sur un mode métaphorique, on peut dire qu’à l’équilibre la matière est aveugle, alors que loin de l’équilibre elle commence à voir. Et cette nouvelle propriété, cette sensibilité de la matière à elle-même et à son environnement, est liée à la dissipation associée aux processus irréversibles. (...)

L’homogénéité du temps (comme dans les oscillations chimiques), ou de l’espace (comme dans les structures de Türing), ou encore de l’espace et du temps simultanément (comme dans les ondes chimiques) est brisée. De même, les structures dissipatives se différencient intrinsèquement de leur environnement. (...)

A propos des structures dissipatives, nous pouvons parler d’"auto organisation". Même si nous connaissons l’état initial du système, les processus donc il est le siège et les conditions aux limites, nous ne pouvons pas prévoir lequel des régimes d’activité ce système va choisir. Les bifurcations ne peuvent elles nous aider à comprendre l’innovation et la diversification dans d’autres domaines que la physique ou la chimie ? (...)

L’activité humaine, créative et innovante, n’est pas étrangère à la nature. On peut la considérer comme une amplification et une intensification de traits déjà présents dans le monde physique, et que la découverte des processus loin de l’équilibre nous a appris à déchiffrer. (....)

Rapport aux communautés européennes.

Dans un rapport récent aux Communautés européennes, C.K. Biebracher, G Nicolis et P. Schuster ont écrit : "Le maintien de l’organisation dans la nature n’est pas - et ne peut pas être - réalisé par une gestion centralisée, l’ordre ne peut être maintenu que par une auto-organisation. Les systèmes auto-organisateurs permettent l’adaptation aux circonstances environnementales ; par exemple, ils réagissent à des modifications de l’environnement grâce à une réponse thermodynamique qui les rend extraordinairement flexibles et robustes par rapport aux perturbations externes. Nous voulons souligner que la supériorité des systèmes auto-organisateurs par rapport à la technologie humaine habituelle qui évite soigneusement la complexité et gère de manière centralisée la grande majorité des processus techniques. Par exemple, en chimie synthétique les différentes étapes réactionnelles sont soigneusement séparées les unes des autres, et les contributions liées à la diffusion des réactifs sont évitées par brassage. Une technologie entièrement nouvelle devra être développée pour exploiter le grand potentiel d’idées et de règles des systèmes auto-organisateurs en matière de processus technologiques. La supériorité des systèmes auto-organisateurs est illustrée par les systèmes biologiques où des produits complexes sont formés avec une précision, une efficacité, une vitesse sans égale". La Fin des Certitudes

C.K. Biebracher, G Nicolis et P. Schuster , Self Organisation in the Physico-Chemical and Life sciences, Report EUR 16546, European Commission 1995.

La nature nous présente en effet l’image de la création, de l’imprévisible nouveauté. Notre univers a suivi un chemin de bifurcations successives : il aurait pu en suivre d’autres. Peut-être pouvons-nous en dire autant pour la vie de chacun d’entre nous. (...)

L’existence d’une flèche du temps n’est pas une question de convenance. C’est un fait imposé par l’observation. (...)

L’application de Bernouilli introduit dès le départ une direction privilégiée du temps. Si nous prenons l’application inverse, nous obtenons un point attracteur unique, vers lequel convergent toutes les trajectoires quelle que soit la condition initiale. Voici la symétrie du temps est déjà brisée au niveau de l’équation du mouvement. La notion trajectoire n’est un mode de représentation adéquat que si la trajectoire reste à peu près la même lorsque nous modifions légèrement les conditions initiales. Les questions que nous formulons en physique doivent recevoir une réponse robuste, qui résiste à l’à peu près. La description en termes de trajectoires n’a pas ce caractère robuste. C’est la signification de la sensibilité aux conditions initiales. Au contraire, la description statistique ne présente pas cette difficulté. C’est donc à ce niveau statistique que nous devons formuler les lois du chaos et c’est également à ce niveau que l’opérateur de Perron-Frobenius admet de nouvelles solutions.

(...)

Les systèmes non intégrables de Poincaré seront ici d’une importance considérable. Dans ce cas, la rupture entre la description individuelle (trajectoire ou fonction d’onde) et la description statistique sera encore plus spectaculaire. Avait comme nous le verrons, pour de tels systèmes, le démon de Laplace reste impuissant, quelle que soit sa connaissance, finie ou même infinie,. Le futur n’est plus donné. Il devient, comme l’avait prédit le poète Paul Valéry, "une construction".

(...)

La non-intégrabilité est due aux résonances. Or, les résonances expriment des conditions qui doivent être satisfaites par les fréquences : elles ne sont pas des événements locaux qui se produisent à un instant donné. Elles introduisent donc un élément étranger à la notion de trajectoire, qui correspond à une description locale d’espace temps.

(...)

La physique de l’équilibre nous a donc inspiré une fausse image de la matière. Nous retrouvons maintenant la signification dynamique de ce que nous avions constaté au niveau phénomène logique : la matière à l’équilibre est aveugle et, dans les situations de non équilibre, elle commence à voir.

(...)

C’est parce que, selon les termes d’Heisenberg, nous sommes à la fois "acteurs" et "spectateurs" que nous pouvons apprendre quelque chose de la nature. Cette communication, cependant, exige un temps commun. C’est ce temps commun qu’introduit notre approche tant en mécanique quantique que classique. [...) La direction du temps est commune à l’appareil de mesure et à l’observateur. Il n’est plus nécessaire d’introduire une référence spécifique à la mesure dans l’interprétation du formalisme. [...] Dans notre approche, l’observateur et ses mesures ne jouent plus un rôle actif dans l’évolution des systèmes quantiques, en tous cas, pas plus qu’en mécanique classique. Dans les deux cas nous transformons en action l’information que nous recevons du monde environnant. Mais ce rôle, s’il est important à l’échelle humaine, n’a rien à voir avec celui de démiurge que la théorie quantique traditionnelle assignait à l’homme, considéré comme responsable de l’actualisation des potentialités de la nature. En ce sens, notre approche restaure le sens commun. Elle élimine les traits anthropocentriques implicites dans la formulation traditionnelle de la théorie quantique.

(...)

La science est un dialogue avec la nature. Mais comment un tel dialogue est-il possible ? Un monde symétrique par rapport au temps serait un monde inconnaissable. Toute prise de mesure, préalable à la création de connaissance, présuppose la possibilité d’être affectés par le monde, que ce soit nous qui soyons affectés ou nos instruments. Mais la connaissance ne présuppose pas seulement un lien entre celui qui connait et ce qui est connu, elle exige que ce lien crée une différence entre passé et futur. La réalité du devenir est la condition sine qua non à notre dialogue avec la nature.

(...)

Comprendre la nature a été l’un des grands projets de la pensée occidentale. Il ne doit pas être identifié avec celui de contrôler la nature. Aveugle serait le maître qui croirait comprendre ses esclaves sous prétexte que ceux-ci obéissent à ses ordres. Bien sûr, lorsque nous nous adressons à la nature, nous savons qu’il ne s’agit pas de la comprendre à la manière dont nous comprenons un animal ou un homme. Mais là aussi la conviction de Nabokov s’applique : "ce qui peut être contrôlé n’est jamais tout à fait réel, ce qui est réel ne peut jamais être rigoureusement contrôlé."

(...)

Le déterminisme a des racines anciennes dans la pensée humaine, et il a été associé aussi bien à la sagesse, à la sérénité qu’au doute et au désespoir. La négation du temps, l’accès à une vision qui échapperait à la douleur du changement, est un enseignement mystique. Mais la réversibilité du changement n’avait, elle, été pensée par personne : "Aucune spéculation, aucun savoir n’a jamais affirmé l’équivalence entre ce qui se fait et ce qui se défait, entre une plante qui pousse, fleurit et meurt, et une plante qui ressuscite, rajeunit et retourne vers sa graine primitive, entre un homme qui mûrit et apprend, et un homme qui devient progressivement enfant, puis embryon, puis cellule." (...)

A quelque niveau que ce soit, la physique et les autres sciences confirment notre expérience de la réalité : nous vivons dans un univers en évolution. [...] La dernière forteresse qui résistait à cette affirmation vient de céder. Nous sommes maintenant en mesure de déchirer le message de l’évolution tel qu’il prend racine dans les lois fondamentales de la physique. Nous sommes désormais en mesure de déchiffrer sa signification en termes d’instabilité associée au chaos déterministe et à la non-intégrabilité. Le résultat de notre recherche est en effet l’identification de systèmes qui imposent une rupture de l’équivalence entre la description individuelle (trajectoires, fonctions d’onde) et la description statistique d’ensembles. Et c’est au niveau statistique que l’instabilité peut être incorporée dans les lois fondamentales. Les lois de la nature acquièrent alors une signification nouvelle : elle ne traitent plus de certitudes mais de possibilités. Elles affirment le devenir et non plus seulement l’être. Elles décrivent un monde de mouvements irréguliers, chaotiques, un monde plus proche de celui qu’imaginaient les atomiques anciens que des orbites newtoniennes.

Lire aussi

Lire encore

Lire enfin

Lire toujours

Irréversibilité

On a longtemps pensé que les lois de la physique étaient réversibles. Les valeurs des paramètres dans les lois de la nature devaient y apparaître de façon qu’en changeant le signe, cela ne change pas la loi. La réversibilité du phénomène s’exprimait donc dans la symétrie des lois de la nature. La seule apparition d’une irréversibilité concernait la thermodynamique qui, étrangement, reconnaissait une « flèche du temps » puisqu’une loi de la thermodynamique affirmait que tout système isolé va vers une perte de niveau d’organisation appelée entropie. Exemple typique : un mélange de deux gaz ou de deux liquides à des températures différentes menait à un équilibre qui établissait un niveau moyen puis l’immobilité. La perte de niveaux d’ordre semblait irrémédiable. Cette loi d’entropie semblait contredire ce que l’on constatait dans certains phénomènes physiques, et tout particulièrement le phénomène de la vie qui produit sans cesse de l’organisation et de la complexification au lieu de détruire des niveaux d’organisation et qui ne tend pas vers l’immobilité.

Paradoxalement la science moderne a été à la fois vers la généralisation de la notion d’irréversibilité et vers des systèmes dynamiques néguentropiques c’est-à-dire producteurs de niveaux d’organisation. La vie est, en effet, marquée par l’auto-organisation. L’existence d’un individu, depuis l’œuf originel, est faite de diversification des cellules, de construction de relations entre elles et de niveaux supplémentaires de cette organisation. Ensuite, elle produit des niveaux d’organisation entre les individus et les groupes d’individus.

Et l’auto-organisation est loin d’en être restée à étudier le vivant. Elle concerne également la matière dite inerte et qui connaît des développements dynamiques. L’exemple le plus commun est le cristal. Non seulement il reproduit un schéma à l’identique mais le cristal peut sauter d’un ordre à un autre, par modification de structure voir la glace ou la neige par exemple). La vie, elle-même, est un sous-produit de cette capacité des ordres moléculaires de changer leur disposition stéréoscopique et, du coup, leurs interactions. Et ce à grande vitesse et avec une dépense énergétique extrêmement faible.

D’où provient fondamentalement l’irréversibilité dans les transformations de la matière et quelles en sont les conséquences ? Les exemples aussi nombreux que divers d’irréversibilité ont cependant un point commun : l’irréversibilité est un sous-produit de l’interaction d’échelle. Il y a des niveaux imbriqués de la matière et ces niveaux ont des rétroaction entre niveaux inférieurs et supérieurs. L’irréversibilité provient du saut d’un niveau à l’autre.

L’existence de la matière, elle-même, est un produit de cette irréversibilité au même titre que l’existence de la vie. Dès que la matière, dès que la vie, dès qu’une des formes nouvelles de l’un ou de l’autre, apparaissent, elles produisent les éléments de leur reproduction. L’irréversibilité signifie qu’il y a eu un événement dont l’importance n’a pu être effacée. Dès lors, la nature a une histoire marquée par des jalons. Elle n’efface pas son passé.

Cette histoire marque la matière. Ainsi, les noyaux lourds, instables, connaissent des décompositions nucléaires, ou radioactives, au bout d’un certain temps. Une matière livre son âge en fonction de la proportion de matière radioactive déjà décomposée. Nous avons un âge en tant qu’individus. Notre espèce a également un âge. Notre galaxie, notre soleil, notre planète, les roches qui nous entourent ont un âge. Tous ces âges sont des manifestations d’une irréversibilité fondamentale du phénomène « matière ».

Pourquoi la science a mis du temps à comprendre cette importance de l’irréversibilité ? On a commencé par étudier la réalité à un seul niveau d’organisation, et, dans ce cas, cette irréversibilité n’apparaît pas puisqu’il n’y a pas interaction d’échelle. Par exemple, en mécanique, si on ne prend pas en considération l’interaction des objets en mouvement avec le vide, il n’y a qu’un seul mouvement et il peut sembler qu’en inversant le sens du temps, le mouvement serait exactement inversé. Par contre, dès qu’on étudie des chocs brutaux entre objets qui se cassent, il n’est plus possible d’inverser le temps. On n’a jamais vu des objets cassés se recomposer spontanément. La brisure a émis de l’énergie qui est une agitation à un niveau hiérarchique inférieur. Ce passage au niveau inférieur est non-linéaire et irréversible.

Fondamentalement, la matière a un caractère irréversible car, au travers des disparitions et apparitions de structures particulaires dans le vide, la matière reproduit les mêmes structures globalement. La particule apparaît et disparaît en un temps très court. Mais elle réapparaît toujours sous la même forme que précédemment. C’est cette « mémoire » qui fait que la matière semble avoir une existence continue. Cependant, les événements qui se produisent pour cette structure s’effacent régulièrement du fait de l’interaction avec l’environnement. C’est ce que l’on appelle la décohérence. Du coup, la particule ne peut se souvenir à l’échelle matérielle que de ses constantes (charge, masse, etc). Par contre, à une échelle inférieure, elle peut se souvenir de son spin qui marque l’évolution de l’environnement (charges virtuelles u vide). A ce niveau, l’écoulement du temps est aboli parce que le temps est un facteur émergent du niveau supérieur. Dans le vide, le temps est désordonné. Pour le corpuscule de lumière, le temps ne s’écoule pas. L’irréversibilité n’existe qu’au niveau de la matière au dessus du niveau de la particule de masse.

 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

L’IRRÉVERSIBILITÉ .

1. Introduction.
Le problème de l’irréversibilité est celui de l’évolution des systèmes macroscopiques, c’est-à-dire constitués d’un nombre immense de molécules en perpétuelle agitation. L’exemple typique est le gaz ; mais n’importe quel objet matériel dont la masse est de l’ordre du gramme ou plus, est un tel corps, puisque les molécules qui le composent, même si elles sont très grosses, ont des masses infinitésimales si on les compare au gramme.
Ces corps se modifient spontanément du fait de l’agitation perpétuelle des molécules qui les composent. Cela se remarque dans la vie de tous les jours : l’air est agité par le vent, les liquides coulent, et même les solides s’altèrent (les métaux s’oxydent, les débris végétaux se décomposent, etc). Toutefois les objets isolés, c’est-à-dire écartés de tout contact ou échange avec le reste de l’univers, y compris l’émission ou l’absorption de rayonnement, évoluent vers un état asymptotique stable, appelé état d’équilibre. Le simple sens commun suffit à le comprendre : si un corps métallique est maintenu à l’écart de tout échange, il ne pourra s’oxyder puisqu’il faut pour cela une action de l’oxygène sur le corps. De même un liquide au repos dans un réservoir ne se mettra à couler que si on bascule ou perce le réservoir, l’air calme ne peut commencer à être agité par le vent que s’il est exposé à des masses d’air plus chaudes ou plus froides, etc. Si au lieu de mettre le corps métallique fraîchement poli à l’abri de l’oxygène et du monde extérieur, on isole ce corps avec une certaine quantité d’oxygène de tout le reste, il va s’oxyder progressivement jusqu’à ce qu’il n’y ait plus assez d’oxygène pour que la corrosion se poursuive, et on atteint aussi un état d’équilibre. Pour le sens commun, forgé par l’expérience quotidienne, il est bien évident qu’une fois la surface métallique corrodée, il n’arrivera plus jamais que l’oxygène se retire spontanément du métal pour retrouver sa forme gazeuse, en rendant ainsi tout son brillant à la surface métallique. C’est pourquoi on dit que la corrosion est une évolution irréversible. Bien entendu, il est possible d’appliquer au métal un traitement chimique qui sépare à nouveau l’oxygène et le métal, mais cela brise alors l’isolement du système corps métallique plus oxygène.
À la suite des travaux de Sadi Carnot (Réflexions sur la puissance motrice du feu, 1824) Rudolph Clausius a dégagé le concept de l’entropie d’un tel système isolé. Carnot analysait le principe des machines thermiques, qui produisent du mouvement à partir de la chaleur, en injectant de la vapeur ou de l’air sous pression dans un cylindre pour déplacer un piston. Il a constaté que la vapeur devait nécessairement se refroidir, et qu’avec une quantité de charbon donnée, l’énergie mécanique qu’on peut récupérer est d’autant plus élevée que la vapeur a plus refroidi. Plus précisément il établit la loi quantitative suivante : Si T1 est la température (absolue, en degrés Kelvin) à laquelle on a chauffé la vapeur et T0 la température à laquelle se refroidit cette vapeur après le passage dans le cylindre ou la turbine, l’énergie mécanique obtenue pour une quantité de chaleur fournie Q sera proportionnelle à (1  T0/T1) ×Q et non à Q seul. Cela veut dire que si par exemple on chauffe de l’air à 273 degrés Celsius dans un cylindre pour qu’il pousse un piston et déplace ainsi un objet lourd, puis qu’on le refroidit à 0 degrés Celsius pour que le piston se rétracte, le rapport 1  T0/T1 sera 0.5 et le travail mécanique de déplacement de l’objet lourd aura été la moitié de l’énergie calorifique dépensée pour chauffer l’air dans le cylindre. L’autre moitié se sera perdue dans le refroidissement de l’air. (N. B. cette perte par refroidissement est nécessaire, car sinon le piston ne se rétracte pas tout seul ; il faudrait le pousser et donc perdre le travail mécanique qu’on vient de gagner).
Le processus inverse de celui de la machine thermique consisterait à produire la chaleur à partir du mouvement mécanique au lieu de l’obtenir en brûlant du charbon. On peut produire de la chaleur à partir du mouvement par frottement ; on peut même convertir entièrement l’énergie mécanique en chaleur : dans ce cas le mouvement est complètement arrêté par l’effet des frottements. Or la loi de Carnot montre que, sauf si T0 = 0 ou T1 = , la chaleur ne peut jamais être entièrement convertie en mouvement. De toute façon la condition T0 = 0 est irréalisable, car pour que la vapeur puisse être refroidie à T0 = 0 il faut maintenir un système de refroidissement bien plus coûteux que l’énergie produite par la machine. Ce constat fait par Carnot marque l’origine du problème de l’irréversibilité : la transformation d’énergie mécanique en chaleur par les frottements n’est pas réversible, en ce sens qu’aucune machine thermique ne pourra retransformer intégralement la chaleur en le mouvement. Quantitativement, si nous reprenons l’exemple ci-dessus avec la vapeur refroidie de 273 degrés Celsius à 0 degrés Celsius, on peut dire que 4184 joules de travail mécanique permettent d’échauffer par frottement 1 kilogramme d’eau de 1 degré, mais inversement, avec une machine thermique fonctionnant entre 273 et 0 degrés Celsius, cette même quantité de chaleur ne permettrait de récupérer que 2092 joules de travail mécanique. Bien entendu dans une machine réelle une grande partie de la chaleur fournie se perd aussi par les défauts d’isolation, en sorte qu’on récupérerait encore bien moins que ces 2092 joules ; la loi de Carnot concerne le cas idéal où on aurait entièrement éliminé ces pertes. Elle dit que même si ces pertes sont rendues infinitésimales, il restera toujours une irréversibilité de principe, car le fonctionnement même de la machine exige qu’une partie de la chaleur soit perdue par le refroidissement.
L’explication fondamentale du comportement des corps macroscopiques tels que la dilatation des gaz chauffés dans les machines thermiques, mais aussi l’écoulement des liquides, l’évaporation, la fusion ou la solidification, les échanges de chaleur, etc, a été trouvée dans le comportement aléatoire des mouvements moléculaires. C’est en appliquant la loi des grands nombres au mouvement chaotique d’un nombre immense de molécules qu’on retrouve le comportement des corps macroscopiques. La loi de Carnot mentionnée plus haut peut être déduite ainsi, de même que toutes les lois gouvernant les échanges de chaleur, l’agitation des fluides, etc. Quoique cette explication statistique ait déjà été proposée comme hypothèse par Daniel Bernoulli (Hydrodynamica, 1731), elle n’a commencé à devenir pleinement opératoire que dans la seconde moitié du XIXe siècle. Les travaux fondateurs de cette Mécanique statistique ont été effectués pour l’essentiel par J. C. Maxwell (1860) et Ludwig Boltzmann (1872). L’irréversibilité mentionnée précédemment n’est qu’un aspect du comportement des corps macroscopiques, et au fond, elle ne joue qu’un rôle très marginal dans les préoccupations des physiciens car elle ne vaut que comme principe général et abstrait. Pour celui qui doit calculer ou décrire des phénomènes précis et particuliers, la Mécanique statistique est une science très technique dont le quotidien est bien éloigné des grands principes. Par contre, l’irréversibilité est le genre de problème qui a toujours fasciné les philosophes, ainsi que tous les amateurs passionnés de science, qui connaissent cette dernière bien plus par les ouvrages de vulgarisation que par l’étude approfondie et patiente de problèmes concrets mais ardus. De ce fait, le thème de l’irréversibilité inspire depuis Boltzmann toute une littérature pseudo- ou para-scientifique, pleine de confusion, de rêve, et de visions inexactes ou même carrément fausses.
Le point crucial de cette littérature est le paradoxe de Loschmidt. Joseph Loschmidt était un collègue de Boltzmann à l’université de Vienne. Après que Boltzmann eut exposé son explication statistique de l’irréversibilité en 1872, Loschmidt fit remarquer qu’il apparaissait comme paradoxal que, la Mécanique étant entièrement réversible (pour tout mouvement d’un système de points matériels tels que les molécules, le mouvement inverse, c’est-à-dire celui qu’on verrait dans un film projeté en marche arrière, est également possible et tout aussi probable), on aboutisse à des comportements irréversibles lorsqu’on considère un tel mouvement de manière statistique. L’énoncé de ce paradoxe se trouve très fréquemment dans les articles ou ouvrages de vulgarisation, mais sans aucune explication ; très souvent même, il est suggéré que ce paradoxe reste aujourd’hui encore non résolu, qu’il s’agirait là de l’un des mystères de la science. Or Boltzmann avait répondu à la question de Loschmidt, et sa réponse est essentiellement correcte. Elle peut certes être affinée par des connaissances plus récentes, mais rien ne change sur le fond. Par exemple Boltzmann postulait pour les molécules un mouvement newtonien, alors que la Mécanique statistique moderne postule un mouvement quantique, ce qui induit de grandes différences (satistiques de Fermi-Dirac et de Bose-Einstein). Mais l’argument de Loschmidt et la réponse à cet argument ne s’en trouvent pas affectés de manière vraiment essentielle : les mouvements microscopiques quantiques sont, tout comme les classiques, parfaitement réversibles, et la propriété statistique universelle qui explique l’irréversibilité est la même. Pourquoi alors la réponse de Boltzmann est-elle restée lettre morte, et pourquoi subsiste toute une tradition qui maintient le mystère autour de ce problème ?
La raison en est bien simple. Ce n’est pas pour les physiciens qu’il y a un paradoxe, mais seulement pour une certaine tradition philosophique et populaire, car l’explication scientifique du paradoxe'' n'est pas vulgarisable. Beaucoup de physiciens ont déploré cet état de fait et ont, comme moi ici, tenté d'y remédier; par exemple Rudolf Peierls a aussi donné une conférence à Birmingham en 1967 sur la question, qu'il reprend dans un chapitre de son livre [7], qui commence ainsi: We turn next to one of the most fundamental questions of statistical Mechanics, to which the answer has been known to some for a long time, but does not appear to be known very widely even today. The question is about the precise origin of the irreversibility in statistical mechanics. J'ajoute quenot even today’’, dit par Peierls en 1978, peut se dire encore aujourd’hui. Je conseille vivement la lecture de ce chapitre de Peierls, et j’en donnerai quelques extraits en annexe.
J’ai cependant dû constater que l’explication proposée par Peierls n’est pas complète, et d’ailleurs je n’ai trouvé d’explication vraiment complète dans aucun ouvrage. Pourtant, tout ce qu’il faut pour une telle explication complète est implicitement contenu dans le corpus théorique de la Physique statistique, déjà sous la forme que lui avait donné Ludwig Boltzmann vers 1880.
C’est bien la raison pour laquelle j’essaie encore, mais je n’ai pas écrit cet article essentiellement pour les physiciens, qui connaissent bien l’explication scientifique, même s’ils ne la détaillent pas jusqu’au bout ; c’est plutôt pour ceux qui sont curieux de science : je ne voudrais pas qu’ils soient égarés par la confusion qui entoure cette question, mais je leur demande un effort. Il faut en effet prendre en compte quelques aspects assez subtils du Calcul des probabilités. La réponse de Boltzmann est entièrement juste sur le fond, mais très difficile à expliquer. Je m’en suis rendu compte une fois de plus en écrivant le présent article. J’ai pourtant fait tout ce que j’ai pu pour donner l’explication statistique de l’irréversibilité d’une manière aussi directe que possible, c’est-à-dire sans passer par l’intermédiaire de théorèmes généraux, dont la démonstration très technique, longue, générale, et abstraite contribue fortement à l’opacité de l’explication. J’ai fait tout ce que j’ai pu, et cela reste long, bien trop long pour une revue de vulgarisation, et bien trop long pour notre époque où l’on n’écoute que ce qui se dit en moins de cinq minutes.
J’essaie quand même de le faire partager . . .

2. La nature microscopique des gaz.
Imaginons un gaz maintenu dans un récipient hermétique comme un nuage de poussières dont les grains sont les molécules. On va considérer un mouvement parfaitement newtonien pour le système de point matériels auquel on assimile l’ensemble des molécules du gaz. Les substitutions fréquentes des vitesses, chaque fois que la molécule frappe une paroi du récipient ou entre en collision avec une autre, crée un brouillage qui, au bout d’un certain temps (après plusieurs collisions) rend la distribution des molécules en apparence complètement aléatoire ; c’est ce qu’on appelle le chaos déterministe. L’analyse mathématique détaillée de ce mouvement de points qui entrent mutuellement en collision, incluant le calcul de l’évolution des positions et des vitesses a été effectué pour la première fois en 1860, par J. C. Maxwell [ref 2]. Ce texte de Maxwell est aujourd’hui encore l’exposé le plus clair, le plus rigoureux (malgré un raisonnement faux devenu célèbre, et corrigé six ans plus tard), et le plus pénétrant jamais écrit sur le sujet.
Cette notion de brouillage est essentielle pour la résolution du paradoxe de Loschmidt. En effet, le mouvement exact des molécules, c’est-à-dire leur mouvement newtonien mathématique, est réversible : en retournant toutes les vitesses (mais en conservant les positions), le système revient en arrière, en décrivant le mouvement exactement inverse de celui suivi jusque là ; de sorte que, si le système était dans une configuration X à l’instant 0, qu’on le laisse évoluer jusqu’à l’instant T où l’on inverse toutes les vitesses, il reviendra en parcourant dans l’ordre inverse toutes les configurations précédentes, et se retrouvera à l’instant 2T à nouveau dans la configuration X. Par configuration on entend ici la donnée des positions de toutes les molécules. Une notion plus précise est la configuration en phase : c’est alors la donnée des positions et des vitesses de toutes les molécules.
Dans ces conditions, comment se fait-il que l’on observe l’irréversibilité ? C’est justement la question posée par Joseph Loschmidt. Si on prend un gaz, initialement (c’est-à-dire à l’instant 0) comprimé dans un vase, il va se répandre tout autour et tendre à remplir tout l’espace disponible, mais on ne verra jamais un gaz répandu dans une grande pièce se comprimer progressivement et venir se concentrer dans un vase en faisant le vide alentour. Or, c’est bien ce qui devrait se produire si, une fois le gaz uniformément répandu dans la grande pièce, on inversait exactement la vitesse de chacune des N 1024 molécules qui le composent. Mais il faut inverser exactement les N vitesses. Si une seule de ces N 1024 vitesses est mal inversée, le mouvement de retour commencera effectivement comme l’inverse du mouvement précédent (c’est-à-dire que le gaz commencera à se recomprimer après l’inversion des vitesses), mais cela ne durera pas : l’unique vitesse mal inversée modifiera peu à peu les vitesses des autres molécules à cause des innombrables chocs, jusqu’à ce que la totalité du système soit brouillée (par le phénomène du chaos déterministe) et ne ressemble plus du tout au mouvement inverse. Même si l’unique vitesse mal inversée diffère très peu de l’inversion exacte, cela suffira à créer le chaos au bout d’un temps très court ; si la différence entre la vitesse mal inversée et l’inverse exact est , ce temps est proportionnel à (1 / ) 10N. Il faudrait donc prendre 10N pour que ce temps soit de l’ordre de la seconde. Cela signifie que l’erreur dans le retournement de la vitesse devrait porter sur la Nième décimale. Si N est de l’ordre du nombre d’Avogadro, soit N 1024, on voit ce que cela signifie !
On voit appararaître ici une des raisons pour lesquelles la parfaite réversibilité du mouvement microscopique des molécules ne se reflète pas au niveau des apparences macroscopiques : c’est parce qu’il est essentiellement impossible d’inverser les vitesses avec une telle précision. Cependant cette raison n’est pas la seule. Une autre est qu’il est tout aussi essentiellement impossible d’inverser (même approximativement) les vitesses de toutes les N molécules ; ce serait possible s’il n’y avait que cinq ou dix molécules, mais la difficulté qui intervient ici croît exponentiellement avec leur nombre.
Ces deux raisons ont en commun qu’elles ne sont pas liées à la nature physique du gaz, mais aux limites humaines. On pourrait en faire abstraction pour se concentrer sur l’objet (le gaz) en tant qu’existant indépendamment de l’homme et de ses limites. Par exemple en tenant un raisonnement comme celui-ci :
Une intelligence qui, pour un instant donné, connaîtrait toutes les forces dont la nature est animée, et la situation respective des êtres qui la composent, si d'ailleurs elle était assez vaste pour soumettre ces données à l'analyse, embrasserait dans la même formule les mouvements des plus grands corps de l'univers et ceux du plus léger atome: rien ne serait incertain pour elle, et l'avenir comme le passé serait présent à ses yeux. Pierre-Simon Laplace                                     Essai philosophique sur les probabilités   (1819)                 Frederick Reif. « Si un système isolé est dans une situation sensiblement non uniforme, il évoluera en fonction du temps pour se rapprocher de la situation ultime la plus uniforme où il est en équilibre (à l'exception de fluctuations qui ont peu de chances d'être importantes). » Irréversibilité La conclusion [encadrée ci-dessus] affirme que quand un système macroscopique isolé évolue en fonction du temps, il tend à le faire dans une direction bien définie: depuis un état de moindre désordre vers une situation de plus grand désordre. Nous pourrions observer le processus du changement en filmant le système. Supposons maintenant que nous projetions le film à l'envers (c'est-à-dire que nous passions le film dans le projecteur en marche arrière) nous observerions alors sur l'écran le même processus remontant le temps c'est-à-dire le processus qui apparaîtrait si l'on imaginait que la direction du temps a été renversée. Le film sur l'écran serait vraiment très curieux en ce sens qu'il présenterait un processus par lequel un système évolue depuis un état de grand désordre vers une situation moins désordonnée, chose que l'on n'observe jamais en réalité. En regardant simplement le film sur l'écran, nous pourrions conclure, avec une complète certitude, que le film est projeté à l'envers. Un processus est dit irréversible si le processus obtenu en changeant le signe du temps (celui qu'on observerait en projetant le film à l'envers) est tel qu'il n'apparaît pratiquement jamais en réalité. Mais tous les systèmes macroscopiques hors équilibre évoluent vers l'équilibre, c'est-à-dire vers une situation de plus grand désordre. ( . . . ) Notons bien qu'il n'y a rien dans les lois de la mécanique régissant le mouvement des particules du système qui indique un sens privilégié pour l'écoulement du temps. En effet, imaginons que l'on prenne un film du gaz isolé en équilibre ( . . . ) Commentaire: Ici il est fait référence à unfilm’’, en fait une simulation numérique du mouvement de 40 molécules dans une boîte rectangulaire. Cette simulation est une des grandes innovations didactiques du Berkeley Physics Course (pages 9 et 24 - 25), dont la force visuelle ne peut être reproduite en citation ; c’est pourquoi j’introduis ce commentaire. On peut mesurer le degré de désordre en donnant simplement en fonction du temps le nombre de molécules situées dans la moitié gauche de la boîte. La relation entre ce nombre et l’entropie est assez complexe, mais pour l’argumentation il suffit que les deux quantités aient la même croissance (que l’une soit fonction croissante de l’autre ; ainsi elles seront croissantes ou décroissantes en même temps et seront maximales ou minimales en même temps. Il s’agit donc de comprendre pourquoi on aboutit à l’irréversibilité alors que ce film est parfaitement réversible :
En regardant le film projeté sur l’écran, nous n’aurions aucun moyen de dire si le projecteur fonctionne dans le sens normal ou à l’envers. La notion de sens privilégié pour l’écoulement du temps n’apparaît que lorsque l’on considère un système macroscopique isolé dont nous avons de bonnes raisons de penser qu’il est dans une situation très spéciale non désordonnée à un certain temps t1. Si le système n’a pas été perturbé pendant longtemps et s’il atteint cette situation par le jeu des rares fluctuations à l’équilibre, il n’y a, en fait, rien qui indique le sens du temps. ( . . . )
Suite du commentaire : Cette dernière phrase est capitale : supposons que le système ne subit aucune rupture de son mouvement normal (mouvement newtonien avec collisions mutuelles ou avec la paroi de la boîte, mais surtout pas avec autre chose, comme par exemple une nouvelle paroi séparant la boîte en deux). Cela exprime le fait que le système est isolé. Il peut alors arriver que par hasard'' à un instant t1 toutes les molécules se trouvent dans la moitié droite de la boîte. Cela n'arrive pas souvent: avec quarante molécules, en admettant qu'entre deux vues successives dufilm’’ les molécules se soient déplacées en moyenne sur une distance de l’ordre du dixième de la largeur de la boîte, il faut laisser passer au moins 1013 vues instantanées pour avoir une chance d’observer cela. Avec 8 molécules, il suffirait de 2500 images, et avec 1024 molécules il faudrait quelque 10300 000 000 000 000 000 000 000 images. Pour un film au format 16 mm, cela correspond à une durée de projection de l’ordre de 100 secondes pour 8 molécules, de 10 000 ans pour 40 molécules, 10300 000 000 000 000 000 000 000 années pour 1024 molécules. Si vous regardez le film de 40 molécules pendant 10 000 ans, ne ratez pas l’instant où toutes les molécules seront dans la moitié gauche de la boîte (attention, l’événement ne dure qu’une fraction de seconde), car il serait dommage d’avoir attendu cet instant pendant 6000 ans et de le rater. Il n’aurait en effet guère de chances de se reproduire avant 10 000 nouvelles années. Lorsque cet événement se sera produit, découpez le morceau de film qui commence une minute avant et se termine une minute après et projetez le à l’endroit ou à l’envers. Il vous sera effectivement impossible de savoir lequel des deux sens de projection est plus réaliste que l’autre.
Mais dans aucune situation concrète de la vie réelle vous ne pourrez attendre 10300 000 000 000 000 000 000 000 années pour voir un gaz se concentrer spontanément dans une moitié de récipient. Si vous voulez mettre un gaz dans une bouteille vous le ferez passer par un tuyau, poussé par une pompe. D’où la conclusion :
Le système évolue toujours vers une situation de plus grand désordre que le temps se déroule en avant ou en arrière. La seule autre possibilité pour amener le système dans une situation particulière non désordonnée à un instant t1, c’est une interaction avec un autre système à un instant antérieur à t1 [c’est-à-dire une préparation]. Mais dans ce cas, le sens du temps est indiqué par la connaissance de cette interaction avec un autre système à un autre instant précédant t1.

Les textes suivants parlent de la même chose, avec seulement des différences de style.

L. Landau et E. Lifchitz.
Mais la contradiction apparaît néanmoins lorsqu’on considère un autre aspect de la question. Lorsqu’on a formulé la loi de la croissance de l’entropie, on a parlé de la conséquence la plus probable d’un état macroscopique pour un moment donné. Mais cet état devait surgir à partir d’autres états comme résultat des processus se déroulant dans la nature. La symétrie par rapport aux deux sens du temps veut dire que, pour tout état macroscopique arbitraire d’un système isolé à un certain moment t = t0, on peut affirmer que la conséquence la plus probable pour t > t0 est non seulement une augmentation de l’entropie, mais également que celle-ci ait surgi des états d’entropie supérieure ; en d’autres termes, le plus probable est d’avoir un minimum de l’entropie en fonction du temps pour le moment t = t0 pour lequel l’état macroscopique est choisi d’une manière arbitraire.
Mais cette affirmation n’est évidemment, en aucune mesure, équivalente à la loi de la croissance de l’entropie suivant laquelle dans tous les systèmes isolés existant dans la nature l’entropie ne diminue jamais (fluctuations tout à fait infimes mises à part). Et c’est justement ainsi formulée que la loi de la croissance de l’entropie se trouve entièrement confirmée par tous les phénomènes observés dans la nature. Soulignons qu’elle n’est en aucun cas équivalente à la loi formulée au début de ce paragraphe [celle sur la symétrie par rapport aux deux sens du temps], comme on pourrait le croire à tort. Pour passer d’un énoncé à l’autre il aurait fallu introduire la notion d’un observateur qui aurait artificiellement préparé'' à un certain moment le système isolé, de manière que la question de savoir son comportement antérieur tombe d'elle-même; il est évidemment tout à fait inadmissible de relier ainsi les propriétés de l'observateur aux lois physiques. Boltzmann. Ce n'est en aucune façon le signe avec lequel on compte les temps qui constitue la différence caractéristique entre un état organisé et un état dénué d'organisation. Si, dans l'état que l'on a adopté comme état initial de la représentation mécanique de l'univers, on venait à inverser exactement les directions de toutes les vitesses sans changer ni leurs grandeurs ni les positions des parties du système; si l'on parcourait, pour ainsi dire, à reculons, les différents états du système, ce serait encore un état non probable par lequel on débuterait et un état plus probable qu'on atteindrait par la suite. C'est seulement pendant le laps de temps qui conduit d'un état initial très peu probable à un état ultérieur beaucoup plus probable, que les états se transformemt d'une façon différente dans la direction positive des temps et dans la direction négative. Et un peu plus loin Pour l'univers tout entier, les deux directions du temps sont donc impossibles à distinguer, de même que dans l'espace, il n'y a ni dessus ni dessous. Mais, de même qu'en une région déterminée de la surface de notre planète, nous considérons comme le dessous la direction qui va vers le centre de la Terre, de même un être vivant dans une phase déterminée du temps et habitant un tel monde individuel, désignera la direction de la durée qui va vers les états les moins probables autrement que la direction contraire: la première sera pour lui le passé ou le commencement, et la seconde l'avenir ou la fin. Peierls. Peierls reprend d'abord le problème des molécules enfermées dans une boîte divisée par la pensée en deux moitiés (the two chambers problem’’) :
Some textbooks explain this paradox [Loschmidt’s paradox] by saying that, whereas particle mechanics makes predictions about the motion of individual particles, statistical mechanics makes probability statements about large ensembles of particles. This is true, but it dés not explain why the use of probabilities and statistics should create a difference between past and future where none existed before.
The real answer is quite different. Suppose from t = 0 when we assumed the particles distributed at random within each container and to move in random directions, we follow the particle trajectories, not for positive times, but negative t, i.e., into the past. This will give a curve for the entropy looking like the broken curve in figure [hereafter], and it will be the mirror image of the solid curve.
We see therefore that the symmetry in time is preserved fully in these two calculations. However, the solid curve to the right describes a situation which occurs in practice, and therefore provides the answer to a realistic question, whereas the broken curve to the left dés not.
The situation to which the broken, left-hand curve would be applicable would be the following : Arrange for particles at t = 0 to be distributed in given numbers over the two chambers [the two parts of the box], their positions being random in each chamber, and their velocites having a Maxwell-Boltzmann distribution. Ensure that prior to t = 0, at least after some finite T, there was no external interference, and observe the state of affairs at t = T. This is evidently impossible ; the only way in which we can influence the distribution of molecules at t = 0 is by taking action prior to that time.
On reconnaît dans ce passage essentiellement le même argument que dans [4], [5], [6] cités ci-dessus. Mais Peierls aborde encore le problème par un autre côté (le Stoßzahl Ansatz'' de Boltzmann,l’argument du nombre de collision’’). Considérons un flux de molécules en mouvement uniforme de vitesse [(va)\vec] ; cela correspond à un état macroscopique d’entropie non maximale. Dans ce flux, découpons par la pensée un cylindre étroit parallèle à la direction de ce flux, le cylindre a comme sur la figure ci-dessous :

Les molécules du cylindre a, qui ont toutes la même vitesse [(va)\vec], rebondissent sur l’obstacle diffuseur (the scatterer'', hachuré sur la figure), en sorte que leurs vitesses après cette collision sont diverses puisque le diffuseur est supposé courbe. Par conséquent dans le cylindre b de la figure, il ne reste plus qu'une partie des molécules qui avant la collision étaient dans le cylindre a, mais elles s'ajoutent à celles qui étaient en dehors du cylindre a et qui ont poursuivi leur trajectoire à la vitesse [(va)\vec] sans rencontrer de diffuseur. The Stosszahl Ansatz of Boltzmann now consists in the seemingly innocuous assumption that a [the density in cylinder a] equals the average densisty of molecules of this type anywhere in the gas, i.e., that there is nothing exceptional about the particular cylinder we have defined. This assumption is the origin of irreversibility, because if it is true, the corresponding statement about the cylinder labeled b in the figure is not true. The only special thing about cylinder a is that it contains the molecules which are going to collide with the scatterer; cylinder b contains those which have just collided. In non-equilibrium conditions, for example in the presence of a drift motion in the a direction, there will be more molecules in the gas as a whole moving in the a direction than in the b direction. Scattering by the center will therefore tend to increase the number in the b direction. If a is the same as elsewhere in the gas, b must then be greater than the average. If the scattering is compared to the time-reversed situation, we see a difference. To reverse the direction of time, we have to replace each molecule in b by one of the opposite velocity, and have them scattered by the target to travel in the direction opposite to that of a. The number would not be changed, and if b in the cylinder b differs from the average over the whole gas, it will also differ from what, with Boltzmann, we should assume about the inverse process. It seems intuitively obvious that the molecules should not be influenced by the fact that they are going to collide, and very natural that they should be affected by the fact that they have just collided. But these assumptions, which cause the irreversibility, are not self-evident. If we assume, however, that the state of the gas was prepared in some manner in the past, and that we are watching its subsequent time development, then it follows that correlations between molecules and scattering centers will arise only from past, but not from future, collisions. This shows that the situation is, in principle, still the same as in our two-chamber problem. L'argument n'est peut-être pas développé avec la clarté maximale, donc j'ajoute une petite explication supplémentaire. L'idée est ici la suivante: si au départ les molécules ont toutes la même vitesse [(va)\vec], tout le monde comprend que, à cause du diffuseur, les vitesses après collision seront désordonnées. En retournant le temps, l'intuition sera choquée que des vitesses désordonnées aboutissent à un flux ordonné, parce que ce processus inverse donnera l'impression que les molécules du cylindre b devaient savoir comment elles allaient rebondir sur le diffuseur, et devaient ajuster leur vitesse de telle manière qu'après collision elle devienne égale à [(va)\vec]. Elles devaient donc se déterminer d'après leur futur. Peierls veut ainsi montrer que l'inversion est contraire à la causalité. We have recognized the origin of the irreversibility in the question we ask of statistical mechanics, and we have seen that their lack of symmetry originates in the limitations of the experiments we can perform. ( . . . ) As long as we have no clear explanation for this limitation, we might speculate whether the time direction is necessarily universal, or whether we could imagine intelligent beings whose time runs opposite to ours ( . . . ) En attendant que l'on découvre l'explication de cette limitation, je propose de l'intégrer sans explication parmi les principes fondamentaux: il est impossible de réaliser un démon de Maxwell, tout comme on a fait pour l'inertie en attendant d'en trouver l'explication. Maxwell. Ce passage de Theory of Heat se trouve quelques pages avant la fin. La partie qui décrit ce qui sera plus tard appelé démon de Maxwell - par Lord Kelvin - est extrêmement célèbre (Imaginons cependant un être dont les facultés seraient si pénétrantes . . . ’’). Cependant la citation ci-dessous commence un peu avant ce passage célèbre et finit un peu au-delà afin de montrer qu’en 1871 Maxwell avait parfaitement compris que le point crucial du second principe n’est pas tant la croissance mathématique de l’entropie, que l’impossibilité de réaliser un état microscopique prédéfini. Cette lucidité pourra être confrontée à la confusion du débat qui perdure depuis 130 ans.
Un des faits les plus solidement établis de la Thermodynamique est que, dans un système qui est enfermé à l’intérieur d’une cloison ne permettant ni variation de volume ni échange de chaleur, et dont la température et la pression ont partout la même valeur, il est impossible de produire un écart de température sans fournir du travail. C’est là tout le sens du second principe de la thermodynamique ; ce dernier est sans aucun doute vérifié tant que nous ne manipulons les corps que par grandes masses et que nous ne disposons pas du pouvoir d’identifier et de manipuler les molécules individuelles qui composent ces masses. Imaginons cependant un être dont les facultés seraient si aigües qu’il serait en mesure de suivre chaque molécule dans son mouvement, tout en étant comme nous mêmes de conformation essentiellement finie ; alors il lui serait possible de réaliser ce qui nous est impossible. Car nous avons vu que les molécules d’un gaz de température uniforme contenu dans un récipient ne sont nullement animées de vitesses uniformément distribuées, bien que la vitesse moyenne soit pratiquement la même sur n’importe quel sous-ensemble suffisamment gros d’entre elles. Imaginons donc qu’un tel récipient soit divisé en deux parties A et B par une cloison séparatrice, dans laquelle serait pratiquée une petite ouverture et qu’un tel être capable de voir les molécules individuelles ouvre ou ferme cette ouverture de manière à ne laisser passer de A vers B que les seules molécules rapides, et de B vers A les seules molécules lentes. Cet être est ainsi en mesure de relever la température de la partie B au détriment de la partie A sans dépense de travail, ce qui est en contradiction avec le second principe.
Ce n’est là qu’un exemple parmi d’autres, dans lequel les conclusions que nous avons tirées de notre expérience avec les corps composées d’un grand nombre de molécules pourraient cesser d’être applicables à des méthodes d’observation et d’investigation plus fines telles que pourraient les mettre en oeuvre des êtres capables de percevoir et manipuler individuellement ces molécules que nous ne pouvons manipuler que par grandes masses.
Et puisqu’en les manipulant par masses nous n’avons aucun accès aux molécules individuelles, nous sommes bien obligés de recourir au calcul statistique ; ce pas accompli, nous abandonnons la méthode dynamique rigoureuse, par laquelle nous calculons le détail de chaque mouvement individuel.
N. B. Le passage ci-dessus est l’origine historique du démon de Maxwell ; c’est en effet dans Theory of Heat de 1871 que cette idée est publiée pour la première fois. Elle était cependant reprise d’une lettre de Maxwell à Peter Guthrie Tait en 1867.

Poincaré.
Voici maintenant deux extraits de H. Poincaré. Le principal argument avancé par Poincaré est celui du nécessaire retour de n’importe quel système dynamique à des états déjà occupés dans le passé. Il s’agit de la propriété des systèmes dynamiques que, ou bien les trajectoires sont périodiques, ou bien elles remplissent de manière dense l’hypersurface d’énergie. Si le système a occupé à l’instant t = 0 un état microscopique défini par les valeurs de toutes les coordonnées et impulsions, alors au bout d’un temps fini T il repassera aussi près qu’on voudra de cet état initial après s’en être écarté. Ainsi, si l’entropie avait une valeur non maximale S0 à t = 0, elle redescendra inévitablement à cette valeur à l’instant T, après avoir été maximale entretemps. Cet argument a été repris notamment par E. Zermelo (voir extraits de [12] et [13] ci-dessous). On ne reproduira pas ici les travaux de Poincaré sur ce point, ils sont bien trop techniques et de toute façon sont fort connus. On les trouvera dans [9], mais aussi dans n’importe quel ouvrage actuel sur le chaos.
L’extrait qui suit concerne un autre théorème qui affirme qu’une fonction des coordonnées et des vitesses d’un système dynamique ne peut en aucun cas être monotone.

« Parmi les tentatives qui ont été faites pour rattacher aux théorèmes généraux de la Mécanique les principes fondamentaux de la Thermodynamique, la plus intéressante est, sans contredit, celle que M. Helmholtz a développée dans son Mémoire sur la statique des systèmes monocycliques (Journal de Crelle, t. 97) et dans son Mémoire sur le principe de la moindre action (Journal de Crelle, t. 100). L’explication proposée dans ces deux Mémoires me paraît satisfaisante en ce qui concerne les phénomènes réversibles.
Les phénomènes irréversibles se prêtent-ils de la même manière à une explication mécanique ; peut-on, par exemple, en se représentant le monde comme formé d’atomes, et ces atomes comme soumis à des attractions dépendant des seules distances, expliquer pourquoi la chaleur ne peut jamais passer d’un corps froid sur un corps chaud ? Je ne le crois pas, et je vais expliquer pourquoi la théorie de l’illustre physicien ne me semble pas s’appliquer à ce genre de phénomènes.
Poincaré expose alors sa démonstration d’un théorème qui sera fréquemment invoqué dans la suite (voir plus bas les extraits de [14]). En voici le principe. Le système étant un système dynamique, on peut avoir les équations du mouvement exact de toutes les molécules sous la forme hamiltonienne ; si les xj sont les coordonnées et les pj les impulsions des molécules, on aura [H(x,p) étant l’hamiltonien du système] : et ceci doit être positif. Si un état quelconque du système correspond à l’équilibre, appelons pj(0) et xj(0) les coordonnées correspondantes et considérons le développement de Taylor des fonctions S et H en puissances de pj  pj(0) et xj  xj(0). Le terme linéaire est nul à cause du choix de l’origine. Poincaré écrit [j’ai modifié ses notations pour respecter les usages actuels] :
Pour ces valeurs (pj(0) et xj(0)), les dérivées du premier ordre de S s’annulent, puisque S doit atteindre son maximum. Les dérivées de H s’annulent également, puique ce maximum est une position d’équilibre et que dxj / dt et dpj / dt doivent s’annuler.
Si donc nous développons S et H suivant les puissances croissantes des pj  pj(0) et xj  xj(0), les premiers termes qui ne s’annuleront pas seront ceux du deuxième degré. Si, de plus, on considère les valeurs de pj et de xj assez voisines de pj(0) et xj(0) pour que les termes du troisième degré soient négligeables, S et H se réduiront à deux formes quadratiques en pj  pj(0) et xj  xj(0).
H sera encore une forme quadratique par rapport aux pj  pj(0) et aux xj  xj(0).
Pour que l’inégalité dS / dt > 0 soit satisfaite, il faudrait que cette forme fût définie et positive ; or il est aisé de s’assurer que cela est impossible si l’une des deux formes S et H est définie, ce qui a lieu ici.
Nous devons donc conclure que les deux principes de l’augmentation de l’entropie et de la moindre action (entendu au sens hamiltonien) sont inconciliables. Si donc M. von Helmholtz a montré, avec une admirable clarté, que les lois des phénomènes réversibles découlent des équations ordinaires de la Dynamique, il semble probable qu’il faudra chercher ailleurs l’explication des phénomènes irréversibles et renoncer pour cela aux hypothèses familières de la Mécanique rationnelle d’où l’on a tiré les équations de Lagrange et de Hamilton.

Maxwell admet que, quelle que soit la situation initiale du système, il passera toujours une infinité de fois, je ne dis pas par toutes les situations compatibles avec l’existence des intégrales, mais aussi près qu’on voudra d’une quelconque de ces situations.
C’est ce qu’on appelle le postulat de Maxwell. Nous le discuterons plus loin. ( . . . )
Et plus loin :
Tous les problèmes de Mécanique admettent certaines solutions remarquables que j’ai appelées périodiques et asymptotiques et dont j’ai parlé ici même dans un précédent article [9].
Pour ces solutions, le postulat de Maxwell est certainement faux.
Ces solutions, il est vrai, sont très particulières, elles ne peuvent se rencontrer que si la situation initiale est tout à fait exceptionnelle.
Il faudrait donc au moins ajouter à l’énoncé du postulat cette restriction, déjà bien propre à provoquer nos doutes : sauf pour certaines situations initiales exceptionnelles.
Ce n’est pas tout : si le postulat était vrai, le système solaire serait instable ; s’il est stable, en effet, il ne peut passer que par des situations peu différentes de sa situation initiale. C’est là la définition même de la stabilité.
Or, si la stabilité du système solaire n’est pas démontrée, l’instabilité l’est moins encore et est même peu probable.
Il est possible et même vraisemblable que le postulat de Maxwell est vrai pour certains systèmes et faux pour d’autres, sans qu’on ait aucun moyen certain de discerner les uns des autres.
Il est permis de supposer provisoirement qu’il s’applique aux gaz tels que la théorie cinétique les conçoit ; mais cette théorie ne sera solidement assise que quand on aura justifié cette supposition mieux qu’on ne l’a fait jusqu’ici.
On comprendra mieux l’ampleur du malentendu entre Poincaré (éminent représentant de la Physique mathématique) et la Physique réelle en évaluant quantitativement les grandeurs dont seules l’existence'', ou lafinitude’’, sont ici évoquées. En effet, le théorème de Poincaré sur l’éternel retour d’un système dynamique au voisinage de son état initial est un théorème qui s’énonce sous la forme :
pour tout , il existe un temps T au bout duquel le système repassera à une distance inférieure à  de son état initial.'' Poincaré interprète le second principe d'une manière analogue: pour lui, affirmer la croissance de l'entropie, c'est affirmer que pour tout t > t on doit avoir S(t)  S(t). Or le principe physique est très différent; il dit que pour toute durée physique l'entropie ne peut diminuer que d'une valeur infime, et pendant un temps très bref. Le théorème de Poincaré affirme qu'il existe un temps T au bout duquel l'entropie reprendra sa valeur initiale, mais il ne dit pas que ce temps est de l'ordre de 10300 000 000 000 000 000 000 000 années, ni que la durée du retour à la valeur intiale est de l'ordre d'une fraction de seconde. Le vrai second principe ne dit pas sans autre précision que l'entropie est une fonction croissante du temps. Si on veut l'énoncer sous une forme vraiment complète, cela donne ceci: a) Pour tout état initial du système sauf un nombre infime, et pendant des durées ayant un sens physique [donc incomparablement plus courtes que 10N, N étant le nombre de molécules], l'entropie du système ne s'écarte pas notablement d'une fonction croissante. b) Pendant chaque seconde de la durée d'existence physique du système isolé, l'entropie ne cesse de croître et décroître des millions de fois, en effectuant des oscillations qui sont toujours imperceptibles, car il est absolument impossible qu'un écart notable se produise spontanément etpar hasard’’ avant des temps bien supérieurs à 10N.

Voici maintenant la réponse de Boltzmann aux arguments de Poincaré. Ces derniers ont été rapportés aux physiciens de langue allemande par E. Zermelo (Wiedemanns Annalen, 1896, vol. 57, p. 485 et vol. 59, p. 793).

Boltzmann.
Le mémoire de M. Zermelo Über einen Satz der Dynamik und die mechanische Wärmetheorie'' montre que mes travaux sur le sujet n'ont malgré tout pas été compris; en dépit de cela, je dois cependant me réjouir de cette publication comme étant la première manifestation de l'intérêt suscité par ces travaux en Allemagne. Le théorème de Poincaré discuté au départ par M. Zermelo est bien entendu juste, mais son application à la théorie de la chaleur ne l'est pas. J'ai déduit la loi de répartition des vitesses de Maxwell du théorème probabiliste qu'une certaine grandeur H (en quelque sorte la mesure de l'écart de l'état du système par rapport à l'état d'équilibre) ne peut, pour un gaz en repos dans un récipient, que diminuer. La meilleure façon d'illustrer le mode de décroissance de cette grandeur sera d'en représenter la courbe de variation, en portant le temps t en abscisse et la quantité H(t)  Hmin en ordonnée; on obtiendra ainsi ce que j'appelle la courbe H. ( . . . ) La courbe reste alors la plupart du temps tout près de l'axe des abscisses. Ce n'est qu'à des instants extrêmement rares qu'elle s'en écarte, en formant ainsi une bosse, et il est clair que la probabilité d'une telle bosse décroît rapidement avec sa hauteur. À chacun des instants pour lesquels l'ordonnée de la courbe est très petite, règne la distribution des vitesses de Maxwell; on s'en écarte notablement là où il y a une grosse bosse. M. Zermelo croit alors pouvoir déduire du théorème de Poincaré que le gaz ne peut se rapprocher constamment de la distribution de Maxwell que pour certaines conditions initiales très particulières, en nombre infime comparé à celui de toutes les configurations possibles, tandis que pour la plupart des conditions initiales il ne s'en rapprocherait pas. Ce raisonnement ne me semble pas correct. ( . . . ) Si l'état [microscopique] initial du gaz correspond à une très grosse bosse, c'est-à-dire s'il s'écarte complètement de la distribution des vitesses de Maxwell, alors il s'en rapprochera avec une énorme probabilité, après quoi il ne s'en écartera plus qu'infinitésimalement pendant un temps gigantesque. Toutefois, si on attend encore plus longtemps, une nouvelle bosse notable de la courbe H finira par se produire à nouveau et si ce temps est suffisamment prolongé on verra même se reproduire l'état initial. On peut dire que, si le temps d'attente est infiniment long au sens mathématique, le système reviendra infiniment souvent à l'état initial. Ainsi M. Zermelo a entièrement raison quand il affirme que le mouvement est, au sens mathématique, périodique [ou quasi-périodique]; mais loin de contredire mes théorèmes, cette périodicité est au contraire en parfaite harmonie avec eux.         (Vienne, le 20 mars 1896) Cette argumentation magistrale se poursuit, mais je l'interromps ici avec regret pour éviter de rendre cette anthologie trop longue. Suite de la réponse de Boltzmann aux objections de Zermelo : Imaginons que nous retirions brusquement une cloison qui séparait deux gaz de nature différente enfermés dans un récipient [par exemple azote d'un côté et oxygène de l'autre]. On aurait du mal à trouver une autre situation où il y aurait davantage de variables aussi indépendantes les unes des autres, et où par conséquent l'intervention du Calcul des probabilités serait plus justifiée. Admettre que dans un tel cas le Calcul des probabilités ne s'applique pas, que la plupart des molécules ne s'entremêlent pas, qu'au contraire des parties notables du récipient contiendraient nettement plus d'oxygène, d'autres plus d'azote, et ce pendant longtemps, est une thèse que je suis bien incapable de réfuter en calculant dans le détail le mouvement exact de trillions [1012] de molécules, dans des millions de cas particuliers différents, et d'ailleurs je ne veux pas le faire; une telle vision ne serait pas assez fondée pour remettre en question l'usage du Calcul des probabilités, et les conséquences logiques qui s'ensuivent. D'ailleurs le théorème de Poincaré ne contredit pas l'usage du Calcul des probabilités, au contraire il parle en sa faveur, puisque ce dernier enseigne lui aussi que sur des durées fantastiques surviendront toujours de brefs instants pendant lesquels on sera dans un état de faible probabilité et de faible entropie, où par conséquent se produiront à nouveau des états plus ordonnés et même des états très proches de l'état initial. En ces temps prodigieusement éloignés dans le futur, n'importe quel écart notable de l'entropie par rapport à sa valeur maximale demeurera évidemment toujours hautement improbable, mais l'existence d'un très bref écart sera lui aussi [sur une telle durée prodigieusement longue] toujours hautement probable. En effet, le Calcul des probabilités enseigne bien que si par exemple on jette une pièce mille fois il est très peu probable d'avoir mille fois face (la probabilité en est 21000  10301); mais si on la jette 10302 fois, alors on n'a qu'une chance sur 45 000 de ne jamais avoir une série de mille faces consécutives. (reprise de la citation)    Il est clair aussi, d'après cet exemple [celui de l'oxygène et de l'azote], que si le processus se déroule de façon irréversible pendant un temps observable, c'est parce qu'on est parti délibérément d'un état improbable. ( . . . )         (Vienne, le 16 décembre 1896) I. Prigogine, I. Stengers. Cet extrait de la nouvelle alliance est particulièrement lumineux. Cependant on le comparera aux textes de Maxwell et Boltzmann ci-dessus pour constater que ce qui est expliqué là en 1979 était déjà bien compris par les pères fondateurs. Il est cependant prévisible que l'effort d'explication tenté par Prigogine et Stengers restera aussi vain que les efforts de Boltzmann, et que d'autres auteurs devront le répéter à nouveau en 2079. Dès la publication du travail de Boltzmann en 1872, des objections furent opposées à l'idée que le modèle proposé ramenait l'irréversibilité à la dynamique. Retenons ici deux d'entre elles, l'une de Poincaré, l'autre de Loschmidt. L'objection de Poincaré porte sur la question de la symétrie de l'équation de Boltzmann. Pour éviter de rendre la citation trop longue ou d'avoir à donner trop d'explications, je signale simplement qu'il s'agit ici de l'équation établie par Boltzmann pour la fonction de distribution f(r,v,t) qui représente le nombre de molécules du système ayant, à l'instant t, la vitesse v et la position r. Boltzmann a montré que la fonction H = f logf  dv ne peut que diminuer, et a postulé que l'entropie du système est la même chose que kH (k constante de Boltzmann). Un raisonnement correct [écrit Poincaré] ne peut mener à des conclusions en contradiction avec les prémisses. Or, comme nous l'avons vu, les propriétés de symétrie de l'équation d'évolution obtenue par Boltzmann pour la fonction de distribution contredisent celles de la dynamique. Boltzmann ne peut donc pas avoir déduit l'entropie de la dynamique, il a introduit quelque chose, un élément étranger à la dynamique. Son résultat ne peut donc être qu'un modèle phénoménologique, sans rapport direct avec le dynamique. Poincaré était d'autant plus ferme dans sa position qu'il avait étudié dans une brève note s'il était possible de construire une fonction M des positions et des moments, M(p,q), qui aurait les propriétés de l'entropie (ou plutôt de la fonction H): alors qu'elle même serait positive ou nulle, sa variation au cours du temps ne pourrait que la faire décroître ou la maintenir à une valeur constante. Sa conclusion fut négative - dans le cadre de la dynamique hamiltonienne une telle fonction n'existe pas. Comment, d'ailleurs s'en étonner? Comment les lois réversibles de la dynamique pourraient-elles engendrer, de quelque manière que ce soit, une évolution irréversible? C'est sur une note découragée que Poincaré termine ses célèbres Leçons de Thermodynamique: il faudra sans doute faire appel à d'autres considérations, au calcul des probabilités. Mais comment justifier cet appel à des notions étrangéres à la dynamique? Remarque 1: Ce passage [voir aussi les citations directes de Poincaré ci-dessus] met l'accent sur une des sources possibles de confusion. Le résultat de Poincaré est un théorème mathématique:il ne peut pas exister de fonction M(p,q) qui soit à la fois décroissante et toujours positive’’. Or l’entropie, ou toute fonction qui en tient lieu (comme H), ou toute autre fonction caractérisant un état macroscopique (comme le nombre de molécules situées dans la partie gauche du récipient'', etc.) n'est pas une fonction monotone, à cause des fluctuations. Lorsqu'on dit que le système est parvenu à l'équilibre et y reste, c'est-à-dire que l'entropie est devenue maximale, cela signifie qu'elle continue presque éternellement à osciller autour de son maximum théorique et non qu'elle reste mathématiquement égale à ce maximum ou continue de s'en approcher sans cesse davantage et en croissant. Ces oscillations sont très petites si le nombre N de molécules est grand (leur écart-type est de l'ordre de 1 / N), mais il peut s'en produire d'importantes si on attend pendant un temps de l'ordre de 10N. Il est donc essentiel de bien comprendre ceci: l'entropie n'est pas une fonction croissante dans le sens mathématique du terme; c'est seulement une fonction croissante dans un sens pratique. On peut l'exprimer en disant que sur des durées raisonnables, et à de petites fluctuations près elle ne peut décroître. La véritable entropie d'un système physique réel n'est donc pas concernée par le théorème de Poincaré. C'est ce que Boltzmann s'est efforcé d'expliquer dans [12] et [13]. L'objection de Loschmidt permet, quant à elle, de mesurer les limites de validité du modèle cinétique de Boltzmann. Il note en effet que ce modèle ne peut rester valable après un renversement du sens des vitesses v  v. Du point de vue de la dynamique, il n'y a pas d'échappatoire: les collisions, se produisant en sens inverse,déferont’’ ce qu’elles ont fait, le système retournera vers son état initial. Et la fonction H, qui dépend de la distribution des vitesses, devra bien croître elle aussi jusqu’à sa valeur initiale. Le renversement des vitesses impose donc une évolution antithermodynamique. Et en effet, la simulation sur ordinateur confirme bien une croissance de H après l’inversion des vitesses sur un système dont les trajectoires sont calculées de manière exacte.
Il faut donc admettre que la tentative de Boltzmann n’a rencontré qu’un succès partiel : certaines conditions initiales, notamment celles qui résultent de l’opération d’inversion des vitesses, peuvent engendrer, en contradiction avec le modèle cinétique, une évolution dynamique à H croissant. Mais comment distinguer les systèmes auxquels le raisonnement de Boltzmann s’applique de ceux auxquels il ne s’applique pas ?
Ce problème une fois posé, il est facile de reconnaître la nature de la limitation imposée au modèle de Boltzmann. Ce modèle repose en fait sur une hypothèse statistique qui permet l’évaluation du nombre moyen de collisions - le chaos moléculaire'' . Remarque 2: le termechaos’’ n’est pas employé ici dans le sens précis qu’il a acquis depuis, et devrait être remplacé - ici et dans la suite - par stochasticité''. En effet c'est le mouvement dynamique exact des molécules qui est chaotique (chaos déterministe’’) et l’hypothèse statistique qu’il est question d’introduire consiste à éliminer l’exactitude déterministe des conditions initiales et de les supposer simplement aléatoires.
(reprise de la citation) Cette hypothèse suppose qu’avant la collision, les molécules ont des comportements indépendants les uns des autres, ce qui revient à dire qu’il n’y a aucune corrélation entre leurs vitesses. Or, si on impose au système de remonter le temps'' , on crée une situation tout à fait anormale: certaines molécules sont désormaisdestinées’’ à se rencontrer en un instant déterminable à l’avance et à subir à cette occasion un changement de vitesse prédéterminé. Aussi éloignées qu’elles soient les unes des autres au moment de l’inversion des vitesses, cette opération crée donc entre elles des corrélations, elles ne sont plus indépendantes. L’hypothèse du chaos [stochasticité] moléculaire ne peut être faite à propos d’un système qui a subi l’opération d’inversion des vitesses.
L’inversion des vitesses est donc une opération qui crée un système hautement organisé, au comportement apparemment finalisé : l’effet des diverses collisions produit, comme par harmonie préétablie, une évolution globale antithermodynamique'' (par exemple la ségrégation spontanée entre molécules lentes et rapides si, à l'instant initial, le système avait été préparé par la mise en contact de deux gaz de températures différentes). Mais accepter la possibilité de telles évolutions antithermodynamiques, même rares, même exceptionnelles (aussi exceptionnelles que la condition initiale issue de l'inversion des vitesses), c'est mettre en cause la formulation du second principe: il existe des cas où par exemple une différence de température pourrait se produirespontanément’’ . Nous devons alors préciser les circonstances dans lesquelles un processus irréversible pourrait devenir réversible, voire même annuler un processus irréversible qui s’est produit dans le passé. Le principe cesse d’être un principe pour devenir une généralisation de portée limitée.
Remarque 3 : Prigogine et Stengers parlent donc ici d’une mise en cause du second principe, et d’une limitation de sa portée. La limitation étant que, pour un système dynamique chaotique (au sens actuel de ce terme : chaotique = rigoureusement déterministe, mais avec extrême sensibilité aux conditions initiales), l’entropie n’est pas une fonction croissante dans absolument tous les cas. En réalité c’est plutôt un problème d’interprétation de l’énoncé du second principe. Il y a un second principe pour mathématiciens'' qui stipule que l'entropie est une fonction du temps t qui tend en croissant vers une limite lorsque t tend vers l'infini. Ce principe est faux car il existe des états microscopiques du système qui le mettent en défaut (les étatshautement organisés, au comportement apparemment finalisé’’). Même si on écarte ces états exceptionnels, la démonstration de Poincaré prouve en outre que l’entropie n’est jamais rigoureusement croissante au sens mathématique, mais on pourrait aisément corriger ce dernier défaut en énonçant par exemple : l'entropie ne s'écarte jamais notablement d'une fonction croissante''. La difficulté qui demeurera cependant toujours est que, même ainsi énoncé, on ne pourra pas garantir avec l'absolue certitude mathématique que la fonction reste croissante pendant des durées aussi grandes qu'on veut. Pourtant, pour la quasi totalité des états, la fonction restera croissante pendant des durées si longues qu'elles en perdent tout sens physique. Ainsi. en tant quegénéralisation de portée limitée’’ (et non principe digne de ce nom) le second principe pourrait s’énoncer :
Pour tout état initial du système sauf un nombre infime, et pendant des durées courtes devant 10N (N étant le nombre de molécules), l’entropie du système ne s’écarte pas notablement d’une fonction croissante.
Cela dit, le fait de juger cet énoncé comme trop réduit ou trop limité pour mériter le nom de principe est une affaire de convention. Car les durées (non courtes devant 10N) pour lesquelles il ne s’applique pas n’ont aucune existence pratique, et les fluctuations qui produisent les oscillations non monotones de l’entropie sont bien plus petites que ce qu’on a l’habitude, dans les théories physiques, de considérer comme nul.
Les états hautement organisés, au comportement apparemment finalisé'' ont une probabilité si inconcevablement petite de se produire spontanément qu'ils ne se produisent jamais (Émile Borel), et la seule possibilité de les rencontrer en physique serait de les préparer. Pour avoir un principe physique et non un principe pour purs mathématiciens, censé s'appliquer dans le ciel des idées, il suffit de dire qu'on ne peut pas préparer de tels états et d'inclure cette impossibilité dans l'énoncé du principe. Cela ne le fait pas tomber d'un piédestal, mais a au contraire l'avantage d'en dégager le véritable sens, celui d'une propriété de la nature et non d'une vision de l'esprit. Mélangeons [proposait Gibbs], une goutte d'encre noire à de l'eau pure. Bientôt l'eau devient grise en une évolution qui, pour nous, est l'irréversibilité même; cependant, pour l'observateur aux sens assez aigus pour observer non pas le liquide macroscopique mais chacune des molécules qui constituent la population, le liquide ne deviendra jamais gris; l'observateur pourra suivre les trajectoires de plus en plus délocalisées desmolécules d’encre’’ d’abord rassemblées dans une petite région du système, mais l’idée que le milieu d’hétérogène est irréversiblement devenu homogène, que l’eau est devenue grise'' sera, de son point de vue, une illusion déterminée par la grossièreté de nos moyens d'observation, une illusion subjective. Lui-même n'a vu que des mouvements, réversibles, et ne voit rien de gris, mais dunoir’’ et du blanc'' . ( . . . ) Selon cette interprétation, la croissance de l'entropie ne décrit pas le système lui-même, mais seulement notre connaissance du système. Ce qui ne cesse de croître c'est l'ignorance où nous sommes de l'état où se trouve le système, de la région de l'espace des phases où le point qui le représente a des chances de se trouver. À l'instant initial, nous pouvons avoir beaucoup d'informations sur un système, et le localiser assez précisément dans une région restreinte de l'espace des phases, mais, à mesure que le temps passe, les points compatibles avec les conditions initiales pourront donner naissance à des trajectoires qui s'éloignent de plus en plus de la région de départ. L'information liée à la préparation initiale perd ainsi irréversiblement sa pertinence jusqu'au stade ultime où on ne connaît plus du système que les grandeurs que l'évolution dynamique laisse invariantes. Le système est alors à l'équilibre ( . . . ) La croissance de l'entropie représente donc la dégradation de l'information disponible; le système est initialement d'autant plus loin de l'équilibre que nous le connaissons mieux, que nous pouvons le définir plus précisément, le situer dans une région plus petite de l'espace des phases. Cette interprétation subjectiviste de l'irréversibilité comme croissance de l'ignorance (encore renforcée par l'analogie ambigüe avec la théorie de l'information) fait de l'observateur le vrai responsable de l'asymétrie temporelle qui caractérise le devenir du système. Puisque l'observateur ne peut embrasser d'un seul coup d'oeil les positions et les vitesses des particules qui constituent un système complexe, il n'a pas accès à la vérité fondamentale de ce système: il ne peut connaître l'état instantané qui en contient à la fois le passé et le futur, il ne peut saisir la loi réversible qui, d'instant en instant, lui permettrait d'en déployer l'évolution. Et il ne peut pas non plus manipuler le système comme le fait le démon de Maxwell, capable de séparer les particules rapides et les particules lentes, et d'imposer ainsi à un système une évolution antithermodynamique vers une distribution de température de moins en moins uniforme. La thermodynamique est certes la science des systèmes complexes, mais, selon cette interprétation, la seule spécificité des systèmes complexes, c'est que la connaissance qu'on a d'eux est toujours approximative et que l'incertitude déterminée par cette approximation va croissant au cours du temps. ( . . . ) Cependant, l'objection est immédiate: dans ce cas, la thermodynamique devrait être aussi universelle que notre ignorance. C'est là la pierre d'achoppement de l'ensemble des interprétationssimples’’ de l’entropie, en termes d’incertitude sur les conditions initiales ou sur les conditions aux limites. Car, l’irréversibilité n’est pas une propriété universelle ; articuler dynamique et thermodynamique nécessite donc la définition d’un critère physique de différentiation entre les systèmes, selon qu’ils peuvent ou non être décrits thermodynamiquement, nécessite une définition de la complexité en termes physiques et non en termes de manque de connaissance.
À partir de là les auteurs insistent sur le caractère objectif de l’irréversibilité ou plutôt de la complexité (page 213 et après) : le comportement des corps macroscopiques est bien réel et physique, la complexité est une qualité réelle et physique qui décidera si le corps aura un comportement thermodynamique ou un mouvement mécanique, etc. Ils ont bien raison, mais cela nous éloignerait de notre sujet.

REFERENCES.

[1] Ludwig Boltzmann Weitere Studien über Wärmegleichgewicht unter Gasmolekülen. Wiener Berichte 66 ( 1872), p. 275.

[2] James Clerk Maxwell Illustrations of the Dynamical Theory of Gases. Phil. Mag. 19 ( 1860), pp. 19.

[3] Joseph Loschmidt Über das Wärmegleichgewicht eines Systems von Körpern mit Rücksicht auf die Schwere. Wiener Berichte 73, ( 1876), pp. 139.

[4] Frederik Reif Cours de Physique de Berkeley : tome 5, Physique statistique. Armand Colin, Paris ( 1972), pour l’édition française.

[5] Lev Landau et Ievgueni Lifchitz Physique statistique. Mir, Moscou ( 1967).

[6] Ludwig Boltzmann Leçons sur la théorie des gaz. Réédition Jacques Gabay, Paris, ( 1987).

[7] Rudolf Peierls Surprises in Theoretical Physics. Princeton University Press (coll. Princeton series in Physics), Princeton, New Jersey ( 1979).

[8] James Clerk Maxwell Theory of Heat. Longmans & Green, London ( 1871).

[9] Henri Poincaré Sur le problème des trois corps. Revue générale des Sciences pures et appliquées II, vol 8 (15 janvier 1891), page 529.

[10] Henri Poincaré Sur les tentatives d’explication mécanique des
principes de la Thermodynamique. Comptes-rendus de l’Académie des Sciences, vol 108 (18 mars 1889), pages 550 - 553.

[11] Henri Poincaré Sur la théorie cinétique des gaz. Revue générale des Sciences pures et appliquées, vol 5 ( 1894), pages 513 - 521.

[12] Ludwig Boltzmann Entgegnung auf die Wärmetheoretischen Betrachtungen des Hrn. E. Zermelo. Wiedemanns Annalen, vol 57 ( 1896), pages 773 - 784.

[13] Ludwig Boltzmann Zu Hrn. Zermelos Abhandlung ``Über die mechanische Erklärung irreversibler Vorgänge’’. Wiedemanns Annalen, vol 60 ( 1897), pages 392 - 398.

[14] Ilya Prigogine, Isabelle Stengers La nouvelle alliance. NRF Gallimard, Paris ( 1979).

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.