Accueil > 02 - Livre Deux : SCIENCES > Ilya Prigogine > Qu’est-ce que l’irréversibilité ?

Qu’est-ce que l’irréversibilité ?

vendredi 16 janvier 2009, par Faber Sperber, Robert Paris

"L’irréversibilité reste au coeur des phénomènes physiques, même en théorie quantique relativiste."

Gilles Cohen-Tannoudji dans "La Matière-espace-temps"

Qu’est-ce que l’irréversibilité ?

D’où vient l’irréversibilité du monde ?

A notre échelle, l’expérience de l’irréversibilité des phénomènes, encore appelée « flèche du temps », est quotidienne. On sait que l’on peut briser un pain mais pas le recoller. On peut mélanger deux gaz mais pas les séparer. On peut vieillir mais pas rajeunir. L’étrangeté de cette situation provient de plusieurs points. Le premier est : comment la nature fait-elle pour marquer la mesure du temps ? On sait que la relativité d’Einstein a mis en évidence le fait que la matière modifie l’espace-temps. Se pourrait-il que du temps se perde en présence de matière ? La deuxième est : comment des lois, apparemment réversibles du moins dans leurs formulations mathématiques, de la gravitation et de l’électromagnétisme mènent à un monde de l’irréversible ? Est-ce que la réversibilité apparente des lois de la physique n’est pas une illusion d’optique ? En effet, deux systèmes physiques qui ont interagi ne sont plus les mêmes après. Cela signifie-t-il aussi que la notion d’un temps absolu et universel doit être remplacée par un temps en permanence en construction et destruction par la matière, par la lumière et par le vide ? Au niveau des particules, les interactions semblent aussi réversibles mais, une fois encore, c’est peut-être une illusion d’optique. En effet, la particule n’est plus un individu au niveau quantique et il faut tenir compte des interactions avec l’environnement.

Roger Balian écrit dans « Le temps et sa flèche », ouvrage collectif sous la direction d’Etienne Klein et Michel Spiro que « Parmi les deux aspects du temps qui interviennent dans les processus naturels, durée et orientation, nous fixons désormais notre attention sur le second. Discutons d’abord un exemple. La réaction chimique H2 + Cl2 -> 2 HCl se produit dans l’obscurité à une vitesse imperceptible, plus rapidement (en fait, de façon explosive) lorsqu’on éclaire le mélange à la lumière du soleil. Considérons alors un mélange gazeux A composé de deux litres d’hydrogène et un litre de chlore. L’évolution qu’il subit dépend des circonstances ; mais, à condition d’attendre assez longtemps, l’Etat final B auquel on aboutit est toujours le même : un litre d’hydrogène et deux litres de gaz chlorhydrique. A l’inverse, si l’on mélange à la température à température ordinaire un litre d’hydrogène avec deux litres de gaz chlorhydrique, l’expérience montre qu’en aucun cas il ne se forme spontanément de chlore. Le processus considéré est irréversible (…) L’irréversibilité des phénomènes va donc s’identifier pour nous à l’orientation du temps. »

L’irréversibilité est encore appelée flèche du temps. C’est un phénomène émergent. Cela signifie qu’elle apparaît au sein d’un univers qui ne la contenait pas, le vide quantique. Exactement comme la température apparaît au sein d’un ensemble de molécules alors qu’elle n’existait pas pour une ou quelques molécules. Cela signifie aussi que la matière existe à plusieurs niveaux hiérarchiques au sein desquels elle n’obéit pas aux mêmes lois. Le niveau macroscopique n’est pas le niveau microscopique, par exemple. Bien que le niveau inférieur apparaisse parfois au niveau supérieur.

Le physicien-chimiste Ilya Prigogine dans "La fin des certitudes" :

"L’entropie est l’élément essentiel introduit par la thermodynamique, la science des processus irréversibles, c’est-à-dire orientés dans le temps. Chacun sait ce qu’est un processus irréversible. On peut penser à la décomposition radioactive, ou à la friction, ou à la viscosité qui ralentit le mouvement d’un fluide. Tous ces processus ont une direction privilégiée dans le temps, en contraste avec les processus réversibles tels que le mouvement d’un pendule sans friction. (...) La nature nous présente à la fois des processus irréversibles et des processus réversibles, mais les premiers sont la règle et les seconds l’exception. Les processus macroscopiques, tels que réactions chimiques et phénomènes de transport, sont irréversibles. Le rayonnement solaire est le résultat de processus nucléaires irréversibles. Aucune description de l’écosphère ne serait possible sans les processus irréversibles innombrables qui s’y déroulent. Les processus réversibles, en revanche, correspondent toujours à des idéalisations : nous devons négliger la friction pour attribuer au pendule un comportement réversible, et cela ne vaut que comme une approximation. "

Le physicien Gilles Cohen-Tannoudji le rapporte dans « La Matière-Espace-Temps » : « L’irréversibilité reste au cœur des phénomènes physiques, même en théorie quantique relativiste. »

MOTS CLEFS :

dialectique
discontinuité
physique quantiquerelativité
chaos déterministeatome
système dynamiquestructures dissipativespercolationirréversibilité
non-linéaritéquanta
émergence
inhibition
boucle de rétroactionrupture de symétrie - turbulencemouvement brownien
le temps -
contradictions
crise
transition de phasecriticalité - attracteur étrangerésonance
auto-organisationvide - révolution permanente - Zénon d’Elée - Antiquité -
Blanqui -
Lénine -
TrotskyRosa Luxemburg
Prigogine -
Barta -
Gould - marxisme - Marx - la révolution - l’anarchisme - le stalinisme - Socrate


Irréversibilité

On a longtemps pensé que les lois de la physique étaient réversibles. Les valeurs des paramètres dans les lois de la nature devaient y apparaître de façon qu’en changeant le signe, cela ne change pas la loi. La réversibilité du phénomène s’exprimait donc dans la symétrie des lois de la nature. La seule apparition d’une irréversibilité concernait la thermodynamique qui, étrangement, reconnaissait une « flèche du temps » puisqu’une loi de la thermodynamique affirmait que tout système isolé va vers une perte de niveau d’organisation appelée entropie. Exemple typique : un mélange de deux gaz ou de deux liquides à des températures différentes menait à un équilibre qui établissait un niveau moyen puis l’immobilité. La perte de niveaux d’ordre semblait irrémédiable. Cette loi d’entropie semblait contredire ce que l’on constatait dans certains phénomènes physiques, et tout particulièrement le phénomène de la vie qui produit sans cesse de l’organisation et de la complexification au lieu de détruire des niveaux d’organisation et qui ne tend pas vers l’immobilité.

Paradoxalement la science moderne a été à la fois vers la généralisation de la notion d’irréversibilité et vers des systèmes dynamiques néguentropiques c’est-à-dire producteurs de niveaux d’organisation. La vie est, en effet, marquée par l’auto-organisation. L’existence d’un individu, depuis l’œuf originel, est faite de diversification des cellules, de construction de relations entre elles et de niveaux supplémentaires de cette organisation. Ensuite, elle produit des niveaux d’organisation entre les individus et les groupes d’individus.

Et l’auto-organisation est loin d’en être restée à étudier le vivant. Elle concerne également la matière dite inerte et qui connaît des développements dynamiques. L’exemple le plus commun est le cristal. Non seulement il reproduit un schéma à l’identique mais le cristal peut sauter d’un ordre à un autre, par modification de structure voir la glace ou la neige par exemple). La vie, elle-même, est un sous-produit de cette capacité des ordres moléculaires de changer leur disposition stéréoscopique et, du coup, leurs interactions. Et ce à grande vitesse et avec une dépense énergétique extrêmement faible.

D’où provient fondamentalement l’irréversibilité dans les transformations de la matière et quelles en sont les conséquences ? Les exemples aussi nombreux que divers d’irréversibilité ont cependant un point commun : l’irréversibilité est un sous-produit de l’interaction d’échelle. Il y a des niveaux imbriqués de la matière et ces niveaux ont des rétroaction entre niveaux inférieurs et supérieurs. L’irréversibilité provient du saut d’un niveau à l’autre.

L’existence de la matière, elle-même, est un produit de cette irréversibilité au même titre que l’existence de la vie. Dès que la matière, dès que la vie, dès qu’une des formes nouvelles de l’un ou de l’autre, apparaissent, elles produisent les éléments de leur reproduction. L’irréversibilité signifie qu’il y a eu un événement dont l’importance n’a pu être effacée. Dès lors, la nature a une histoire marquée par des jalons. Elle n’efface pas son passé.

Cette histoire marque la matière. Ainsi, les noyaux lourds, instables, connaissent des décompositions nucléaires, ou radioactives, au bout d’un certain temps. Une matière livre son âge en fonction de la proportion de matière radioactive déjà décomposée. Nous avons un âge en tant qu’individus. Notre espèce a également un âge. Notre galaxie, notre soleil, notre planète, les roches qui nous entourent ont un âge. Tous ces âges sont des manifestations d’une irréversibilité fondamentale du phénomène « matière ».

Pourquoi la science a mis du temps à comprendre cette importance de l’irréversibilité ? On a commencé par étudier la réalité à un seul niveau d’organisation, et, dans ce cas, cette irréversibilité n’apparaît pas puisqu’il n’y a pas interaction d’échelle. Par exemple, en mécanique, si on ne prend pas en considération l’interaction des objets en mouvement avec le vide, il n’y a qu’un seul mouvement et il peut sembler qu’en inversant le sens du temps, le mouvement serait exactement inversé. Par contre, dès qu’on étudie des chocs brutaux entre objets qui se cassent, il n’est plus possible d’inverser le temps. On n’a jamais vu des objets cassés se recomposer spontanément. La brisure a émis de l’énergie qui est une agitation à un niveau hiérarchique inférieur. Ce passage au niveau inférieur est non-linéaire et irréversible.

Fondamentalement, la matière a un caractère irréversible car, au travers des disparitions et apparitions de structures particulaires dans le vide, la matière reproduit les mêmes structures globalement. La particule apparaît et disparaît en un temps très court. Mais elle réapparaît toujours sous la même forme que précédemment. C’est cette « mémoire » qui fait que la matière semble avoir une existence continue. Cependant, les événements qui se produisent pour cette structure s’effacent régulièrement du fait de l’interaction avec l’environnement. C’est ce que l’on appelle la décohérence. Du coup, la particule ne peut se souvenir à l’échelle matérielle que de ses constantes (charge, masse, etc). Par contre, à une échelle inférieure, elle peut se souvenir de son spin qui marque l’évolution de l’environnement (charges virtuelles u vide). A ce niveau, l’écoulement du temps est aboli parce que le temps est un facteur émergent du niveau supérieur. Dans le vide, le temps est désordonné. Pour le corpuscule de lumière, le temps ne s’écoule pas. L’irréversibilité n’existe qu’au niveau de la matière au dessus du niveau de la particule de masse.

 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

L’IRRÉVERSIBILITÉ .

1. Introduction.
Le problème de l’irréversibilité est celui de l’évolution des systèmes macroscopiques, c’est-à-dire constitués d’un nombre immense de molécules en perpétuelle agitation. L’exemple typique est le gaz ; mais n’importe quel objet matériel dont la masse est de l’ordre du gramme ou plus, est un tel corps, puisque les molécules qui le composent, même si elles sont très grosses, ont des masses infinitésimales si on les compare au gramme.
Ces corps se modifient spontanément du fait de l’agitation perpétuelle des molécules qui les composent. Cela se remarque dans la vie de tous les jours : l’air est agité par le vent, les liquides coulent, et même les solides s’altèrent (les métaux s’oxydent, les débris végétaux se décomposent, etc). Toutefois les objets isolés, c’est-à-dire écartés de tout contact ou échange avec le reste de l’univers, y compris l’émission ou l’absorption de rayonnement, évoluent vers un état asymptotique stable, appelé état d’équilibre. Le simple sens commun suffit à le comprendre : si un corps métallique est maintenu à l’écart de tout échange, il ne pourra s’oxyder puisqu’il faut pour cela une action de l’oxygène sur le corps. De même un liquide au repos dans un réservoir ne se mettra à couler que si on bascule ou perce le réservoir, l’air calme ne peut commencer à être agité par le vent que s’il est exposé à des masses d’air plus chaudes ou plus froides, etc. Si au lieu de mettre le corps métallique fraîchement poli à l’abri de l’oxygène et du monde extérieur, on isole ce corps avec une certaine quantité d’oxygène de tout le reste, il va s’oxyder progressivement jusqu’à ce qu’il n’y ait plus assez d’oxygène pour que la corrosion se poursuive, et on atteint aussi un état d’équilibre. Pour le sens commun, forgé par l’expérience quotidienne, il est bien évident qu’une fois la surface métallique corrodée, il n’arrivera plus jamais que l’oxygène se retire spontanément du métal pour retrouver sa forme gazeuse, en rendant ainsi tout son brillant à la surface métallique. C’est pourquoi on dit que la corrosion est une évolution irréversible. Bien entendu, il est possible d’appliquer au métal un traitement chimique qui sépare à nouveau l’oxygène et le métal, mais cela brise alors l’isolement du système corps métallique plus oxygène.
À la suite des travaux de Sadi Carnot (Réflexions sur la puissance motrice du feu, 1824) Rudolph Clausius a dégagé le concept de l’entropie d’un tel système isolé. Carnot analysait le principe des machines thermiques, qui produisent du mouvement à partir de la chaleur, en injectant de la vapeur ou de l’air sous pression dans un cylindre pour déplacer un piston. Il a constaté que la vapeur devait nécessairement se refroidir, et qu’avec une quantité de charbon donnée, l’énergie mécanique qu’on peut récupérer est d’autant plus élevée que la vapeur a plus refroidi. Plus précisément il établit la loi quantitative suivante : Si T1 est la température (absolue, en degrés Kelvin) à laquelle on a chauffé la vapeur et T0 la température à laquelle se refroidit cette vapeur après le passage dans le cylindre ou la turbine, l’énergie mécanique obtenue pour une quantité de chaleur fournie Q sera proportionnelle à (1  T0/T1) ×Q et non à Q seul. Cela veut dire que si par exemple on chauffe de l’air à 273 degrés Celsius dans un cylindre pour qu’il pousse un piston et déplace ainsi un objet lourd, puis qu’on le refroidit à 0 degrés Celsius pour que le piston se rétracte, le rapport 1  T0/T1 sera 0.5 et le travail mécanique de déplacement de l’objet lourd aura été la moitié de l’énergie calorifique dépensée pour chauffer l’air dans le cylindre. L’autre moitié se sera perdue dans le refroidissement de l’air. (N. B. cette perte par refroidissement est nécessaire, car sinon le piston ne se rétracte pas tout seul ; il faudrait le pousser et donc perdre le travail mécanique qu’on vient de gagner).
Le processus inverse de celui de la machine thermique consisterait à produire la chaleur à partir du mouvement mécanique au lieu de l’obtenir en brûlant du charbon. On peut produire de la chaleur à partir du mouvement par frottement ; on peut même convertir entièrement l’énergie mécanique en chaleur : dans ce cas le mouvement est complètement arrêté par l’effet des frottements. Or la loi de Carnot montre que, sauf si T0 = 0 ou T1 = , la chaleur ne peut jamais être entièrement convertie en mouvement. De toute façon la condition T0 = 0 est irréalisable, car pour que la vapeur puisse être refroidie à T0 = 0 il faut maintenir un système de refroidissement bien plus coûteux que l’énergie produite par la machine. Ce constat fait par Carnot marque l’origine du problème de l’irréversibilité : la transformation d’énergie mécanique en chaleur par les frottements n’est pas réversible, en ce sens qu’aucune machine thermique ne pourra retransformer intégralement la chaleur en le mouvement. Quantitativement, si nous reprenons l’exemple ci-dessus avec la vapeur refroidie de 273 degrés Celsius à 0 degrés Celsius, on peut dire que 4184 joules de travail mécanique permettent d’échauffer par frottement 1 kilogramme d’eau de 1 degré, mais inversement, avec une machine thermique fonctionnant entre 273 et 0 degrés Celsius, cette même quantité de chaleur ne permettrait de récupérer que 2092 joules de travail mécanique. Bien entendu dans une machine réelle une grande partie de la chaleur fournie se perd aussi par les défauts d’isolation, en sorte qu’on récupérerait encore bien moins que ces 2092 joules ; la loi de Carnot concerne le cas idéal où on aurait entièrement éliminé ces pertes. Elle dit que même si ces pertes sont rendues infinitésimales, il restera toujours une irréversibilité de principe, car le fonctionnement même de la machine exige qu’une partie de la chaleur soit perdue par le refroidissement.
L’explication fondamentale du comportement des corps macroscopiques tels que la dilatation des gaz chauffés dans les machines thermiques, mais aussi l’écoulement des liquides, l’évaporation, la fusion ou la solidification, les échanges de chaleur, etc, a été trouvée dans le comportement aléatoire des mouvements moléculaires. C’est en appliquant la loi des grands nombres au mouvement chaotique d’un nombre immense de molécules qu’on retrouve le comportement des corps macroscopiques. La loi de Carnot mentionnée plus haut peut être déduite ainsi, de même que toutes les lois gouvernant les échanges de chaleur, l’agitation des fluides, etc. Quoique cette explication statistique ait déjà été proposée comme hypothèse par Daniel Bernoulli (Hydrodynamica, 1731), elle n’a commencé à devenir pleinement opératoire que dans la seconde moitié du XIXe siècle. Les travaux fondateurs de cette Mécanique statistique ont été effectués pour l’essentiel par J. C. Maxwell (1860) et Ludwig Boltzmann (1872). L’irréversibilité mentionnée précédemment n’est qu’un aspect du comportement des corps macroscopiques, et au fond, elle ne joue qu’un rôle très marginal dans les préoccupations des physiciens car elle ne vaut que comme principe général et abstrait. Pour celui qui doit calculer ou décrire des phénomènes précis et particuliers, la Mécanique statistique est une science très technique dont le quotidien est bien éloigné des grands principes. Par contre, l’irréversibilité est le genre de problème qui a toujours fasciné les philosophes, ainsi que tous les amateurs passionnés de science, qui connaissent cette dernière bien plus par les ouvrages de vulgarisation que par l’étude approfondie et patiente de problèmes concrets mais ardus. De ce fait, le thème de l’irréversibilité inspire depuis Boltzmann toute une littérature pseudo- ou para-scientifique, pleine de confusion, de rêve, et de visions inexactes ou même carrément fausses.
Le point crucial de cette littérature est le paradoxe de Loschmidt. Joseph Loschmidt était un collègue de Boltzmann à l’université de Vienne. Après que Boltzmann eut exposé son explication statistique de l’irréversibilité en 1872, Loschmidt fit remarquer qu’il apparaissait comme paradoxal que, la Mécanique étant entièrement réversible (pour tout mouvement d’un système de points matériels tels que les molécules, le mouvement inverse, c’est-à-dire celui qu’on verrait dans un film projeté en marche arrière, est également possible et tout aussi probable), on aboutisse à des comportements irréversibles lorsqu’on considère un tel mouvement de manière statistique. L’énoncé de ce paradoxe se trouve très fréquemment dans les articles ou ouvrages de vulgarisation, mais sans aucune explication ; très souvent même, il est suggéré que ce paradoxe reste aujourd’hui encore non résolu, qu’il s’agirait là de l’un des mystères de la science. Or Boltzmann avait répondu à la question de Loschmidt, et sa réponse est essentiellement correcte. Elle peut certes être affinée par des connaissances plus récentes, mais rien ne change sur le fond. Par exemple Boltzmann postulait pour les molécules un mouvement newtonien, alors que la Mécanique statistique moderne postule un mouvement quantique, ce qui induit de grandes différences (satistiques de Fermi-Dirac et de Bose-Einstein). Mais l’argument de Loschmidt et la réponse à cet argument ne s’en trouvent pas affectés de manière vraiment essentielle : les mouvements microscopiques quantiques sont, tout comme les classiques, parfaitement réversibles, et la propriété statistique universelle qui explique l’irréversibilité est la même. Pourquoi alors la réponse de Boltzmann est-elle restée lettre morte, et pourquoi subsiste toute une tradition qui maintient le mystère autour de ce problème ?
La raison en est bien simple. Ce n’est pas pour les physiciens qu’il y a un paradoxe, mais seulement pour une certaine tradition philosophique et populaire, car l’explication scientifique du paradoxe'' n'est pas vulgarisable. Beaucoup de physiciens ont déploré cet état de fait et ont, comme moi ici, tenté d'y remédier; par exemple Rudolf Peierls a aussi donné une conférence à Birmingham en 1967 sur la question, qu'il reprend dans un chapitre de son livre [7], qui commence ainsi: We turn next to one of the most fundamental questions of statistical Mechanics, to which the answer has been known to some for a long time, but does not appear to be known very widely even today. The question is about the precise origin of the irreversibility in statistical mechanics. J'ajoute quenot even today’’, dit par Peierls en 1978, peut se dire encore aujourd’hui. Je conseille vivement la lecture de ce chapitre de Peierls, et j’en donnerai quelques extraits en annexe.
J’ai cependant dû constater que l’explication proposée par Peierls n’est pas complète, et d’ailleurs je n’ai trouvé d’explication vraiment complète dans aucun ouvrage. Pourtant, tout ce qu’il faut pour une telle explication complète est implicitement contenu dans le corpus théorique de la Physique statistique, déjà sous la forme que lui avait donné Ludwig Boltzmann vers 1880.
C’est bien la raison pour laquelle j’essaie encore, mais je n’ai pas écrit cet article essentiellement pour les physiciens, qui connaissent bien l’explication scientifique, même s’ils ne la détaillent pas jusqu’au bout ; c’est plutôt pour ceux qui sont curieux de science : je ne voudrais pas qu’ils soient égarés par la confusion qui entoure cette question, mais je leur demande un effort. Il faut en effet prendre en compte quelques aspects assez subtils du Calcul des probabilités. La réponse de Boltzmann est entièrement juste sur le fond, mais très difficile à expliquer. Je m’en suis rendu compte une fois de plus en écrivant le présent article. J’ai pourtant fait tout ce que j’ai pu pour donner l’explication statistique de l’irréversibilité d’une manière aussi directe que possible, c’est-à-dire sans passer par l’intermédiaire de théorèmes généraux, dont la démonstration très technique, longue, générale, et abstraite contribue fortement à l’opacité de l’explication. J’ai fait tout ce que j’ai pu, et cela reste long, bien trop long pour une revue de vulgarisation, et bien trop long pour notre époque où l’on n’écoute que ce qui se dit en moins de cinq minutes.
J’essaie quand même de le faire partager . . .

2. La nature microscopique des gaz.
Imaginons un gaz maintenu dans un récipient hermétique comme un nuage de poussières dont les grains sont les molécules. On va considérer un mouvement parfaitement newtonien pour le système de point matériels auquel on assimile l’ensemble des molécules du gaz. Les substitutions fréquentes des vitesses, chaque fois que la molécule frappe une paroi du récipient ou entre en collision avec une autre, crée un brouillage qui, au bout d’un certain temps (après plusieurs collisions) rend la distribution des molécules en apparence complètement aléatoire ; c’est ce qu’on appelle le chaos déterministe. L’analyse mathématique détaillée de ce mouvement de points qui entrent mutuellement en collision, incluant le calcul de l’évolution des positions et des vitesses a été effectué pour la première fois en 1860, par J. C. Maxwell [ref 2]. Ce texte de Maxwell est aujourd’hui encore l’exposé le plus clair, le plus rigoureux (malgré un raisonnement faux devenu célèbre, et corrigé six ans plus tard), et le plus pénétrant jamais écrit sur le sujet.
Cette notion de brouillage est essentielle pour la résolution du paradoxe de Loschmidt. En effet, le mouvement exact des molécules, c’est-à-dire leur mouvement newtonien mathématique, est réversible : en retournant toutes les vitesses (mais en conservant les positions), le système revient en arrière, en décrivant le mouvement exactement inverse de celui suivi jusque là ; de sorte que, si le système était dans une configuration X à l’instant 0, qu’on le laisse évoluer jusqu’à l’instant T où l’on inverse toutes les vitesses, il reviendra en parcourant dans l’ordre inverse toutes les configurations précédentes, et se retrouvera à l’instant 2T à nouveau dans la configuration X. Par configuration on entend ici la donnée des positions de toutes les molécules. Une notion plus précise est la configuration en phase : c’est alors la donnée des positions et des vitesses de toutes les molécules.
Dans ces conditions, comment se fait-il que l’on observe l’irréversibilité ? C’est justement la question posée par Joseph Loschmidt. Si on prend un gaz, initialement (c’est-à-dire à l’instant 0) comprimé dans un vase, il va se répandre tout autour et tendre à remplir tout l’espace disponible, mais on ne verra jamais un gaz répandu dans une grande pièce se comprimer progressivement et venir se concentrer dans un vase en faisant le vide alentour. Or, c’est bien ce qui devrait se produire si, une fois le gaz uniformément répandu dans la grande pièce, on inversait exactement la vitesse de chacune des N 1024 molécules qui le composent. Mais il faut inverser exactement les N vitesses. Si une seule de ces N 1024 vitesses est mal inversée, le mouvement de retour commencera effectivement comme l’inverse du mouvement précédent (c’est-à-dire que le gaz commencera à se recomprimer après l’inversion des vitesses), mais cela ne durera pas : l’unique vitesse mal inversée modifiera peu à peu les vitesses des autres molécules à cause des innombrables chocs, jusqu’à ce que la totalité du système soit brouillée (par le phénomène du chaos déterministe) et ne ressemble plus du tout au mouvement inverse. Même si l’unique vitesse mal inversée diffère très peu de l’inversion exacte, cela suffira à créer le chaos au bout d’un temps très court ; si la différence entre la vitesse mal inversée et l’inverse exact est , ce temps est proportionnel à (1 / ) 10N. Il faudrait donc prendre 10N pour que ce temps soit de l’ordre de la seconde. Cela signifie que l’erreur dans le retournement de la vitesse devrait porter sur la Nième décimale. Si N est de l’ordre du nombre d’Avogadro, soit N 1024, on voit ce que cela signifie !
On voit appararaître ici une des raisons pour lesquelles la parfaite réversibilité du mouvement microscopique des molécules ne se reflète pas au niveau des apparences macroscopiques : c’est parce qu’il est essentiellement impossible d’inverser les vitesses avec une telle précision. Cependant cette raison n’est pas la seule. Une autre est qu’il est tout aussi essentiellement impossible d’inverser (même approximativement) les vitesses de toutes les N molécules ; ce serait possible s’il n’y avait que cinq ou dix molécules, mais la difficulté qui intervient ici croît exponentiellement avec leur nombre.
Ces deux raisons ont en commun qu’elles ne sont pas liées à la nature physique du gaz, mais aux limites humaines. On pourrait en faire abstraction pour se concentrer sur l’objet (le gaz) en tant qu’existant indépendamment de l’homme et de ses limites. Par exemple en tenant un raisonnement comme celui-ci :
Une intelligence qui, pour un instant donné, connaîtrait toutes les forces dont la nature est animée, et la situation respective des êtres qui la composent, si d'ailleurs elle était assez vaste pour soumettre ces données à l'analyse, embrasserait dans la même formule les mouvements des plus grands corps de l'univers et ceux du plus léger atome: rien ne serait incertain pour elle, et l'avenir comme le passé serait présent à ses yeux. Pierre-Simon Laplace                                     Essai philosophique sur les probabilités   (1819)                 Frederick Reif. « Si un système isolé est dans une situation sensiblement non uniforme, il évoluera en fonction du temps pour se rapprocher de la situation ultime la plus uniforme où il est en équilibre (à l'exception de fluctuations qui ont peu de chances d'être importantes). » Irréversibilité La conclusion [encadrée ci-dessus] affirme que quand un système macroscopique isolé évolue en fonction du temps, il tend à le faire dans une direction bien définie: depuis un état de moindre désordre vers une situation de plus grand désordre. Nous pourrions observer le processus du changement en filmant le système. Supposons maintenant que nous projetions le film à l'envers (c'est-à-dire que nous passions le film dans le projecteur en marche arrière) nous observerions alors sur l'écran le même processus remontant le temps c'est-à-dire le processus qui apparaîtrait si l'on imaginait que la direction du temps a été renversée. Le film sur l'écran serait vraiment très curieux en ce sens qu'il présenterait un processus par lequel un système évolue depuis un état de grand désordre vers une situation moins désordonnée, chose que l'on n'observe jamais en réalité. En regardant simplement le film sur l'écran, nous pourrions conclure, avec une complète certitude, que le film est projeté à l'envers. Un processus est dit irréversible si le processus obtenu en changeant le signe du temps (celui qu'on observerait en projetant le film à l'envers) est tel qu'il n'apparaît pratiquement jamais en réalité. Mais tous les systèmes macroscopiques hors équilibre évoluent vers l'équilibre, c'est-à-dire vers une situation de plus grand désordre. ( . . . ) Notons bien qu'il n'y a rien dans les lois de la mécanique régissant le mouvement des particules du système qui indique un sens privilégié pour l'écoulement du temps. En effet, imaginons que l'on prenne un film du gaz isolé en équilibre ( . . . ) Commentaire: Ici il est fait référence à unfilm’’, en fait une simulation numérique du mouvement de 40 molécules dans une boîte rectangulaire. Cette simulation est une des grandes innovations didactiques du Berkeley Physics Course (pages 9 et 24 - 25), dont la force visuelle ne peut être reproduite en citation ; c’est pourquoi j’introduis ce commentaire. On peut mesurer le degré de désordre en donnant simplement en fonction du temps le nombre de molécules situées dans la moitié gauche de la boîte. La relation entre ce nombre et l’entropie est assez complexe, mais pour l’argumentation il suffit que les deux quantités aient la même croissance (que l’une soit fonction croissante de l’autre ; ainsi elles seront croissantes ou décroissantes en même temps et seront maximales ou minimales en même temps. Il s’agit donc de comprendre pourquoi on aboutit à l’irréversibilité alors que ce film est parfaitement réversible :
En regardant le film projeté sur l’écran, nous n’aurions aucun moyen de dire si le projecteur fonctionne dans le sens normal ou à l’envers. La notion de sens privilégié pour l’écoulement du temps n’apparaît que lorsque l’on considère un système macroscopique isolé dont nous avons de bonnes raisons de penser qu’il est dans une situation très spéciale non désordonnée à un certain temps t1. Si le système n’a pas été perturbé pendant longtemps et s’il atteint cette situation par le jeu des rares fluctuations à l’équilibre, il n’y a, en fait, rien qui indique le sens du temps. ( . . . )
Suite du commentaire : Cette dernière phrase est capitale : supposons que le système ne subit aucune rupture de son mouvement normal (mouvement newtonien avec collisions mutuelles ou avec la paroi de la boîte, mais surtout pas avec autre chose, comme par exemple une nouvelle paroi séparant la boîte en deux). Cela exprime le fait que le système est isolé. Il peut alors arriver que par hasard'' à un instant t1 toutes les molécules se trouvent dans la moitié droite de la boîte. Cela n'arrive pas souvent: avec quarante molécules, en admettant qu'entre deux vues successives dufilm’’ les molécules se soient déplacées en moyenne sur une distance de l’ordre du dixième de la largeur de la boîte, il faut laisser passer au moins 1013 vues instantanées pour avoir une chance d’observer cela. Avec 8 molécules, il suffirait de 2500 images, et avec 1024 molécules il faudrait quelque 10300 000 000 000 000 000 000 000 images. Pour un film au format 16 mm, cela correspond à une durée de projection de l’ordre de 100 secondes pour 8 molécules, de 10 000 ans pour 40 molécules, 10300 000 000 000 000 000 000 000 années pour 1024 molécules. Si vous regardez le film de 40 molécules pendant 10 000 ans, ne ratez pas l’instant où toutes les molécules seront dans la moitié gauche de la boîte (attention, l’événement ne dure qu’une fraction de seconde), car il serait dommage d’avoir attendu cet instant pendant 6000 ans et de le rater. Il n’aurait en effet guère de chances de se reproduire avant 10 000 nouvelles années. Lorsque cet événement se sera produit, découpez le morceau de film qui commence une minute avant et se termine une minute après et projetez le à l’endroit ou à l’envers. Il vous sera effectivement impossible de savoir lequel des deux sens de projection est plus réaliste que l’autre.
Mais dans aucune situation concrète de la vie réelle vous ne pourrez attendre 10300 000 000 000 000 000 000 000 années pour voir un gaz se concentrer spontanément dans une moitié de récipient. Si vous voulez mettre un gaz dans une bouteille vous le ferez passer par un tuyau, poussé par une pompe. D’où la conclusion :
Le système évolue toujours vers une situation de plus grand désordre que le temps se déroule en avant ou en arrière. La seule autre possibilité pour amener le système dans une situation particulière non désordonnée à un instant t1, c’est une interaction avec un autre système à un instant antérieur à t1 [c’est-à-dire une préparation]. Mais dans ce cas, le sens du temps est indiqué par la connaissance de cette interaction avec un autre système à un autre instant précédant t1.

Les textes suivants parlent de la même chose, avec seulement des différences de style.

L. Landau et E. Lifchitz.
Mais la contradiction apparaît néanmoins lorsqu’on considère un autre aspect de la question. Lorsqu’on a formulé la loi de la croissance de l’entropie, on a parlé de la conséquence la plus probable d’un état macroscopique pour un moment donné. Mais cet état devait surgir à partir d’autres états comme résultat des processus se déroulant dans la nature. La symétrie par rapport aux deux sens du temps veut dire que, pour tout état macroscopique arbitraire d’un système isolé à un certain moment t = t0, on peut affirmer que la conséquence la plus probable pour t > t0 est non seulement une augmentation de l’entropie, mais également que celle-ci ait surgi des états d’entropie supérieure ; en d’autres termes, le plus probable est d’avoir un minimum de l’entropie en fonction du temps pour le moment t = t0 pour lequel l’état macroscopique est choisi d’une manière arbitraire.
Mais cette affirmation n’est évidemment, en aucune mesure, équivalente à la loi de la croissance de l’entropie suivant laquelle dans tous les systèmes isolés existant dans la nature l’entropie ne diminue jamais (fluctuations tout à fait infimes mises à part). Et c’est justement ainsi formulée que la loi de la croissance de l’entropie se trouve entièrement confirmée par tous les phénomènes observés dans la nature. Soulignons qu’elle n’est en aucun cas équivalente à la loi formulée au début de ce paragraphe [celle sur la symétrie par rapport aux deux sens du temps], comme on pourrait le croire à tort. Pour passer d’un énoncé à l’autre il aurait fallu introduire la notion d’un observateur qui aurait artificiellement préparé'' à un certain moment le système isolé, de manière que la question de savoir son comportement antérieur tombe d'elle-même; il est évidemment tout à fait inadmissible de relier ainsi les propriétés de l'observateur aux lois physiques. Boltzmann. Ce n'est en aucune façon le signe avec lequel on compte les temps qui constitue la différence caractéristique entre un état organisé et un état dénué d'organisation. Si, dans l'état que l'on a adopté comme état initial de la représentation mécanique de l'univers, on venait à inverser exactement les directions de toutes les vitesses sans changer ni leurs grandeurs ni les positions des parties du système; si l'on parcourait, pour ainsi dire, à reculons, les différents états du système, ce serait encore un état non probable par lequel on débuterait et un état plus probable qu'on atteindrait par la suite. C'est seulement pendant le laps de temps qui conduit d'un état initial très peu probable à un état ultérieur beaucoup plus probable, que les états se transformemt d'une façon différente dans la direction positive des temps et dans la direction négative. Et un peu plus loin Pour l'univers tout entier, les deux directions du temps sont donc impossibles à distinguer, de même que dans l'espace, il n'y a ni dessus ni dessous. Mais, de même qu'en une région déterminée de la surface de notre planète, nous considérons comme le dessous la direction qui va vers le centre de la Terre, de même un être vivant dans une phase déterminée du temps et habitant un tel monde individuel, désignera la direction de la durée qui va vers les états les moins probables autrement que la direction contraire: la première sera pour lui le passé ou le commencement, et la seconde l'avenir ou la fin. Peierls. Peierls reprend d'abord le problème des molécules enfermées dans une boîte divisée par la pensée en deux moitiés (the two chambers problem’’) :
Some textbooks explain this paradox [Loschmidt’s paradox] by saying that, whereas particle mechanics makes predictions about the motion of individual particles, statistical mechanics makes probability statements about large ensembles of particles. This is true, but it dés not explain why the use of probabilities and statistics should create a difference between past and future where none existed before.
The real answer is quite different. Suppose from t = 0 when we assumed the particles distributed at random within each container and to move in random directions, we follow the particle trajectories, not for positive times, but negative t, i.e., into the past. This will give a curve for the entropy looking like the broken curve in figure [hereafter], and it will be the mirror image of the solid curve.
We see therefore that the symmetry in time is preserved fully in these two calculations. However, the solid curve to the right describes a situation which occurs in practice, and therefore provides the answer to a realistic question, whereas the broken curve to the left dés not.
The situation to which the broken, left-hand curve would be applicable would be the following : Arrange for particles at t = 0 to be distributed in given numbers over the two chambers [the two parts of the box], their positions being random in each chamber, and their velocites having a Maxwell-Boltzmann distribution. Ensure that prior to t = 0, at least after some finite T, there was no external interference, and observe the state of affairs at t = T. This is evidently impossible ; the only way in which we can influence the distribution of molecules at t = 0 is by taking action prior to that time.
On reconnaît dans ce passage essentiellement le même argument que dans [4], [5], [6] cités ci-dessus. Mais Peierls aborde encore le problème par un autre côté (le Stoßzahl Ansatz'' de Boltzmann,l’argument du nombre de collision’’). Considérons un flux de molécules en mouvement uniforme de vitesse [(va)\vec] ; cela correspond à un état macroscopique d’entropie non maximale. Dans ce flux, découpons par la pensée un cylindre étroit parallèle à la direction de ce flux, le cylindre a comme sur la figure ci-dessous :

Les molécules du cylindre a, qui ont toutes la même vitesse [(va)\vec], rebondissent sur l’obstacle diffuseur (the scatterer'', hachuré sur la figure), en sorte que leurs vitesses après cette collision sont diverses puisque le diffuseur est supposé courbe. Par conséquent dans le cylindre b de la figure, il ne reste plus qu'une partie des molécules qui avant la collision étaient dans le cylindre a, mais elles s'ajoutent à celles qui étaient en dehors du cylindre a et qui ont poursuivi leur trajectoire à la vitesse [(va)\vec] sans rencontrer de diffuseur. The Stosszahl Ansatz of Boltzmann now consists in the seemingly innocuous assumption that a [the density in cylinder a] equals the average densisty of molecules of this type anywhere in the gas, i.e., that there is nothing exceptional about the particular cylinder we have defined. This assumption is the origin of irreversibility, because if it is true, the corresponding statement about the cylinder labeled b in the figure is not true. The only special thing about cylinder a is that it contains the molecules which are going to collide with the scatterer; cylinder b contains those which have just collided. In non-equilibrium conditions, for example in the presence of a drift motion in the a direction, there will be more molecules in the gas as a whole moving in the a direction than in the b direction. Scattering by the center will therefore tend to increase the number in the b direction. If a is the same as elsewhere in the gas, b must then be greater than the average. If the scattering is compared to the time-reversed situation, we see a difference. To reverse the direction of time, we have to replace each molecule in b by one of the opposite velocity, and have them scattered by the target to travel in the direction opposite to that of a. The number would not be changed, and if b in the cylinder b differs from the average over the whole gas, it will also differ from what, with Boltzmann, we should assume about the inverse process. It seems intuitively obvious that the molecules should not be influenced by the fact that they are going to collide, and very natural that they should be affected by the fact that they have just collided. But these assumptions, which cause the irreversibility, are not self-evident. If we assume, however, that the state of the gas was prepared in some manner in the past, and that we are watching its subsequent time development, then it follows that correlations between molecules and scattering centers will arise only from past, but not from future, collisions. This shows that the situation is, in principle, still the same as in our two-chamber problem. L'argument n'est peut-être pas développé avec la clarté maximale, donc j'ajoute une petite explication supplémentaire. L'idée est ici la suivante: si au départ les molécules ont toutes la même vitesse [(va)\vec], tout le monde comprend que, à cause du diffuseur, les vitesses après collision seront désordonnées. En retournant le temps, l'intuition sera choquée que des vitesses désordonnées aboutissent à un flux ordonné, parce que ce processus inverse donnera l'impression que les molécules du cylindre b devaient savoir comment elles allaient rebondir sur le diffuseur, et devaient ajuster leur vitesse de telle manière qu'après collision elle devienne égale à [(va)\vec]. Elles devaient donc se déterminer d'après leur futur. Peierls veut ainsi montrer que l'inversion est contraire à la causalité. We have recognized the origin of the irreversibility in the question we ask of statistical mechanics, and we have seen that their lack of symmetry originates in the limitations of the experiments we can perform. ( . . . ) As long as we have no clear explanation for this limitation, we might speculate whether the time direction is necessarily universal, or whether we could imagine intelligent beings whose time runs opposite to ours ( . . . ) En attendant que l'on découvre l'explication de cette limitation, je propose de l'intégrer sans explication parmi les principes fondamentaux: il est impossible de réaliser un démon de Maxwell, tout comme on a fait pour l'inertie en attendant d'en trouver l'explication. Maxwell. Ce passage de Theory of Heat se trouve quelques pages avant la fin. La partie qui décrit ce qui sera plus tard appelé démon de Maxwell - par Lord Kelvin - est extrêmement célèbre (Imaginons cependant un être dont les facultés seraient si pénétrantes . . . ’’). Cependant la citation ci-dessous commence un peu avant ce passage célèbre et finit un peu au-delà afin de montrer qu’en 1871 Maxwell avait parfaitement compris que le point crucial du second principe n’est pas tant la croissance mathématique de l’entropie, que l’impossibilité de réaliser un état microscopique prédéfini. Cette lucidité pourra être confrontée à la confusion du débat qui perdure depuis 130 ans.
Un des faits les plus solidement établis de la Thermodynamique est que, dans un système qui est enfermé à l’intérieur d’une cloison ne permettant ni variation de volume ni échange de chaleur, et dont la température et la pression ont partout la même valeur, il est impossible de produire un écart de température sans fournir du travail. C’est là tout le sens du second principe de la thermodynamique ; ce dernier est sans aucun doute vérifié tant que nous ne manipulons les corps que par grandes masses et que nous ne disposons pas du pouvoir d’identifier et de manipuler les molécules individuelles qui composent ces masses. Imaginons cependant un être dont les facultés seraient si aigües qu’il serait en mesure de suivre chaque molécule dans son mouvement, tout en étant comme nous mêmes de conformation essentiellement finie ; alors il lui serait possible de réaliser ce qui nous est impossible. Car nous avons vu que les molécules d’un gaz de température uniforme contenu dans un récipient ne sont nullement animées de vitesses uniformément distribuées, bien que la vitesse moyenne soit pratiquement la même sur n’importe quel sous-ensemble suffisamment gros d’entre elles. Imaginons donc qu’un tel récipient soit divisé en deux parties A et B par une cloison séparatrice, dans laquelle serait pratiquée une petite ouverture et qu’un tel être capable de voir les molécules individuelles ouvre ou ferme cette ouverture de manière à ne laisser passer de A vers B que les seules molécules rapides, et de B vers A les seules molécules lentes. Cet être est ainsi en mesure de relever la température de la partie B au détriment de la partie A sans dépense de travail, ce qui est en contradiction avec le second principe.
Ce n’est là qu’un exemple parmi d’autres, dans lequel les conclusions que nous avons tirées de notre expérience avec les corps composées d’un grand nombre de molécules pourraient cesser d’être applicables à des méthodes d’observation et d’investigation plus fines telles que pourraient les mettre en oeuvre des êtres capables de percevoir et manipuler individuellement ces molécules que nous ne pouvons manipuler que par grandes masses.
Et puisqu’en les manipulant par masses nous n’avons aucun accès aux molécules individuelles, nous sommes bien obligés de recourir au calcul statistique ; ce pas accompli, nous abandonnons la méthode dynamique rigoureuse, par laquelle nous calculons le détail de chaque mouvement individuel.
N. B. Le passage ci-dessus est l’origine historique du démon de Maxwell ; c’est en effet dans Theory of Heat de 1871 que cette idée est publiée pour la première fois. Elle était cependant reprise d’une lettre de Maxwell à Peter Guthrie Tait en 1867.

Poincaré.
Voici maintenant deux extraits de H. Poincaré. Le principal argument avancé par Poincaré est celui du nécessaire retour de n’importe quel système dynamique à des états déjà occupés dans le passé. Il s’agit de la propriété des systèmes dynamiques que, ou bien les trajectoires sont périodiques, ou bien elles remplissent de manière dense l’hypersurface d’énergie. Si le système a occupé à l’instant t = 0 un état microscopique défini par les valeurs de toutes les coordonnées et impulsions, alors au bout d’un temps fini T il repassera aussi près qu’on voudra de cet état initial après s’en être écarté. Ainsi, si l’entropie avait une valeur non maximale S0 à t = 0, elle redescendra inévitablement à cette valeur à l’instant T, après avoir été maximale entretemps. Cet argument a été repris notamment par E. Zermelo (voir extraits de [12] et [13] ci-dessous). On ne reproduira pas ici les travaux de Poincaré sur ce point, ils sont bien trop techniques et de toute façon sont fort connus. On les trouvera dans [9], mais aussi dans n’importe quel ouvrage actuel sur le chaos.
L’extrait qui suit concerne un autre théorème qui affirme qu’une fonction des coordonnées et des vitesses d’un système dynamique ne peut en aucun cas être monotone.

« Parmi les tentatives qui ont été faites pour rattacher aux théorèmes généraux de la Mécanique les principes fondamentaux de la Thermodynamique, la plus intéressante est, sans contredit, celle que M. Helmholtz a développée dans son Mémoire sur la statique des systèmes monocycliques (Journal de Crelle, t. 97) et dans son Mémoire sur le principe de la moindre action (Journal de Crelle, t. 100). L’explication proposée dans ces deux Mémoires me paraît satisfaisante en ce qui concerne les phénomènes réversibles.
Les phénomènes irréversibles se prêtent-ils de la même manière à une explication mécanique ; peut-on, par exemple, en se représentant le monde comme formé d’atomes, et ces atomes comme soumis à des attractions dépendant des seules distances, expliquer pourquoi la chaleur ne peut jamais passer d’un corps froid sur un corps chaud ? Je ne le crois pas, et je vais expliquer pourquoi la théorie de l’illustre physicien ne me semble pas s’appliquer à ce genre de phénomènes.
Poincaré expose alors sa démonstration d’un théorème qui sera fréquemment invoqué dans la suite (voir plus bas les extraits de [14]). En voici le principe. Le système étant un système dynamique, on peut avoir les équations du mouvement exact de toutes les molécules sous la forme hamiltonienne ; si les xj sont les coordonnées et les pj les impulsions des molécules, on aura [H(x,p) étant l’hamiltonien du système] : et ceci doit être positif. Si un état quelconque du système correspond à l’équilibre, appelons pj(0) et xj(0) les coordonnées correspondantes et considérons le développement de Taylor des fonctions S et H en puissances de pj  pj(0) et xj  xj(0). Le terme linéaire est nul à cause du choix de l’origine. Poincaré écrit [j’ai modifié ses notations pour respecter les usages actuels] :
Pour ces valeurs (pj(0) et xj(0)), les dérivées du premier ordre de S s’annulent, puisque S doit atteindre son maximum. Les dérivées de H s’annulent également, puique ce maximum est une position d’équilibre et que dxj / dt et dpj / dt doivent s’annuler.
Si donc nous développons S et H suivant les puissances croissantes des pj  pj(0) et xj  xj(0), les premiers termes qui ne s’annuleront pas seront ceux du deuxième degré. Si, de plus, on considère les valeurs de pj et de xj assez voisines de pj(0) et xj(0) pour que les termes du troisième degré soient négligeables, S et H se réduiront à deux formes quadratiques en pj  pj(0) et xj  xj(0).
H sera encore une forme quadratique par rapport aux pj  pj(0) et aux xj  xj(0).
Pour que l’inégalité dS / dt > 0 soit satisfaite, il faudrait que cette forme fût définie et positive ; or il est aisé de s’assurer que cela est impossible si l’une des deux formes S et H est définie, ce qui a lieu ici.
Nous devons donc conclure que les deux principes de l’augmentation de l’entropie et de la moindre action (entendu au sens hamiltonien) sont inconciliables. Si donc M. von Helmholtz a montré, avec une admirable clarté, que les lois des phénomènes réversibles découlent des équations ordinaires de la Dynamique, il semble probable qu’il faudra chercher ailleurs l’explication des phénomènes irréversibles et renoncer pour cela aux hypothèses familières de la Mécanique rationnelle d’où l’on a tiré les équations de Lagrange et de Hamilton.

Maxwell admet que, quelle que soit la situation initiale du système, il passera toujours une infinité de fois, je ne dis pas par toutes les situations compatibles avec l’existence des intégrales, mais aussi près qu’on voudra d’une quelconque de ces situations.
C’est ce qu’on appelle le postulat de Maxwell. Nous le discuterons plus loin. ( . . . )
Et plus loin :
Tous les problèmes de Mécanique admettent certaines solutions remarquables que j’ai appelées périodiques et asymptotiques et dont j’ai parlé ici même dans un précédent article [9].
Pour ces solutions, le postulat de Maxwell est certainement faux.
Ces solutions, il est vrai, sont très particulières, elles ne peuvent se rencontrer que si la situation initiale est tout à fait exceptionnelle.
Il faudrait donc au moins ajouter à l’énoncé du postulat cette restriction, déjà bien propre à provoquer nos doutes : sauf pour certaines situations initiales exceptionnelles.
Ce n’est pas tout : si le postulat était vrai, le système solaire serait instable ; s’il est stable, en effet, il ne peut passer que par des situations peu différentes de sa situation initiale. C’est là la définition même de la stabilité.
Or, si la stabilité du système solaire n’est pas démontrée, l’instabilité l’est moins encore et est même peu probable.
Il est possible et même vraisemblable que le postulat de Maxwell est vrai pour certains systèmes et faux pour d’autres, sans qu’on ait aucun moyen certain de discerner les uns des autres.
Il est permis de supposer provisoirement qu’il s’applique aux gaz tels que la théorie cinétique les conçoit ; mais cette théorie ne sera solidement assise que quand on aura justifié cette supposition mieux qu’on ne l’a fait jusqu’ici.
On comprendra mieux l’ampleur du malentendu entre Poincaré (éminent représentant de la Physique mathématique) et la Physique réelle en évaluant quantitativement les grandeurs dont seules l’existence'', ou lafinitude’’, sont ici évoquées. En effet, le théorème de Poincaré sur l’éternel retour d’un système dynamique au voisinage de son état initial est un théorème qui s’énonce sous la forme :
pour tout , il existe un temps T au bout duquel le système repassera à une distance inférieure à  de son état initial.'' Poincaré interprète le second principe d'une manière analogue: pour lui, affirmer la croissance de l'entropie, c'est affirmer que pour tout t > t on doit avoir S(t)  S(t). Or le principe physique est très différent; il dit que pour toute durée physique l'entropie ne peut diminuer que d'une valeur infime, et pendant un temps très bref. Le théorème de Poincaré affirme qu'il existe un temps T au bout duquel l'entropie reprendra sa valeur initiale, mais il ne dit pas que ce temps est de l'ordre de 10300 000 000 000 000 000 000 000 années, ni que la durée du retour à la valeur intiale est de l'ordre d'une fraction de seconde. Le vrai second principe ne dit pas sans autre précision que l'entropie est une fonction croissante du temps. Si on veut l'énoncer sous une forme vraiment complète, cela donne ceci: a) Pour tout état initial du système sauf un nombre infime, et pendant des durées ayant un sens physique [donc incomparablement plus courtes que 10N, N étant le nombre de molécules], l'entropie du système ne s'écarte pas notablement d'une fonction croissante. b) Pendant chaque seconde de la durée d'existence physique du système isolé, l'entropie ne cesse de croître et décroître des millions de fois, en effectuant des oscillations qui sont toujours imperceptibles, car il est absolument impossible qu'un écart notable se produise spontanément etpar hasard’’ avant des temps bien supérieurs à 10N.

Voici maintenant la réponse de Boltzmann aux arguments de Poincaré. Ces derniers ont été rapportés aux physiciens de langue allemande par E. Zermelo (Wiedemanns Annalen, 1896, vol. 57, p. 485 et vol. 59, p. 793).

Boltzmann.
Le mémoire de M. Zermelo Über einen Satz der Dynamik und die mechanische Wärmetheorie'' montre que mes travaux sur le sujet n'ont malgré tout pas été compris; en dépit de cela, je dois cependant me réjouir de cette publication comme étant la première manifestation de l'intérêt suscité par ces travaux en Allemagne. Le théorème de Poincaré discuté au départ par M. Zermelo est bien entendu juste, mais son application à la théorie de la chaleur ne l'est pas. J'ai déduit la loi de répartition des vitesses de Maxwell du théorème probabiliste qu'une certaine grandeur H (en quelque sorte la mesure de l'écart de l'état du système par rapport à l'état d'équilibre) ne peut, pour un gaz en repos dans un récipient, que diminuer. La meilleure façon d'illustrer le mode de décroissance de cette grandeur sera d'en représenter la courbe de variation, en portant le temps t en abscisse et la quantité H(t)  Hmin en ordonnée; on obtiendra ainsi ce que j'appelle la courbe H. ( . . . ) La courbe reste alors la plupart du temps tout près de l'axe des abscisses. Ce n'est qu'à des instants extrêmement rares qu'elle s'en écarte, en formant ainsi une bosse, et il est clair que la probabilité d'une telle bosse décroît rapidement avec sa hauteur. À chacun des instants pour lesquels l'ordonnée de la courbe est très petite, règne la distribution des vitesses de Maxwell; on s'en écarte notablement là où il y a une grosse bosse. M. Zermelo croit alors pouvoir déduire du théorème de Poincaré que le gaz ne peut se rapprocher constamment de la distribution de Maxwell que pour certaines conditions initiales très particulières, en nombre infime comparé à celui de toutes les configurations possibles, tandis que pour la plupart des conditions initiales il ne s'en rapprocherait pas. Ce raisonnement ne me semble pas correct. ( . . . ) Si l'état [microscopique] initial du gaz correspond à une très grosse bosse, c'est-à-dire s'il s'écarte complètement de la distribution des vitesses de Maxwell, alors il s'en rapprochera avec une énorme probabilité, après quoi il ne s'en écartera plus qu'infinitésimalement pendant un temps gigantesque. Toutefois, si on attend encore plus longtemps, une nouvelle bosse notable de la courbe H finira par se produire à nouveau et si ce temps est suffisamment prolongé on verra même se reproduire l'état initial. On peut dire que, si le temps d'attente est infiniment long au sens mathématique, le système reviendra infiniment souvent à l'état initial. Ainsi M. Zermelo a entièrement raison quand il affirme que le mouvement est, au sens mathématique, périodique [ou quasi-périodique]; mais loin de contredire mes théorèmes, cette périodicité est au contraire en parfaite harmonie avec eux.         (Vienne, le 20 mars 1896) Cette argumentation magistrale se poursuit, mais je l'interromps ici avec regret pour éviter de rendre cette anthologie trop longue. Suite de la réponse de Boltzmann aux objections de Zermelo : Imaginons que nous retirions brusquement une cloison qui séparait deux gaz de nature différente enfermés dans un récipient [par exemple azote d'un côté et oxygène de l'autre]. On aurait du mal à trouver une autre situation où il y aurait davantage de variables aussi indépendantes les unes des autres, et où par conséquent l'intervention du Calcul des probabilités serait plus justifiée. Admettre que dans un tel cas le Calcul des probabilités ne s'applique pas, que la plupart des molécules ne s'entremêlent pas, qu'au contraire des parties notables du récipient contiendraient nettement plus d'oxygène, d'autres plus d'azote, et ce pendant longtemps, est une thèse que je suis bien incapable de réfuter en calculant dans le détail le mouvement exact de trillions [1012] de molécules, dans des millions de cas particuliers différents, et d'ailleurs je ne veux pas le faire; une telle vision ne serait pas assez fondée pour remettre en question l'usage du Calcul des probabilités, et les conséquences logiques qui s'ensuivent. D'ailleurs le théorème de Poincaré ne contredit pas l'usage du Calcul des probabilités, au contraire il parle en sa faveur, puisque ce dernier enseigne lui aussi que sur des durées fantastiques surviendront toujours de brefs instants pendant lesquels on sera dans un état de faible probabilité et de faible entropie, où par conséquent se produiront à nouveau des états plus ordonnés et même des états très proches de l'état initial. En ces temps prodigieusement éloignés dans le futur, n'importe quel écart notable de l'entropie par rapport à sa valeur maximale demeurera évidemment toujours hautement improbable, mais l'existence d'un très bref écart sera lui aussi [sur une telle durée prodigieusement longue] toujours hautement probable. En effet, le Calcul des probabilités enseigne bien que si par exemple on jette une pièce mille fois il est très peu probable d'avoir mille fois face (la probabilité en est 21000  10301); mais si on la jette 10302 fois, alors on n'a qu'une chance sur 45 000 de ne jamais avoir une série de mille faces consécutives. (reprise de la citation)    Il est clair aussi, d'après cet exemple [celui de l'oxygène et de l'azote], que si le processus se déroule de façon irréversible pendant un temps observable, c'est parce qu'on est parti délibérément d'un état improbable. ( . . . )         (Vienne, le 16 décembre 1896) I. Prigogine, I. Stengers. Cet extrait de la nouvelle alliance est particulièrement lumineux. Cependant on le comparera aux textes de Maxwell et Boltzmann ci-dessus pour constater que ce qui est expliqué là en 1979 était déjà bien compris par les pères fondateurs. Il est cependant prévisible que l'effort d'explication tenté par Prigogine et Stengers restera aussi vain que les efforts de Boltzmann, et que d'autres auteurs devront le répéter à nouveau en 2079. Dès la publication du travail de Boltzmann en 1872, des objections furent opposées à l'idée que le modèle proposé ramenait l'irréversibilité à la dynamique. Retenons ici deux d'entre elles, l'une de Poincaré, l'autre de Loschmidt. L'objection de Poincaré porte sur la question de la symétrie de l'équation de Boltzmann. Pour éviter de rendre la citation trop longue ou d'avoir à donner trop d'explications, je signale simplement qu'il s'agit ici de l'équation établie par Boltzmann pour la fonction de distribution f(r,v,t) qui représente le nombre de molécules du système ayant, à l'instant t, la vitesse v et la position r. Boltzmann a montré que la fonction H = f logf  dv ne peut que diminuer, et a postulé que l'entropie du système est la même chose que kH (k constante de Boltzmann). Un raisonnement correct [écrit Poincaré] ne peut mener à des conclusions en contradiction avec les prémisses. Or, comme nous l'avons vu, les propriétés de symétrie de l'équation d'évolution obtenue par Boltzmann pour la fonction de distribution contredisent celles de la dynamique. Boltzmann ne peut donc pas avoir déduit l'entropie de la dynamique, il a introduit quelque chose, un élément étranger à la dynamique. Son résultat ne peut donc être qu'un modèle phénoménologique, sans rapport direct avec le dynamique. Poincaré était d'autant plus ferme dans sa position qu'il avait étudié dans une brève note s'il était possible de construire une fonction M des positions et des moments, M(p,q), qui aurait les propriétés de l'entropie (ou plutôt de la fonction H): alors qu'elle même serait positive ou nulle, sa variation au cours du temps ne pourrait que la faire décroître ou la maintenir à une valeur constante. Sa conclusion fut négative - dans le cadre de la dynamique hamiltonienne une telle fonction n'existe pas. Comment, d'ailleurs s'en étonner? Comment les lois réversibles de la dynamique pourraient-elles engendrer, de quelque manière que ce soit, une évolution irréversible? C'est sur une note découragée que Poincaré termine ses célèbres Leçons de Thermodynamique: il faudra sans doute faire appel à d'autres considérations, au calcul des probabilités. Mais comment justifier cet appel à des notions étrangéres à la dynamique? Remarque 1: Ce passage [voir aussi les citations directes de Poincaré ci-dessus] met l'accent sur une des sources possibles de confusion. Le résultat de Poincaré est un théorème mathématique:il ne peut pas exister de fonction M(p,q) qui soit à la fois décroissante et toujours positive’’. Or l’entropie, ou toute fonction qui en tient lieu (comme H), ou toute autre fonction caractérisant un état macroscopique (comme le nombre de molécules situées dans la partie gauche du récipient'', etc.) n'est pas une fonction monotone, à cause des fluctuations. Lorsqu'on dit que le système est parvenu à l'équilibre et y reste, c'est-à-dire que l'entropie est devenue maximale, cela signifie qu'elle continue presque éternellement à osciller autour de son maximum théorique et non qu'elle reste mathématiquement égale à ce maximum ou continue de s'en approcher sans cesse davantage et en croissant. Ces oscillations sont très petites si le nombre N de molécules est grand (leur écart-type est de l'ordre de 1 / N), mais il peut s'en produire d'importantes si on attend pendant un temps de l'ordre de 10N. Il est donc essentiel de bien comprendre ceci: l'entropie n'est pas une fonction croissante dans le sens mathématique du terme; c'est seulement une fonction croissante dans un sens pratique. On peut l'exprimer en disant que sur des durées raisonnables, et à de petites fluctuations près elle ne peut décroître. La véritable entropie d'un système physique réel n'est donc pas concernée par le théorème de Poincaré. C'est ce que Boltzmann s'est efforcé d'expliquer dans [12] et [13]. L'objection de Loschmidt permet, quant à elle, de mesurer les limites de validité du modèle cinétique de Boltzmann. Il note en effet que ce modèle ne peut rester valable après un renversement du sens des vitesses v  v. Du point de vue de la dynamique, il n'y a pas d'échappatoire: les collisions, se produisant en sens inverse,déferont’’ ce qu’elles ont fait, le système retournera vers son état initial. Et la fonction H, qui dépend de la distribution des vitesses, devra bien croître elle aussi jusqu’à sa valeur initiale. Le renversement des vitesses impose donc une évolution antithermodynamique. Et en effet, la simulation sur ordinateur confirme bien une croissance de H après l’inversion des vitesses sur un système dont les trajectoires sont calculées de manière exacte.
Il faut donc admettre que la tentative de Boltzmann n’a rencontré qu’un succès partiel : certaines conditions initiales, notamment celles qui résultent de l’opération d’inversion des vitesses, peuvent engendrer, en contradiction avec le modèle cinétique, une évolution dynamique à H croissant. Mais comment distinguer les systèmes auxquels le raisonnement de Boltzmann s’applique de ceux auxquels il ne s’applique pas ?
Ce problème une fois posé, il est facile de reconnaître la nature de la limitation imposée au modèle de Boltzmann. Ce modèle repose en fait sur une hypothèse statistique qui permet l’évaluation du nombre moyen de collisions - le chaos moléculaire'' . Remarque 2: le termechaos’’ n’est pas employé ici dans le sens précis qu’il a acquis depuis, et devrait être remplacé - ici et dans la suite - par stochasticité''. En effet c'est le mouvement dynamique exact des molécules qui est chaotique (chaos déterministe’’) et l’hypothèse statistique qu’il est question d’introduire consiste à éliminer l’exactitude déterministe des conditions initiales et de les supposer simplement aléatoires.
(reprise de la citation) Cette hypothèse suppose qu’avant la collision, les molécules ont des comportements indépendants les uns des autres, ce qui revient à dire qu’il n’y a aucune corrélation entre leurs vitesses. Or, si on impose au système de remonter le temps'' , on crée une situation tout à fait anormale: certaines molécules sont désormaisdestinées’’ à se rencontrer en un instant déterminable à l’avance et à subir à cette occasion un changement de vitesse prédéterminé. Aussi éloignées qu’elles soient les unes des autres au moment de l’inversion des vitesses, cette opération crée donc entre elles des corrélations, elles ne sont plus indépendantes. L’hypothèse du chaos [stochasticité] moléculaire ne peut être faite à propos d’un système qui a subi l’opération d’inversion des vitesses.
L’inversion des vitesses est donc une opération qui crée un système hautement organisé, au comportement apparemment finalisé : l’effet des diverses collisions produit, comme par harmonie préétablie, une évolution globale antithermodynamique'' (par exemple la ségrégation spontanée entre molécules lentes et rapides si, à l'instant initial, le système avait été préparé par la mise en contact de deux gaz de températures différentes). Mais accepter la possibilité de telles évolutions antithermodynamiques, même rares, même exceptionnelles (aussi exceptionnelles que la condition initiale issue de l'inversion des vitesses), c'est mettre en cause la formulation du second principe: il existe des cas où par exemple une différence de température pourrait se produirespontanément’’ . Nous devons alors préciser les circonstances dans lesquelles un processus irréversible pourrait devenir réversible, voire même annuler un processus irréversible qui s’est produit dans le passé. Le principe cesse d’être un principe pour devenir une généralisation de portée limitée.
Remarque 3 : Prigogine et Stengers parlent donc ici d’une mise en cause du second principe, et d’une limitation de sa portée. La limitation étant que, pour un système dynamique chaotique (au sens actuel de ce terme : chaotique = rigoureusement déterministe, mais avec extrême sensibilité aux conditions initiales), l’entropie n’est pas une fonction croissante dans absolument tous les cas. En réalité c’est plutôt un problème d’interprétation de l’énoncé du second principe. Il y a un second principe pour mathématiciens'' qui stipule que l'entropie est une fonction du temps t qui tend en croissant vers une limite lorsque t tend vers l'infini. Ce principe est faux car il existe des états microscopiques du système qui le mettent en défaut (les étatshautement organisés, au comportement apparemment finalisé’’). Même si on écarte ces états exceptionnels, la démonstration de Poincaré prouve en outre que l’entropie n’est jamais rigoureusement croissante au sens mathématique, mais on pourrait aisément corriger ce dernier défaut en énonçant par exemple : l'entropie ne s'écarte jamais notablement d'une fonction croissante''. La difficulté qui demeurera cependant toujours est que, même ainsi énoncé, on ne pourra pas garantir avec l'absolue certitude mathématique que la fonction reste croissante pendant des durées aussi grandes qu'on veut. Pourtant, pour la quasi totalité des états, la fonction restera croissante pendant des durées si longues qu'elles en perdent tout sens physique. Ainsi. en tant quegénéralisation de portée limitée’’ (et non principe digne de ce nom) le second principe pourrait s’énoncer :
Pour tout état initial du système sauf un nombre infime, et pendant des durées courtes devant 10N (N étant le nombre de molécules), l’entropie du système ne s’écarte pas notablement d’une fonction croissante.
Cela dit, le fait de juger cet énoncé comme trop réduit ou trop limité pour mériter le nom de principe est une affaire de convention. Car les durées (non courtes devant 10N) pour lesquelles il ne s’applique pas n’ont aucune existence pratique, et les fluctuations qui produisent les oscillations non monotones de l’entropie sont bien plus petites que ce qu’on a l’habitude, dans les théories physiques, de considérer comme nul.
Les états hautement organisés, au comportement apparemment finalisé'' ont une probabilité si inconcevablement petite de se produire spontanément qu'ils ne se produisent jamais (Émile Borel), et la seule possibilité de les rencontrer en physique serait de les préparer. Pour avoir un principe physique et non un principe pour purs mathématiciens, censé s'appliquer dans le ciel des idées, il suffit de dire qu'on ne peut pas préparer de tels états et d'inclure cette impossibilité dans l'énoncé du principe. Cela ne le fait pas tomber d'un piédestal, mais a au contraire l'avantage d'en dégager le véritable sens, celui d'une propriété de la nature et non d'une vision de l'esprit. Mélangeons [proposait Gibbs], une goutte d'encre noire à de l'eau pure. Bientôt l'eau devient grise en une évolution qui, pour nous, est l'irréversibilité même; cependant, pour l'observateur aux sens assez aigus pour observer non pas le liquide macroscopique mais chacune des molécules qui constituent la population, le liquide ne deviendra jamais gris; l'observateur pourra suivre les trajectoires de plus en plus délocalisées desmolécules d’encre’’ d’abord rassemblées dans une petite région du système, mais l’idée que le milieu d’hétérogène est irréversiblement devenu homogène, que l’eau est devenue grise'' sera, de son point de vue, une illusion déterminée par la grossièreté de nos moyens d'observation, une illusion subjective. Lui-même n'a vu que des mouvements, réversibles, et ne voit rien de gris, mais dunoir’’ et du blanc'' . ( . . . ) Selon cette interprétation, la croissance de l'entropie ne décrit pas le système lui-même, mais seulement notre connaissance du système. Ce qui ne cesse de croître c'est l'ignorance où nous sommes de l'état où se trouve le système, de la région de l'espace des phases où le point qui le représente a des chances de se trouver. À l'instant initial, nous pouvons avoir beaucoup d'informations sur un système, et le localiser assez précisément dans une région restreinte de l'espace des phases, mais, à mesure que le temps passe, les points compatibles avec les conditions initiales pourront donner naissance à des trajectoires qui s'éloignent de plus en plus de la région de départ. L'information liée à la préparation initiale perd ainsi irréversiblement sa pertinence jusqu'au stade ultime où on ne connaît plus du système que les grandeurs que l'évolution dynamique laisse invariantes. Le système est alors à l'équilibre ( . . . ) La croissance de l'entropie représente donc la dégradation de l'information disponible; le système est initialement d'autant plus loin de l'équilibre que nous le connaissons mieux, que nous pouvons le définir plus précisément, le situer dans une région plus petite de l'espace des phases. Cette interprétation subjectiviste de l'irréversibilité comme croissance de l'ignorance (encore renforcée par l'analogie ambigüe avec la théorie de l'information) fait de l'observateur le vrai responsable de l'asymétrie temporelle qui caractérise le devenir du système. Puisque l'observateur ne peut embrasser d'un seul coup d'oeil les positions et les vitesses des particules qui constituent un système complexe, il n'a pas accès à la vérité fondamentale de ce système: il ne peut connaître l'état instantané qui en contient à la fois le passé et le futur, il ne peut saisir la loi réversible qui, d'instant en instant, lui permettrait d'en déployer l'évolution. Et il ne peut pas non plus manipuler le système comme le fait le démon de Maxwell, capable de séparer les particules rapides et les particules lentes, et d'imposer ainsi à un système une évolution antithermodynamique vers une distribution de température de moins en moins uniforme. La thermodynamique est certes la science des systèmes complexes, mais, selon cette interprétation, la seule spécificité des systèmes complexes, c'est que la connaissance qu'on a d'eux est toujours approximative et que l'incertitude déterminée par cette approximation va croissant au cours du temps. ( . . . ) Cependant, l'objection est immédiate: dans ce cas, la thermodynamique devrait être aussi universelle que notre ignorance. C'est là la pierre d'achoppement de l'ensemble des interprétationssimples’’ de l’entropie, en termes d’incertitude sur les conditions initiales ou sur les conditions aux limites. Car, l’irréversibilité n’est pas une propriété universelle ; articuler dynamique et thermodynamique nécessite donc la définition d’un critère physique de différentiation entre les systèmes, selon qu’ils peuvent ou non être décrits thermodynamiquement, nécessite une définition de la complexité en termes physiques et non en termes de manque de connaissance.
À partir de là les auteurs insistent sur le caractère objectif de l’irréversibilité ou plutôt de la complexité (page 213 et après) : le comportement des corps macroscopiques est bien réel et physique, la complexité est une qualité réelle et physique qui décidera si le corps aura un comportement thermodynamique ou un mouvement mécanique, etc. Ils ont bien raison, mais cela nous éloignerait de notre sujet.

REFERENCES.

[1] Ludwig Boltzmann Weitere Studien über Wärmegleichgewicht unter Gasmolekülen. Wiener Berichte 66 ( 1872), p. 275.
[2] James Clerk Maxwell Illustrations of the Dynamical Theory of Gases. Phil. Mag. 19 ( 1860), pp. 19.
[3] Joseph Loschmidt Über das Wärmegleichgewicht eines Systems von Körpern mit Rücksicht auf die Schwere. Wiener Berichte 73, ( 1876), pp. 139.
[4] Frederik Reif Cours de Physique de Berkeley : tome 5, Physique statistique. Armand Colin, Paris ( 1972), pour l’édition française.
[5] Lev Landau et Ievgueni Lifchitz Physique statistique. Mir, Moscou ( 1967).
[6] Ludwig Boltzmann Leçons sur la théorie des gaz. Réédition Jacques Gabay, Paris, ( 1987).
[7] Rudolf Peierls Surprises in Theoretical Physics. Princeton University Press (coll. Princeton series in Physics), Princeton, New Jersey ( 1979).
[8] James Clerk Maxwell Theory of Heat. Longmans & Green, London ( 1871).
[9] Henri Poincaré Sur le problème des trois corps. Revue générale des Sciences pures et appliquées II, vol 8 (15 janvier 1891), page 529.
[10] Henri Poincaré Sur les tentatives d’explication mécanique des principes de la Thermodynamique. Comptes-rendus de l’Académie des Sciences, vol 108 (18 mars 1889), pages 550 - 553.
[11] Henri Poincaré Sur la théorie cinétique des gaz. Revue générale des Sciences pures et appliquées, vol 5 ( 1894), pages 513 - 521.
[12] Ludwig Boltzmann Entgegnung auf die Wärmetheoretischen Betrachtungen des Hrn. E. Zermelo. Wiedemanns Annalen, vol 57 ( 1896), pages 773 - 784.
[13] Ludwig Boltzmann Zu Hrn. Zermelos Abhandlung ``Über die mechanische Erklärung irreversibler Vorgänge’’. Wiedemanns Annalen, vol 60 ( 1897), pages 392 - 398.
[14] Ilya Prigogine, Isabelle Stengers La nouvelle alliance. NRF Gallimard, Paris ( 1979).

MOTS CLEFS :

dialectique
discontinuitéfractales -
physique quantiquerelativité
chaos déterministeatome
système dynamiquestructures dissipativespercolationirréversibilité
non-linéaritéquanta
émergence
inhibition
boucle de rétroactionrupture de symétrie - turbulencemouvement brownien
le temps -
contradictions
crise
transition de phasecriticalité - attracteur étrangerésonancepsychanalyse -
auto-organisationvide - révolution permanente - Zénon d’Elée - Antiquité -
Blanqui -
Lénine -
TrotskyRosa Luxemburg
Prigogine -
Barta -
Gould - marxisme - Marx - la révolution - l’anarchisme - le stalinisme - Socrate - socialisme - religion

SITE :
MATIERE ET REVOLUTION

www.matierevolution.fr

P L A N
D U
S I T E

.

Messages

  • S DE BKO Qu’est-ce que l’irréversibilité ?
    dans quels phénomènes pouvons- nous parler d’irréversibilité ? S DE BKO

    • Prigogine a répondu ainsi à ta question : "Il y a une "flèche du temps" que nous rencontrons à tous les niveaux de la physique et de la chimie."

      Cela signifie que le temps s’écoule dans un certain sens et que les phénomènes ne peuvent pas ramener le monde en arrière.

      Le problème pour les physiciens est que les lois de la physique de Newton et de Maxwell étaient réversibles....

      Comment concilier les deux ?

      La physique et la chimie comme les sciences humaines ont voulu voir dans l’univers une tendance à aller vers l’équilibre. Mais le monde n’est heureusement pas ainsi.

      Ils ont compris le monde comme une pomme qui tombe et doit finir par pourrir.

      Ils ont vu dans l’économie capitaliste une tendance commerciale à aller vers l’équilibre : par exemple, celui de l’offre et de la demande.

      Si tout cela était vrai, le monde que nous connaissons ne serait pas apparu.

      Dans un monde ayant tendance à aller vers l’équilbre, le vide n’aurait pas donné naissance à la matière et la matière à la vie ni la vie à l’homme ni l’homme aux diverses sociétés...

      C’est loin de l’équilibre que les phénomènes engendrent des événements, c’est-à-dire de la nouveauté structurelle : produit du neuf....

      D’où vient cette nouveauté structurelle ? Du fait que l’univers est instable et ne peut être stable que structurellement.

      Quelle différence entre une structure et la stabilité ?

      Un exemple l’illustrera : celui de la barque. De génération en génération, on emploie la même barque. Mais au cours des années, on a changé successivement toutes les planches. C’est la forme de la barque qui est restée inchangée...

      Robert Paris

  • "L’irréversibilité ne peut plus être attribuée à une simple apparence qui disparaîtrait si nous accédions à une connaissance parfaite. Elle est une condition essentielle de comportements cohérents de milliards de milliards de molécules. Selon une formule que j’aime a répéter, la matière est aveugle à l’équilibre là où la flèche du temps ne se manifeste pas ; mais lorsque celle-ci se manifeste, loin de l’équilibre, la matière commence à voir ! Sans la cohérence des processus irréversibles de non-équilibre, l’apparition de la vie sur la Terre serait inconcevable. La thèse selon laquelle la flèche du temps est seulement phénoménologique est absurde. Ce n’est pas nous qui engendrons la flèche du temps. Bien au contraire, nous sommes ses enfants."

    Ilya Prigogine

    La fin des certitudes

    • Un autre extrait :

      "La nature nous présente des processus irréversibles et des processus réversibles, mais les premiers sont la règle, et les seconds l’exception. Les processus macroscopiques, tels que réactions chimiques et phénomènes de transport, sont irréversibles. Le rayonnement solaire est le résultat de processus nucléaires irréversibles. Aucune description de l’écosphère ne serait possible sans les processus irréversibles innombrables qui s’y déroulent. Les processus réversibles, en revanche, correspondent toujours à des idéalisations : nous devons négliger la friction pour attribuer au pendule un comportement réversible, et cela ne vaut que comme une approximation. "

  • Gell-Man dans "Le quark et le Jaguar" :

    "L’explication de 1’irréversibilité est qu’il y a plus de manières pour les clous ou les pièces de monnaie d’être mélangés que triés. I1 y a plus de manières pour les pots de beurre et de confiture d’être contaminés 1’un par 1’autre que de rester purs. Et il y a plus de manières pour les molécules d’un gaz d’oxygène et d’azote d’être mélangées que séparées. Dans la mesure où on laisse aller les choses au hasard, on peut prévoir qu’un système clos caractérisé par quelque ordre initial évoluera vers le désordre, qui offre tellement plus de possibilités. Comment ces possibilités doivent-elles être comptées ? Un systeme entièrement clos, décrit de manière exacte, peut se trouver dans un grand nombre d’états distincts, souvent appelés "microétats ". En mécanique quantique, ceux-ci sont les états quantiques possibles du système. Ils sont regroupés en catégories (parfois appelées macroétats) selon des propriétés établies par une description grossière (coarse grained). Les microétats correspondant à un macroétat donné sont traités comme équivalents, ce qui fait que seul compte leur nombre. " Et Gell-Man conclut : " L’entropie et 1’information sont étroitement liées. En fait, l’entropie peut être considérée comme une mesure de l’ignorance. Lorsque nous savons seulement qu’un systeme est dans un macroétat donné, l’entropie du macroétat mesure le degré d’ignorance à propos du microétat du système, en comptant le nombre de bits d’information additionnelle qui serait nécessaire pour le specifier, tous les microétats dans le macroétat étant considérés comme également probables".

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.