jeudi 15 mars 2018, par
« La thermodynamique, correctement interprétée, ne permet pas seulement l’évolution darwinienne ; elle le favorise… L’énergie disponible est l’objet principal de la lutte pour l’existence et l’évolution du monde… La lutte générale pour l’existence des êtres vivants n’est pas une lutte pour les matières premières, matières essentielles qui pour les organismes sont dans l’eau et le sol, tous abondamment disponibles, ni pour l’énergie qui existe en abondance dans le soleil et dans tout corps chaud sous forme de chaleur, mais plutôt une lutte pour l’entropie, qui devient disponible par la transition de l’énergie du soleil chaud à la terre froide. » écrit Ludwig Boltzmann.
L’entropie est une notion issue de la thermodynamique, celle qui relève l’existence d’une flèche du temps c’est-à-dire d’une irréversibilité inhérente au processus naturel (qui est exposée notamment dans le second principe de la thermodynamique) et qui pose un grand nombre de problèmes. Et notamment elle a mené à plusieurs paradoxes. Le premier de ces paradoxes est qu’il s’agit d’une fonction d’état et qui change sans cesse (elle augmente spontanément et de manière aussi bien interne que par interaction avec l’extérieur du système). On se souvient que les paradoxes ont été la source de nombreuses évolutions conceptuelles considérables des sciences, qu’il s’agisse des paradoxes de Zénon ou d’autres… En ce domaine, les paradoxes ont introduit la physique statistique, la conception de la flèche du temps, la notion de qualité de l’énergie, la conception qui allait mener à la physique quantique…
« Si l’on imagine que l’on ait formé d’une manière conséquente pour l’univers entier, en tenant compte de toutes les circonstances, la quantité que j’ai nommée entropie pour un corps particulier, ainsi que la quantité désignée sous le nom d’énergie [...], on pourra exprimer très simplement, sous la forme suivante, les lois fondamentales de l’univers qui correspondent aux deux principes essentiels de la théorie mécanique de la chaleur : 1. L’énergie de l’univers est constante. 2. L’entropie de l’univers tend vers un maximum. » rapporte Rudolf Clausius, dans sa « Théorie mécanique de la chaleur ».
« La question se pose de savoir quels sont les principes généraux de la Physique sur lesquels nous pouvons compter pour la solution des questions qui nous occupent. En premier lieu, nous serons d’accord pour conserver le principe de l’énergie. Il doit en être de même, selon moi, pour le principe de Boltzmann sur la définition de l’entropie par la probabilité : nous devons en admettre sans réserve la validité. Nous devons à ce principe les clartés bien faibles encore que nous pouvons avoir aujourd’hui sur les états d’équilibre statistique dans lesquels interviennent des phénomènes périodiques. (…) La probabilité W d’un état est ainsi définie par sa fréquence relative lorsque le système est indéfiniment abandonné à lui-même. A ce point de vue, il est remarquable que, dans l’immense majorité des cas, il y a, quand on part d’un état initial déterminé, un état voisin qui sera pris, le plus fréquemment de beaucoup, par le système abandonné indéfiniment à lui-même. (…) Si W est défini comme nous l’avons fait, il résulte de cette définition même qu’un système isolé, abandonné à lui-même, doit parcourir généralement des états successifs de probabilités constamment croissantes, de sorte qu’il en résulte entre cette probabilité et l’entropie S du système la relation de Boltzmann : S = k log W + cste. Ceci résulte du fait que W, dans la mesure où l’on admet que le système évolue spontanément de manière déterminée, doit augmenter constamment en fonction du temps, et de ce qu’aucune fonction indépendante de S ne peut avoir cette propriété en même temps que l’entropie elle-même. La relation particulière que donne le principe de Boltzmann à la relation entre W et S résulte des propriétés de l’entropie et de la probabilité des systèmes complexes définies par les équations : S total = somme des entropies et W total = produit des W. Si l’on définit W par la fréquence, comme nous l’avons fait, la relation de Boltzmann prend une signification physique précise. Elle exprime une relation entre des grandeurs observables en principe : on peut en vérifier ou en infirmer l’exactitude. On utilise généralement cette relation de Boltzmann de la manière suivante : on part d’une théorie particulière définie (par exemple, de la mécanique moléculaire), on calcule théoriquement la probabilité d’un état et l’on en déduit l’entropie de cet état par application de la relation de Boltzmann, de manière à connaître ensuite les propriétés thermodynamiques du système. On peut aussi procéder en sens inverse : déterminer par des mesures thermiques effectuées sur un système l’entropie correspondante à chaque configuration et en déduire la probabilité par la relation de Boltzmann. »expose Einstein, discutant des interventions suite à son rapport à la Conférence du premier congrès Solvay de Physique en 1911.
« Comment expliquer dans ce cas (l’agitation des molécules) le phénomène de l’entropie ? Il résulte du caractère aléatoire du mouvement des particules, du fait qu’elles peuvent se déplacer dans n’importe quel sens, et se trouver à n’importe quel endroit. C’est ici que le physicien va employer pour la première fois les termes d’ordre et de désordre dans un sens technique spécifique. Imaginez un cylindre, un piston et un gaz. Puisque le gaz est formé de molécules, celles-ci doivent bombarder les parois du cylindre dans toutes les directions. Qu’appelle-t-on « ordre » ? Le fait qu’au lieu de taper dans toutes les directions, elles ne se meuvent que vers le piston. Si une telle chose arrive, le piston sera déplacé efficacement. Du travail sera fourni. (…) Le travail n’est rien d’autre que le résultat d’un état ordonné des molécules. La chaleur est le contraire. (…) Mais alors que signifie l’entropie (…) Elle signifie simplement qu’un système physique fermé n’est pas spontanément ordonné. (…) L’entropie augmente tant que l’état de désordre n’est pas maximal, c’est-à-dire un état où effectivement les molécules peuvent se trouver dans n’importe quel endroit avec n’importe quelle direction. (…) Sur le long terme, on peut donc effectivement vérifier que les molécules se déplacent n’importe comment, même si sur le court terme il y a des fluctuations. » expose le philosophe des sciences Paul-Antoine Miquel dans « Comment penser le désordre ? ».
« La notion d’entropie développée par Ludwig Boltzmann (...) en physique statistique et en thermodynamique, mesure le degré de désordre d’un système physique. Cette notion d’entropie, dès l’époque de Boltzmann, entretenait des liens solides avec la philosophie, par exemple en ce qui concerne la direction de la flèche du temps. Boltzmann s’est suicidé en partie parce que sa théorie très controversée de l’entropie croissante, postulant que les systèmes physiques passent d’un état ordonné à un état désordonné, impliquant une direction du temps, en contradiction flagrante avec la physique newtonienne (...). » explique Gregory Chaitin, dans « La complexité, vertiges et promesses ».
« L’entropie est l’élément essentiel introduit par la thermodynamique, la science des processus irréversibles, c’est-à-dire orientés dans le temps. Chacun sait ce qu’est un processus irréversible. On peut penser à la décomposition radioactive, ou à la friction, ou à la viscosité qui ralentit le mouvement d’un fluide. Tous ces processus ont une direction privilégiée dans le temps, en contraste avec les processus réversibles tels que le mouvement d’un pendule sans friction. (...) La nature nous présente à la fois des processus irréversibles et des processus réversibles, mais les premiers sont la règle et les seconds l’exception. Les processus macroscopiques, tels que réactions chimiques et phénomènes de transport, sont irréversibles. Le rayonnement solaire est le résultat de processus nucléaires irréversibles. Aucune description de l’écosphère ne serait possible sans les processus irréversibles innombrables qui s’y déroulent. Les processus réversibles, en revanche, correspondent toujours à des idéalisations : nous devons négliger la friction pour attribuer au pendule un comportement réversible, et cela ne vaut que comme une approximation. » affirme Ilya Prigogine dans « La fin des certitudes ».
« Le vivant fonctionne loin de l’équilibre, dans un domaine où les processus producteurs d’entropie, des processus qui dissipent l’énergie, jouent un rôle constructif, sont source d’ordre. » remarque Ilya Prigogine dans « La nouvelle alliance ».
Les principes de la thermodynamique sont les principales lois (principes en fait, car non démontrées) qui régissent la thermodynamique :
• Premier principe de la thermodynamique : principe de conservation de l’énergie ; introduction de la fonction énergie interne, U.
• Deuxième principe de la thermodynamique : principe d’évolution ; création d’entropie, S.
• Troisième principe de la thermodynamique ou principe de Nernst : l’entropie d’un corps pur est nulle à T = 0 K.
On parle aussi du Principe zéro de la thermodynamique et on évoque quelques fois la théorie d’Onsager comme le Quatrième principe de la thermodynamique.
Selon le premier principe de la thermodynamique, lors de toute transformation, il y a conservation de l’énergie.
Dans le cas des systèmes thermodynamiques fermés, il s’énonce de la manière suivante :
« Au cours d’une transformation quelconque d’un système fermé, la variation de son énergie est égale à la quantité d’énergie échangée avec le milieu extérieur, sous forme d’énergie thermique (anciennement nommée chaleur) et de travail. »
Le deuxième principe de la thermodynamique (également connu sous le nom de deuxième loi de la thermodynamique ou principe de Carnot) établit l’irréversibilité des phénomènes physiques, en particulier lors des échanges thermiques. C’est un principe d’évolution qui fut énoncé pour la première fois par Sadi Carnot en 1824. Il a depuis fait l’objet de nombreuses généralisations et formulations successives par Clapeyron (1834), Clausius (1850), Lord Kelvin, Ludwig Boltzmann en 1873 et Max Planck (voir Histoire de la thermodynamique et de la mécanique statistique), tout au long du XIXe siècle et au-delà. Le second principe introduit la fonction d’état entropie : S, usuellement assimilée à la notion de désordre qui ne peut que croître au cours d’une transformation réelle.
Le troisième principe de la thermodynamique, appelé aussi principe de Nernst (1906), énonce que :
« L’entropie d’un cristal parfait à 0 kelvin est nulle. »
Cela permet d’avoir une valeur déterminée de l’entropie (et non pas « à une constante additive près »). Ce principe est irréductiblement lié à l’indiscernabilité quantique des particules identiques.
Dans une autre acception, le troisième principe de la thermodynamique fait référence, dans le cas d’un système ouvert, à l’auto-organisation du système conduisant à la maximisation de la dissipation d’énergie.
Le principe zéro de la thermodynamique permet de définir en thermodynamique la notion de température, en tant que grandeur repérable. La thermométrie est du ressort de ce principe zéro. L’étude du gaz réel aux basses pressions permettra (via la loi d’Avogadro) de donner à la température absolue T le statut de grandeur mesurable, qui se finalisera avec le deuxième principe de la thermodynamique et la variable d’état d’équilibre entropie. En fait le "principe zéro" se déduit alors du deuxième principe et ne jouit en fait que du statut éphémère d’introduction à la notion de température repérable.
Une première petite discussion simple
Encore appelé « paradoxe de la réversibilité »
Paradoxe dit « du démon de Maxwell »
Paradoxe dit du « démon de Laplace »
Paradoxe dit « des cerveaux de Boltzmann »
Entropie et énergie : le paradoxe
Paradoxe dit « des trous noirs »
Paradoxes entropiques en cosmologie
Paradoxe de l’information thermodynamique
Paradoxe de la flèche du temps
Entropie et contradictions dialectiques
Entropie et chaos déterministe
Entropie et mouvement perpétuel
L’entropie croissante est-elle contradictoire avec l’auto-organisation
Pourquoi la matière s’organise spontanément et de manière stable
Les idées d’Ilya Prigogine sur l’entropie
Dialectique et chaos déterministe
Qu’est-ce qu’un paradoxe et que nous enseigne-t-il
Une interprétation du paradoxe de l’irréversibilité
Qu’est-ce que l’irréversibilité ?
Exercices sur le second principe
Thermodynamique : énergie et entropie