English German Espagnol Portugese Chinese Japanese Arab Rusian Italian Norvegian Dutch Hebrew Polish Turkish Hindi
Accueil du site > 02 - Livre Deux : SCIENCES > Atome : lois de la Physique ou rétroaction de la matière/lumière et du vide (...) > Qu’est-ce que l’entropie ?

Qu’est-ce que l’entropie ?

dimanche 10 janvier 2016, par Robert Paris

Entre agitation et organisation : l’entropie Entre entropie (rayonnement, réchauffement, agitation moléculaire) et néguentropie (formation de structures d’amas, de galaxies, d’étoiles, de nuages…)

Qu’est-ce que l’entropie ?

L’entropie est la quantité qui mesure le désordre dans un ensemble d’atomes et de molécules.

Les systèmes proches de l’équilibre thermodynamique sont soumis au théorème de production d’entropie minimum.

La thermodynamique affirme en effet que tout système isolé va vers une perte de niveau d’organisation appelée entropie. Cette loi d’entropie semblait contredire ce que l’on constatait dans certains phénomènes physiques, et tout particulièrement le phénomène de la vie qui produit sans cesse de l’organisation et de la complexification au lieu de détruire des niveaux d’organisation et qui ne tend pas vers l’immobilité. Bien d’autres phénomènes manifestent de cette néguentropie (une perte d’entropie, une augmentation d’organisation) et notamment la formation des atomes, des atomes les plus lourds à partir d’atomes plus légers, des molécules, des étoiles, des galaxies et amas de galaxies…

Mais la première question que l’on est amené à se poser est : pourquoi les systèmes matériels vont-ils vers une perte d’organisation (une augmentation de l’entropie). La réponse moderne est que le vide quantique provoque cette perte d’organisation au niveau microscopique qui se transfert ensuite au niveau macroscopique. voir ici

La notion d’entropie est réliée à celle d’organisation et aussi à celle d’irréversibilité.

Le physicien-chimiste Ilya Prigogine dans "La fin des certitudes" :

« L’entropie est l’élément essentiel introduit par la thermodynamique, la science des processus irréversibles, c’est-à-dire orientés dans le temps. Chacun sait ce qu’est un processus irréversible. On peut penser à la décomposition radioactive, ou à la friction, ou à la viscosité qui ralentit le mouvement d’un fluide. Tous ces processus ont une direction privilégiée dans le temps, en contraste avec les processus réversibles tels que le mouvement d’un pendule sans friction. (...) La nature nous présente à la fois des processus irréversibles et des processus réversibles, mais les premiers sont la règle et les seconds l’exception. Les processus macroscopiques, tels que réactions chimiques et phénomènes de transport, sont irréversibles. Le rayonnement solaire est le résultat de processus nucléaires irréversibles. Aucune description de l’écosphère ne serait possible sans les processus irréversibles innombrables qui s’y déroulent. Les processus réversibles, en revanche, correspondent toujours à des idéalisations : nous devons négliger la friction pour attribuer au pendule un comportement réversible, et cela ne vaut que comme une approximation. »

Autrefois, on en était restés à l’idée de la tendance naturelle au désordre. Se fondant sur le mélange des gaz, l’établissement d’une température et d’une pression moyennes, sur l’étude des machines thermiques et des moteurs, la thermodynamique appelait entropie cette "tendance au désordre maximum". Aujourd’hui, nous reconnaissons la capacité spontanée de la nature à produire de l’ordre : formation d’une étoile, d’un nuage, d’un flocon de neige, d’un cristal. L’exemple le plus éclatant est celui de la vie. En permanence, des cellules se spécialisent, se distribuent des rôles, interagissent.

L’Ecole de Bruxelles, fondée par I. Prigogine, prix Nobel de chimie, est une école de thermodynamique, regroupée autour du sigle : « structures dissipatives ». Elle étudie la formation de structures organisées dans les systèmes hors de l’équilibre. Elle se fonde sur des principes de minimum de production d’entropie et utilise la production en excès de l’entropie comme un moyen pour rechercher l’apparition d’une instabilité, génératrice de formes.

Ilya Prigogine : « Contrairement aux systèmes soit à l’équilibre soit proches de l’équilibre, les systèmes loin de l’équilibre ne conduisent plus à un extremum d’une fonction telles que l’énergie libre où la production d’entropie. En conséquence, il n’est plus certain que les fluctuations soient amorties. Il est seulement possible de formuler les conditions suffisantes de stabilité que nous avons baptisé "critère général d’évolution". Ce critère met en jeu le mécanisme des processus irréversibles dont le système est le siège. Alors que à l’équilibre et près de l’équilibre, les lois de la nature sont universelles, loin de l’équilibre elles deviennent spécifiques, elles dépendent du type de processus irréversibles. Cette observation est conforme à la variété des comportements de la matière que nous observons autour de nous. Loin de l’équilibre, la matière acquiert de nouvelles propriétés où les fluctuations, les instabilités jouent un rôle essentiel : la matière devient active. »

« A l’éternité dynamique s’oppose donc le « second principe de la thermodynamique », la loi de croissance irréversible de l’entropie formulée par Rudolf Clausius en 1865 ; au déterminisme des trajectoires dynamiques, le déterminisme tout aussi inexorable des processus qui nivellent les différences de pression, de température, de concentration chimique et qui mènent irréversiblement un système thermodynamique isolé à son état d’équilibre, d’entropie maximale. (…) Cependant, ce serait une erreur de penser que le second principe de thermodynamique fut seulement source de pessimisme et d’angoisse. Pour certains physiciens, tels Max Planck et surtout Ludwig Boltzmann, il fut aussi le symbole d’un tournant décisif. La physique pouvait enfin décrire la nature en termes de devenir ; elle allait pouvoir, à l’instar des autres sciences, décrire un monde ouvert à l’histoire. » « Entre le temps et l’éternité » d’Ilya Prigogine et Isabelle Stengers

Clausius a montré que le rapport entre Q est la quantité de chaleur reçue par un système et la température T est inférieur ou égal à la variation d’une fonction d’état qu’il a appelée entropie, notée S. Plus l’entropie du système est élevée, moins ses éléments sont ordonnés, liés entre eux, capables de produire des effets mécaniques, et plus grande est la part de l’énergie inutilisable pour l’obtention d’un travail ; c’est-à-dire libérée de façon incohérente.

Rudolf Clausius,"Théorie mécanique de la chaleur ", Eugène Lacroix (1868) :

« Si l’on imagine que l’on ait formé d’une manière conséquente pour l’univers entier, en tenant compte de toutes les circonstances, la quantité que j’ai nommée entropie pour un corps particulier, ainsi que la quantité désignée sous le nom d’énergie [...], on pourra exprimer très simplement, sous la forme suivante, les lois fondamentales de l’univers qui correspondent aux deux principes essentiels de la théorie mécanique de la chaleur : 1. L’énergie de l’univers est constante. 2. L’entropie de l’univers tend vers un maximum. »

C’est à la suite des travaux de Sadi Carnot (Réflexions sur la puissance motrice du feu, 1824) que Rudolph Clausius a dégagé le concept de l’entropie d’un tel système isolé. Carnot analysait le principe des machines thermiques, qui produisent du mouvement à partir de la chaleur, en injectant de la vapeur ou de l’air sous pression dans un cylindre pour déplacer un piston. Il a constaté que la vapeur devait nécessairement se refroidir, et qu’avec une quantité de charbon donnée, l’énergie mécanique qu’on peut récupérer est d’autant plus élevée que la vapeur a plus refroidi. Plus précisément il établit la loi quantitative suivante : Si T1 est la température (absolue, en degrés Kelvin) à laquelle on a chauffé la vapeur et T0 la température à laquelle se refroidit cette vapeur après le passage dans le cylindre ou la turbine, l’énergie mécanique obtenue pour une quantité de chaleur fournie Q sera T0/T1) ×Q et non à Q seul. Cela veut dire que siproportionnelle à (1 par exemple on chauffe de l’air à 273 degrés Celsius dans un cylindre pour qu’il pousse un piston et déplace ainsi un objet lourd, puis qu’on le refroidit à 0 degrés Celsius pour que le piston se rétracte, le T0/T1 sera 0.5 et le travail mécanique de déplacement derapport 1 l’objet lourd aura été la moitié de l’énergie calorifique dépensée pour chauffer l’air dans le cylindre. L’autre moitié se sera perdue dans le refroidissement de l’air. (N. B. cette perte par refroidissement est nécessaire, car sinon le piston ne se rétracte pas tout seul ; il faudrait le pousser et donc perdre le travail mécanique qu’on vient de gagner). Le processus inverse de celui de la machine thermique consisterait à produire la chaleur à partir du mouvement mécanique au lieu de l’obtenir en brûlant du charbon. On peut produire de la chaleur à partir du mouvement par frottement ; on peut même convertir entièrement l’énergie mécanique en chaleur : dans ce cas le mouvement est complètement arrêté par l’effet des frottements. Or la loi de Carnot montre que, sauf si T0 = , la chaleur ne peut jamais être entièrement convertie en0 ou T1 = mouvement. De toute façon la condition T0 = 0 est irréalisable, car pour que la vapeur puisse être refroidie à T0 = 0 il faut maintenir un système de refroidissement bien plus coûteux que l’énergie produite par la machine. Ce constat fait par Carnot marque l’origine du problème de l’irréversibilité : la transformation d’énergie mécanique en chaleur par les frottements n’est pas réversible, en ce sens qu’aucune machine thermique ne pourra retransformer intégralement la chaleur en le mouvement. Quantitativement, si nous reprenons l’exemple ci-dessus avec la vapeur refroidie de 273 degrés Celsius à 0 degrés Celsius, on peut dire que 4184 joules de travail mécanique permettent d’échauffer par frottement 1 kilogramme d’eau de 1 degré, mais inversement, avec une machine thermique fonctionnant entre 273 et 0 degrés Celsius, cette même quantité de chaleur ne permettrait de récupérer que 2092 joules de travail mécanique. Bien entendu dans une machine réelle une grande partie de la chaleur fournie se perd aussi par les défauts d’isolation, en sorte qu’on récupérerait encore bien moins que ces 2092 joules ; la loi de Carnot concerne le cas idéal où on aurait entièrement éliminé ces pertes. Elle dit que même si ces pertes sont rendues infinitésimales, il restera toujours une irréversibilité de principe, car le fonctionnement même de la machine exige qu’une partie de la chaleur soit perdue par le refroidissement. L’explication fondamentale du comportement des corps macroscopiques tels que la dilatation des gaz chauffés dans les machines thermiques, mais aussi l’écoulement des liquides, l’évaporation, la fusion ou la solidification, les échanges de chaleur, etc, a été trouvée dans le comportement aléatoire des mouvements moléculaires. C’est en appliquant la loi des grands nombres au mouvement chaotique d’un nombre immense de molécules qu’on retrouve le comportement des corps macroscopiques. La loi de Carnot mentionnée plus haut peut être déduite ainsi, de même que toutes les lois gouvernant les échanges de chaleur, l’agitation des fluides, etc. Quoique cette explication statistique ait déjà été proposée comme hypothèse par Daniel Bernoulli (Hydrodynamica, 1731), elle n’a commencé à devenir pleinement opératoire que dans la seconde moitié du XIXe siècle. Les travaux fondateurs de cette Mécanique statistique ont été effectués pour l’essentiel par J. C. Maxwell (1860) et Ludwig Boltzmann (1872). L’irréversibilité mentionnée précédemment n’est qu’un aspect du comportement des corps macroscopiques, et au fond, elle ne joue qu’un rôle très marginal dans les préoccupations des physiciens car elle ne vaut que comme principe général et abstrait. Pour celui qui doit calculer ou décrire des phénomènes précis et particuliers, la Mécanique statistique est une science très technique dont le quotidien est bien éloigné des grands principes. Par contre, l’irréversibilité est le genre de problème qui a toujours fasciné les philosophes, ainsi que tous les amateurs passionnés de science, qui connaissent cette dernière bien plus par les ouvrages de vulgarisation que par l’étude approfondie et patiente de problèmes concrets mais ardus. De ce fait, le thème de l’irréversibilité inspire depuis Boltzmann toute une littérature pseudo- ou para-scientifique, pleine de confusion, de rêve, et de visions inexactes ou même carrément fausses. Le point crucial de cette littérature est le paradoxe de Loschmidt. Joseph Loschmidt était un collègue de Boltzmann à l’université de Vienne. Après que Boltzmann eut exposé son explication statistique de l’irréversibilité en 1872, Loschmidt fit remarquer qu’il apparaissait comme paradoxal que, la Mécanique étant entièrement réversible (pour tout mouvement d’un système de points matériels tels que les molécules, le mouvement inverse, c’est-à-dire celui qu’on verrait dans un film projeté en marche arrière, est également possible et tout aussi probable), on aboutisse à des comportements irréversibles lorsqu’on considère un tel mouvement de manière statistique. L’énoncé de ce paradoxe se trouve très fréquemment dans les articles ou ouvrages de vulgarisation, mais sans aucune explication ; très souvent même, il est suggéré que ce paradoxe reste aujourd’hui encore non résolu, qu’il s’agirait là de l’un des mystères de la science. Or Boltzmann avait répondu à la question de Loschmidt, et sa réponse est essentiellement correcte. Elle peut certes être affinée par des connaissances plus récentes, mais rien ne change sur le fond. Par exemple Boltzmann postulait pour les molécules un mouvement newtonien, alors que la Mécanique statistique moderne postule un mouvement quantique, ce qui induit de grandes différences (satistiques de Fermi-Dirac et de Bose-Einstein). Mais l’argument de Loschmidt et la réponse à cet argument ne s’en trouvent pas affectés de manière vraiment essentielle : les mouvements microscopiques quantiques sont, tout comme les classiques, parfaitement réversibles, et la propriété statistique universelle qui explique l’irréversibilité est la même. Pourquoi alors la réponse de Boltzmann est-elle restée lettre morte, et pourquoi subsiste toute une tradition qui maintient le mystère autour de ce problème ?

Ludwig Boltzmann a donné une interprétation microscopique de la loi macroscopique de Clausius. Il a exprimé l’entropie statistique en fonction du nombre Ω d’états microscopiques, ou nombre de configurations (ou nombre de complexions), définissant l’état d’équilibre d’un système donné au niveau macroscopique. Le nombre Ω est une fonction exponentielle de l’entropie. L’entropie d’un système à l’équilibre est égale à la somme des entropies de chacune de ses parties. Mais il convient de bien rappeler que cela n’est vrai qu’à l’équilibre…

Lorsqu’on a formulé la loi de la croissance de l’entropie, on a parlé de la conséquence la plus probable d’un état macroscopique pour un moment donné. Mais cet état devait surgir à partir d’autres états comme résultat des processus se déroulant dans la nature. La symétrie par rapport aux deux sens du temps veut dire que, pour tout état macroscopique arbitraire d’un système isolé à un certain moment t = t0, on peut affirmer que la conséquence la plus probable pour t > t0 est non seulement une augmentation de l’entropie, mais également que celle-ci ait surgi des états d’entropie supérieure ; en d’autres termes, le plus probable est d’avoir un minimum de l’entropie en fonction du temps pour le moment t = t0 pour lequel l’état macroscopique est choisi d’une manière arbitraire. Mais cette affirmation n’est évidemment, en aucune mesure, équivalente à la loi de la croissance de l’entropie suivant laquelle dans tous les systèmes isolés existant dans la nature l’entropie ne diminue jamais (fluctuations tout à fait infimes mises à part). Et c’est justement ainsi formulée que la loi de la croissance de l’entropie se trouve entièrement confirmée par tous les phénomènes observés dans la nature.

Se fondant sur une simplification du deuxième principe de la thermodynamique, certains pseudo-scientifiques avancent que la physique interdirait l’évolution.

L’augmentation globale de l’entropie, variable de la thermodynamique quantifiant le désordre statistique d’un système, serait censée interdire l’évolution, qui engendre au contraire la complexité.

Cette affirmation doit être recadrée :

1. Cette « conclusion » s’applique à l’entropie totale d’un système fermé, ce que la Terre n’est pas. L’entropie peut diminuer localement s’il y a échange d’énergie avec un autre endroit où l’on a une augmentation supérieure de l’entropie : typiquement au niveau du Soleil dans le cas de la vie sur Terre. Ou plus précisément dans la transformation du rayonnement solaire reçu par la Terre. Globalement la Terre reçoit de l’énergie sous une forme plus « ordonnée » qu’elle n’en réémet : les rayons solaires sont reçus depuis une zone précise du ciel (le disque solaire), principalement dans le spectre visible ; alors que la Terre réémet cette énergie reçue sous forme de rayonnement infrarouge, par un nombre bien supérieur de photons ( 20 fois plus) dans toutes les directions du ciel.

2. Or les êtres vivants sont tous des systèmes « ouverts » (thermodynamiquement parlant) ; tendant à toutes étapes de leur existence à s’autoconserver, c’est-à-dire à maintenir leur organisation interne au détriment (au prix) d’une production continue « d’entropie », « de désordre » (rejets, chaleur) payant ainsi le « tribut » à la règle d’entropie. Ils ne sont aucunement des exceptions à ce principe, contrairement à certaines affirmations péremptoires prétendument définitives. De plus, le second principe est un principe général, qui montre qu’un système donné (vivant ou inerte) peut (ou non) fonctionner ; son type interne de fonctionnement est (ou peut être) expliqué par d’autres sciences (chimie, mécanique, électronique…) La possibilité d’évolution des populations d’êtres vivants est parfaitement conforme au second principe, tout comme leur fonctionnement, leur développement, leur conservation. Cette possibilité s’intègre simplement dans cette succession des générations, qui est elle-même parfaitement conforme au second principe. L’évolution ne produit pas directement plus « d’informations » ; il est très difficile de préciser « l’information » contenue dans les êtres vivants. Du moins le scénario principal le suggère-t-il à l’échelle des temps géologiques (des centaines de millions aux milliards d’années) ; comme on l’a vu, cette possibilité est conforme au second principe dans la biosphère. Le questionnement se portant sur la (ou les) manière(s) dont ça c’est produit.

3. Il n’est pas immédiat d’assimiler le désordre statistique d’objets indifférenciés et indépendants comme les molécules d’un gaz parfait et l’entropie au sein d’un système prébiotique comportant différents constituants en interaction chimique. L’évaluation statistique effective des configurations les plus probables est bien moins évidente et rien n’empêche certains constituants de se « construire » aux dépens d’autres. Ainsi il est tout à fait faux de prétendre calculer simplement l’apparition de « la vie » en termes de « probabilités » simplistes, comme présenté ici47, ou parfois ailleurs. Ce type de calcul simpliste ignore implicitement complètement tous les cadres dans lequel les diverses réactions ont (ou peuvent avoir) lieu : mares, évents, plages, volcans, argiles, impacts météoritiques/cométaires apportant des acides aminés et produisant simplement des peptides : voir le lien « Milieu de collision Planète/Noyaux de comètes »… En gros, toutes les configurations (théoriques) simplement calculées ne sont pas directement équivalentes, ou même ne pourraient même pas apparaître, donc ne sont pas réellement équiprobables. De plus, certains faits présentés comme évidents car observés chez les vivants, comme la chiralité des acides aminés, sont présentés comme un résultat simpliste d’un calcul de probabilité. Ainsi que le fait que les liaisons peptidiques entre les acides aminés ne sont pas équivalentes à d’autres types de liaisons, qui elles changeraient la nature des composés considérés. Ça occulte totalement tout questionnement que ces faits pourraient résulter d’un ensemble de processus de sélection et de (re)combinaisons dans différents systèmes (hypothétiques) qui pourraient se succéder, rendant totalement caduc ce type de calcul simpliste, présentant ce résultat comme apparaissant « d’un seul coup » ! Ce type de calcul n’apporte qu’à un nombre (théorique) de configurations, sans signification physique immédiate, et en aucune façon une probabilité (globale) d’apparition. Demeurent toujours certaines interrogations techniques concernant les règles de repliement des protéines ; question centrale dans la théorie probabiliste de l’organisation de la vie. Les maladies à prion témoignent de l’importance des différentes règles de pliages des protéines.

4. La physique comporte déjà plusieurs phénomènes qui peuvent sembler violer le deuxième principe de la thermodynamique si on traduit « entropie » par la notion subjective de « désordre » : avec la formation des étoiles et des galaxies, la nucléosynthèse, l’Univers croît en entropie tout en paraissant plus ordonné. Il serait plus précis de dire que la matière se présente bien sous forme de structures plus ordonnées, mais l’Univers dans son ensemble est en fait globalement plus désordonné, principalement par le rayonnement émis lors de la formation de ces structures.

Répondre à cet article

SPIP | squelette | | Plan du site | Suivre la vie du site RSS 2.0