Accueil > 02 - Livre Deux : SCIENCES > Atome : lois de la Physique ou rétroaction de la matière/lumière et du (...) > Transition de phase de l’eau

Transition de phase de l’eau

lundi 13 juillet 2009, par Robert Paris

Transition de phase de l’eau

Introduction

L’eau, l’entité la plus connue sur Terre, celle qui permet la vie, abreuve les troupeaux et érode les continents ne respecte pas de très nombreuses lois de la physique dont la rétraction volumique qui accompagne la solidification. En effet, un corps (pur ou composé), quel qu’il soit, lorsque sa température baisse, se rétracte, diminue de volume (selon les lois de la physique). La vapeur d’eau en devenant liquide se conforme à la règle, mais à 3.98°C, l’eau se dilate pour devenir plus légère ! En passant à l’état solide, elle peut gagner 10% de volume en plus. Son volume, au lieu de diminuer, augmente ! C’est grâce à cette anomalie que la glace flotte à la surface de l’eau au lieu de couler. La propriété que je viens d’énoncer, la grande capacité calorifique de l’eau et les liaisons entre molécules d’eau (H2O) qui se traduit par son grand pouvoir de dissolution des autres corps, sa constante diélectrique des plus élevée, son enthalpie de vaporisation anormale, etc. sont autant de propriétés de l’eau qui se distinguent de celles des autres corps. La plupart des propriétés de l’eau sont déterminées par la dynamique des liaisons des atomes d’hydrogène, elle même conséquence du comportement quantique des atomes d’hydrogène (visible par spectroscopie). Ce dernier fait varier le réseau cristallin de la glace. On voit que le comportement quantique de la molécule d’eau influe fortement sur son comportement macroscopique. Je passe dès maintenant à une étude théorique afin de poser les connaissances qui me permettent de décrire les phénomènes qui ont lieu lors de la surfusion.

Niveau moléculaire

Pendant la surfusion, on observe un retard au changement d’état, à la solidification. Or on sait qu’au passage à la phase solide, le système perd de l’énergie par diffusion de chaleur et que les molécules adoptent l’une des 7 formes cristallines existantes dans l’Univers. Ainsi les molécules perdent de l’agitation cinétique microscopique (ce qui se traduit dans le modèle macroscopique par une baisse de température), elles s’attirent beaucoup plus qu’avant, donc l’arrangement moléculaire se rapproche de plus en plus de celui de la glace, interdisant alors toute ascension par capillarité due à la tension superficielle (force tangentielle d’attraction qui dépend des forces intermoléculaires, de la température et des surfaces de contact). Il faut savoir que le point de nucléation, point auquel les cristaux de glace se forment, dépend de la présence de bulles de gaz, de germes de cristallisation et de la qualité de l’interface. Si les conditions sont favorables (absence de gaz dissout, de germe cristallin ; interface homogène), la surfusion continuera jusqu’à que les cristaux se forment spontanément (à une température extrême, et donc surfusion intense et degré de surfusion très élevé). Par ailleurs, on sait déjà que les variations d’état d’un système chimique ne sont pas rigoureusement constantes, mais présentent de petites (ou grandes lors de surfusions intenses) fluctuations dans le temps dues à la nature corpusculaire de la matière. Ces fluctuations homogènes sont causées par le mouvement brownien (l’agitation thermique), c’est-à-dire par le mouvement incessant des molécules d’eau dans l’échantillon. Or nous avons vu plus haut que lors de la surfusion, il y a perte de chaleur, ces fluctuations diminuent alors asymptotiquement jusqu’à l’arrêt de la surfusion. Dans les fluides newtoniens (formés de petites molécules de forme plus ou moins sphérique) comme ceux étudiés dans les 103 béchers d’Auerbach, le flux de la quantité de mouvement permettant la description des phénomènes de transports est déduit du coefficient de viscosité cher à Auerbach. Cette viscosité est en fait la résistance d’un fluide à l’écoulement. La viscosité cinématique citée par Auerbach ne dépend que de la température et les fluides newtoniens obéissent à la loi de la viscosité de Newton qui veut que la force de frottement soit proportionnelle au gradient de vitesse de l’écoulement. Or la température diminue, donc les molécules se déplacent moins vite et les frottements sont moins importants ce qui entraîne une perte de chaleur encore moindre ; ce qui explique que les fluctuations diminuent asymptotiquement jusqu’au retour à un état stable : le solide.

La thermodynamique établie que les phénomènes de transition de phase peuvent introduire des comportements nouveaux souvent spectaculaires : les structures dissipatives. Le cas du passage de la phase liquide à celle solide s’accompagne d’une disposition régulière de certaines propriétés moléculaires ou atomiques dans l’espace appelée brisement de symétrie. Lorsqu’un système non linéaire est très loin de l’équilibre thermodynamique, des comportements complexes et des brisements de symétrie peuvent avoir lieu. Ce qui induit que plus un système est instable, plus sont évolution relève du hasard. Cela nous confirme que pour des degrés de surfusion élevé ou non, le moment de la nucléation est imprévisible.

Nous avons déjà pu voir que la température de nucléation de l’eau est d’autant plus basse que le volume correspondant est faible. Prenons l’exemple de la congélation d’un grand et d’un petit volume d’eau. Dans le golfe du Saint-Laurent, en novembre, l’océan commence à geler pour former la banquise. Les cristaux de glace commencent à s’agglomérer à la surface de l’eau. Ainsi, en une demi-heure, il peut s’être formé des plateaux arrondis de glace issus de collisions et d’agglomérations avec ses voisins : les pancakes ices (disent les Anglo-Saxons). Les premiers cristaux de glaces se forment dès que les courants le permettent, avec Ta=-30°C ; l’amplitude de la surfusion est de 10°C dans les meilleurs conditions. Alors que pour des gouttelettes de nuage de quelques attomètres cubes, le temps avant la congélation homogène est très long et les températures atteintes sont très basses (-40°C). Je rappelle que ni l’eau des océans ni l’eau des nuages n’est pure, les gouttelettes contiennent des impuretés (sable, sel, poussière, etc.) et des germes de glace (de quelques Angströms) préexistent au sein du liquide.

De la thermodynamique statistique vers le chaos déterministe
Dès 1860, James Clerk Maxwell introduisit des considérations probabilistes à la thermodynamique. Mais il faut attendre 1877 pour que Ludwig Boltzmann établisse les règles du dénombrement statistique des états microscopiques compatibles avec un même état macroscopique d’un système. Il démontra que l’état macroscopique d’équilibre résulte d’une évolution statistique du système et donne une interprétation statistique de l’entropie S des systèmes en la reliant au dénombrement de leurs états microscopiques : S=k.Log. La probabilité des états observables est donc directement liée à celle des états microscopiques.

Auerbach remarqua que, recommencée dans les mêmes conditions, l’expérience ne donne pas les mêmes résultats. En effet, des conditions initiales identiques donnent lieu à des évolutions souvent très différentes. Et c’est d’ailleurs pour cette raison qu’il a étudié la nature statistique des données de temps et de température. Nous avons vu précédemment que les facteurs influençant la surfusion étaient extrêmement nombreux (Auerbach en dénombre une dizaine), on peut en déduire que l’état de surfusion relève du hasard. D’ailleurs, dans sa thèse sur la surfusion, Jean-Claude Delabrouille note le "caractère fondamentalement aléatoire de la surfusion aussi bien en grandeur qu’en durée". Ainsi, les systèmes étudiés sont-ils chaotiques. Nous nous référons alors à la théorie du chaos, théorie qui cherche à reconnaître de quelle nature est le hasard que l’on rencontre dans nos systèmes physico-chimiques ; elle consiste en l’étude des systèmes dynamiques non linéaires.

Par définition, un système chaotique amplifie les petits écarts initiaux ; il fait accéder les phénomènes microscopiques à l’échelle macroscopique ; il est fondamentalement instable de part sa dépendance sensitive aux conditions initiales qu’illustre l’exemple suivant reprit au célèbre météorologue Edward Lorenz : un battement d’aile de papillon à Pékin peut provoquer une tempête à New-York, c’est l’effet papillon. Il a donc un mécanisme amplificateur qui peut nous permettre de mieux comprendre le comportement de l’eau au niveau microscopique sans avoir recours à un matériel lourd (laser, accélérateur de particules, rayonnement par magnétisme nucléaire, spectroscopie, etc.). Malgré cet hasard, nous avons pourtant un résultat de stabilité : la moyenne statistique est voisine de la probabilité réelle ; il est expliqué par le fait que l’incertitude relative due aux mesures successives et les différentes erreurs d’approximations dans les calculs se compensent. Car en effet, Lorenz montra que les mesures ne peuvent pas comporter d’absolue précision et que l’on ne peut pas mesurer tous les paramètres en tout point de l’espace et du temps. A ce manque de précision s’ajoutent les nécessaires arrondis de calculs sur ordinateur (car la machine à ses limites, rapidement atteintes en dynamique non linéaire).
La géométrie fractale qu’apporta le chaos permit de mettre en évidence de l’ordre, des régularités dans tout système non linéaire, c’est-à-dire que les systèmes chaotiques pourtant soumis au hasard dépendent de lois qui régissent leur structure. Ces formes fractales sont visibles dans l’espace des phases de ces systèmes. L’invariance d’échelle, caractéristique majeur de l’image fractale, permet d’accéder à des échelles très différentes tout en conservant l’ordre et la régularité. Les systèmes chaotiques établissent donc un pont entre les échelles macro et microscopiques. Nous avons vu plus haut, avec l’effet papillon, que les petites échelles interféraient avec les grandes puisque de petits événements atteignant un seuil critique pouvaient engendrer des grosses perturbations. Mais en changeant d’échelle (par delà la dimension fractale), en passant du modèle macroscopique à celui microscopique, survient de nouveaux phénomènes, des comportements différents ; comme la physique quantique se différencie de la physique classique, lors du passage de l’échelle macro à celle microscopique, l’observateur doit s’attendre à différencier ses moyens d’étude sur les données accessibles par l’espace des phases, voire par un diagramme spectral (résultant de l’étude de la fréquence des données) au lieu de la traditionnelle statistique dont on observe rapidement les limites.

De plus, les systèmes chaotiques ont non seulement des conséquences logiques et nécessaires mais ces dernières sont quelque fois inattendues ; comme par exemple, la probabilité 0.21 pour -8°C>Tf>-10°C qui surprit David Auerbach. Les systèmes étudiés sont irréversibles (car processus de changement d’état) et sensibles aux conditions initiales dont les paramètres de base sont modifiés dans des proportions infinitésimales très difficiles à saisir. En outre, ce sont encore des fluctuations aléatoires de densité dans la phase liquide qui donnent naissance à des agrégats d’atomes en phase solide qui, pour certains, atteignent une taille critique suffisante pour devenir des germes de cristallisation, provoquant ainsi l’arrêt de la surfusion et donc le retour à l’état stable : le solide. La théorie du chaos a pour effet la représentation de phénomènes présentant des irrégularités ou étant aléatoires. Elle propose un modèle déterministe pour l’étude des systèmes chaotiques au lieu de celui stochastique qui, par définition, ne permet strictement aucune prévision. Théorie qui convient donc tout à fait à l’étude de systèmes en surfusion.
Nous savons qu’en thermodynamique classique, l’entropie (dégradation de l’énergie) d’un système évoluant irréversiblement (c’est le cas des échantillons d’Auerbach) ne peut que croître et l’état d’équilibre correspond à un maximum de cette entropie. Or, en thermodynamique statistique, on peut assimiler l’état d’équilibre à l’état macroscopique le plus probable. On peut ainsi établir une relation entre l’entropie et la probabilité thermodynamique. Et c’est pourquoi les résultats statistiques ont si longtemps été primordiaux lors des études antérieures.

J’insiste lourdement sur la nature statistique de certaines données (temps et températures) ainsi que sur les probabilités qu’elles entraînent car nous ne pouvons que faire des prévisions de ce qu’il adviendra du système selon un état (la surfusion) et des conditions données. Aristote considérait, à juste titre, que tout phénomène est divisible en deux parties qui se trouvent, l’une par rapport à l’autre, dans un rapport de cause à effet ; comme le principe de causalité dans la physique quantique. Mais dans la physique, il y a une infinité de causes : le nombre de chaînes causales est infini, c’est pourquoi, je pense fortement que la théorie du chaos convient à l’étude du phénomène de surfusion et donc à l’explicitation de l’effet Mpemba tout en bannissant la pure statistique.

L’ordre fait désordre

De l’ordre en route vers l’équilibre : c’est cela la haute instabilité !
Le deuxième principe de la thermodynamique fut définit en 1954 comme un principe de conservation de l’énergie par le physicien allemand Rudolf Clausius. Il montre que lors d’une transformation irréversible, l’entropie (du grec, entropc, cause d’évolution), fonction d’état d’un système, ne peut que croître jusqu’à un maximum lorsque le système atteint un état d’équilibre ; cette entropie est une fonction dont la valeur ne dépend que de paramètres instantanés, pas du chemin suivi. L’entropie est donc croissante dans tout processus irréversible et la connaissance de l’histoire de l’échantillon étudié n’a pas à être pris en compte, ce qui facilite bien évidement les études. Auerbach aura eut raison de ne pas se soucier de l’histoire de ses 103 échantillons.

Ce deuxième principe exprime une tendance irréversible à l’uniformisation et ainsi à la désorganisation. L’évolution d’un système tend à un état d’équilibre pour lequel la production d’entropie, c’est-à-dire la vitesse de la formation d’entropie, atteint un minimum (l’entropie est alors maximale). Un système très instable peut voir apparaître un ordre macroscopique s’il est soumis à la moindre fluctuation, alors que proche de l’équilibre, ce même système adopte normalement un désordre moléculaire caractéristique de la stabilité. Les processus de non-équilibre (qui sont irréversibles) peuvent être des créateurs d’ordre. Le chimiste et philosophe belge Ilya Prigogine qualifie de structures dissipatives les structures auto-organisées issue de systèmes profondément instables amenés aléatoirement à des états stables, ces structures se caractérisent notamment par la dissipation d’énergie vers l’environnement (c’est le cas des 103 béchers d’Auerbach).

Il est donc très difficile de prévoir le comportement de tels systèmes et c’est parce qu’un système est extrêmement instable que l’on ne peut plus décrire exactement son évolution. Pourtant, la thermodynamique non linéaire des systèmes dissipatifs fourni des outils précieux pour connaître l’évolution de ces systèmes : le chaos dynamique, les attracteurs étranges qui sont de dimensionalité non entière (tel que celui de Lorenz couramment employé en mécanique céleste) et les dimensions fractales (voir images fractales). L’évolution d’un système dissipatif se divise en général en deux "sous-dynamiques" indépendantes dont l’une décrit l’évolution asymptotique du système vers l’équilibre. L’entropie est une mesure du désordre, les systèmes très instables sont ordonnés et atteignent le désordre moléculaire à l’équilibre thermodynamique lorsque l’entropie tend à son maximum.

Domaine de température

Des études ont montré que la rupture spontanée de l’équilibre métastable de la surfusion de gouttelettes d’eau pure se produit entre une température limite inférieur ( -41°C) et une température critique supérieur avoisinant -14°C. Ce domaine de températures se retrouve pour toute surfusion, que se soit celle de l’eau ou celle de l’étain, mais bien sûr pour des valeurs différentes. Entre la température minimale de nucléation et celle critique propre à chaque type d’eau utilisée (ou d’autres corps), il existe différents seuils plus probables de rupture de la métastabilité. Il apparaît que des changements de structure du liquide ou des phénomènes de précristallisation précèdent la nucléation homogène. Ces phénomènes dits "coopératifs" par Madeleine Lere-Porte, précédent et préparent le retour à l’état stable. La théorie des seuils proposée en 1952 par C. Lafargue semble être la plus à même d’expliquer ces phénomènes. Serait-il probable que l’on puisse passer de l’état liquide à celui solide par une série d’états quantifiés ? La surfusion apparaît alors comme une succession d’états intermédiaires.

Mais la surfusion intervient principalement pour un liquide de température assez proche de son point de congélation et préférentiellement pour un faible volume. Le faible volume explique une forte tendance à la métastabilité de part la plus faible quantité de matière à auto-organiser. Quant à expliquer le faible écart entre la température du système et le point de congélation théorique du système, il semble que les molécules d’eau soient réticentes à s’arranger en cristaux pour un si faible écart et ne daignent faire cet effort sans instabilité que pour des écarts beaucoup plus grands ! La formulation est certes un peu cavalière, mais permet néanmoins de faire comprendre au néophyte l’importance de la loi du tout ou rien.

La loi du tout ou rien

Nous l’avons vu, le changement d’état d’un système ne se fait par de manière uniforme. Lors de la surfusion, ce système devient instable : il entre en métastabilité, c’est-à-dire qu’il hésite entre deux comportements stables. Mais avant de passer à un état physique stable, on peut observer des fluctuations qui semblent relever du hasard. On a pu remarquer que les volumes les plus petits étaient sujets à des surfusions intenses pour lesquelles on observe des seuils plus probables d’arrêt de la surfusion formant en apparence une suite discontinue. Ces seuils restes identiques quelques soient les méthodes utilisées et les expérimentateurs (C. Lafargue en 1952, C. Boned en 1967, M. Lere-Porte en 1970). Cette théorie des seuils est également confirmée pour d’autres liquides tels que le mercure, le bismuth, l’étain.

De plus, il apparaît clairement lors de l’effet Mpemba que se sont les échantillons froids qui surfusionent le plus (malgré ce que laisserait penser l’expérience de David Auerbach). Plus un échantillon est pur, de faible volume et de température déjà assez proche du point de congélation, et plus il est difficile de lui faire atteindre la phase solide. On peut alors dire que ce système chaotique tend à résister au passage d’un état stable à un autre et adopte alors divers états quantifiés intermédiaires (l’importance de ces résistances est inversement proportionnelle à l’amplitude entre la température du système et son point de congélation). Peut-on alors parler de loi du tout ou rien ? Car en effet, seuls de brusques changements de conditions du milieu semblent permettre un réel changement d’état par les voies classiques (c’est-à-dire sans état intermédiaire visible). A l’inverse, des variations de températures de faibles amplitudes n’appellent pas de changement réel d’état physique contrairement à ce que prévoit la théorie (passage de 4°C à -10°C sans congélation de l’eau, ce qu’illustre l’effet Mpemba).

La loi du tout ou rien sur laquelle je m’appuie pour expliciter la surfusion, et de manière plus générale les états quantifiés, ressemble aux premiers abords à la loi du même nom qui explique la formation du message nerveux sensitif en neurologie. C’est pour une valeur suffisamment élevée (au dessus d’un certain seuil) de l’intensité d’une stimulation, qu’il y a formation d’un potentiel d’action (qui est proprement dit l’information nerveuse) en direction des centres nerveux sensitifs. On remarque lors des expérimentations que de faibles fluctuations de températures jusqu’à une valeur négative ne provoque pas de solidification de l’eau. Une congélation requière une brusque chute de température affectant tout l’échantillon. Peut-on envisager d’introduire les notions de sommation temporelle et de sommation spatiale, jusqu’alors le propre de la neurologie, afin de souligner l’importance des données de temps et de températures ? Car en effet, un échantillon passe par les voies normales des processus de changement d’états pour des changements de conditions environnementales brusques (température), affectant le système dans son intégrité. Alors que dans des conditions très particulières (pureté du corps utilisé, petit volume, absence de barrière diathermique...), l’évolution constante de la température et l’absence de perturbation mécanique, permettent l’entrée en métastabilité qui compromet le bon déroulement du processus de changement d’état.
Enfin, les diverses probabilités d’arrêt de la surfusion renvoient à des probabilités d’états quantiques car le système instable est soumis à un processus de non équilibre qui l’auto-organise qui permet à l’observateur de mesurer qualitativement l’importance de l’ordre macroscopique et donc le comportement "anormal" microscopique. Ce comportement dit anormal serait peut-être, tout au contraire tout à fait "normal" en tant qu’invisible dans les systèmes stables qui, par stabilité apparente, ne suscite pas d’interrogation.

L’étude des transitions de phase a déjà inspiré des membres du Centre d’études nucléaires de Saclay pour des modèles de prévision financières. Si les bourses, fluctuantes et quelquefois instables, ont un comportement analogue aux atomes d’hydrogène de la molécule d’eau, alors, notre nouvelle vision du phénomène de surfusion en tant que retard à la transition de phase faisant appel à des états intermédiaires, pourra elle aussi pousser les mathématiciens à considérer la théorie des seuils et surtout la loi du tout ou rien (proche de la notion de point critique) pour les prévisions financières. L’utilisation par Didier Sornette, de l’Université de Nice, d’un modèle de prévision grâce à une transition de type Kosterlitz-Thouless permit déjà de prévoir le krach de l’automne 1997. Et de manière plus générale, il apparaît que la loi de l’offre et de la demande qui régit entre autre les échanges boursiers fait varier les prix de manière chaotique sans atteindre d’équilibre. Là encore, les perspectives qu’offre le chaos sont encourageantes.

L’état supercritique, intermédiaire entre gaz et liquide, permet déjà dans l’agro-alimentaire et la phyto-industrie l’extraction de composés (caféine, acides, arômes...) grâce au dioxyde de carbone supercritique qui sert de solvant. Le CO2 est alors porté à 31°C sous plus de 73 atmosphères. Une équipe du CEA de Pierrelatte (dans la Drôme) a mis au point une méthode de recyclage propre et économique des huiles de vidange grace à du dioxyde de carbone supercritique porté à la température de 40°C et sous la pression de 150 atmosphères. L’étude des états intermédiaires débouche donc déjà sur des applications concrètes.

L’étude de l’évolution de la pollution atmosphérique doit prendre en compte un nombre important de facteurs déterminants tels que la diversité des sources d’émission localisées (usines) ou mobiles (voitures), le relief, la météorologie du site, les réactions chimiques locales (par exemple : formation d’ozone à partir de dioxyde d’azote soumis aux rayons ultra-violets du soleil), etc... Cette évolution est donc chaotique de part la présence du hasard aux vues de tous ces paramètres. Les chercheurs du Laboratoire de Mécanique des Fluides et Acoustique (LMFA de l’École Centrale de Lyon) ont utilisé des modèles en série pour l’analyse des phénomènes à des échelles différentes (agglomération, quartier et rue). Actuellement, il est possible de décrire mais aussi de prédire la manière dont les polluants se dispersent dans l’atmosphère grâce à ces modèles. La statistique n’est donc plus de mise.

L’Équipe Acoustique de l’École Centrale de Lyon utilise un modèle informatique dans lequel ils ont du introduire du chaos par l’intermédiaire d’un champ turbulent à composante aléatoire dans le calcul de la dispersion acoustique. Les résultats ainsi obtenus sont sans précédents : les chercheurs ont enfin réussi à simuler les phénomènes comme ils ont lieu dans la réalité.

Le génie-génétique veut décoder le génome humain et déterminer le rôle de tel ou tel gène pour une pathologie ou un caractère donné. L’existence d’interactions entre de nombreux gènes et entre gène-environnement induit un comportement chaotique pour la variance génétique. La détermination des gènes prédisposant à une maladie multifactorielle est extrêmement périlleuse. La dynamique non linéaire qui régit les influences gènes-environnement trouverait une solution en l’étude par le chaos de la répartition sur la macromolécule d’ADN des différents gènes intervenant pour l’expression de tel ou tel caractère.

Dans la nature, de nombreux changements se révèlent être des transitions de phase, tels que le passage entre fluide et superfluide, magnétique/non magnétique, conducteur/supraconducteur, ainsi que les bifurcations dans un liquide chauffé... L’étude des instabilités (qui sont inévitables) affectant les processus de changement d’état permettra à terme une meilleur compréhension des processus physiques, chimiques, biologiques, financiers, etc. Une meilleur appréhension de ces phénomènes conduira inévitablement à la mise au point de nouvelles techniques d’investigations pour la recherche et l’industrie.

Le comportement macroscopique des molécules d’eau lors de l’effet Mpemba est le reflet de leur comportement microscopique de part l’invariance d’échelle. Or le condensat de Bose-Einstein sur lequel ont travaillé Eric Cornell et Carl Wieman de l’Institut pour l’astrophysique de laboratoire (JILA) de Boulder (Colorado) est, lui aussi, mesurable par des méthodes classiques (laser). A Orsay, d’autres physiciens ont obtenu un condensat d’atomes liés deux à deux. Dans un proche avenir, le condensat de molécules devrait voir le jour. Ces résultats montrent que la frontière quantique/classique s’effrite. (Ils pourraient d’ailleurs êtres utiles pour étudier l’ordinateur quantique ?...) Ainsi on peut espérer que dans le futur, l’homme pourra directement observer le comportement des particules, chose impossible actuellement.
H. Fenske de l’université de Karlsruhe a pu observer le passage d’atomes de cuivre de l’échelle nanométrique à celle macroscopique. Des cristaux cuivrés de chalcogénides passent brusquement d’une forme sphérique moléculaire à celle d’un disque caractéristique des solides. La frontière microscopique/macroscopique s’est donc révélée...
Une expérience récente du laboratoire d’Optique appliquée de l’ENSTA-École Polytechnique, montre que lors de la fusion d’un matériau due à une puissante impulsion laser, observée durant une période de temps inférieure à quelques picosecondes, la réflectivité du matériau est celle d’un liquide bien avant la destruction de l’état solide et l’apparition du désordre atomique du à l’apport thermique.

Hugo Etiévant

La suite

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.