English German Espagnol Portugese Chinese Japanese Arab Rusian Italian Norvegian Dutch Hebrew Polish Turkish Hindi
Accueil du site > 02 - Livre Deux : SCIENCES > Hasard et nécessité > Hasard et nécessité

Hasard et nécessité

vendredi 9 novembre 2007, par Robert Paris

Hasard et chaos, David Ruelle, le film

Chaos dans les mouvements des fluides, le film

Science du chaos, le film

« Contingence ne veut pas dire arbitraire. »

« Le temps et l’éternité » d’Ilya Prigogine et Isabelle Stengers

Dans « Soyez savants, devenez prophètes », les physiciens quantiques Georges Charpak et Roland Omnès écrivent ainsi à propos du saut qualitatif entre la physique des particules (microscopique) et celle du monde matériel de tous les jours (macroscopique) : « C’est à ce niveau, quand un nombre suffisant d’atomes est rassemblé, quand on passe du microscopique au macroscopique, de l’infiniment petit au seulement très petit, que l’apparence des lois se transforme entièrement. Le hasard absolu se transmute par exemple en déterminisme. Cela peut sembler absurde à première vue : comment le hasard peut-il engendrer la nécessité ? Les mots s’opposent radicalement. »

Environ un siècle après Laplace, Poincaré écrit dans l’introduction de son Calcul des Probabilités [6] un texte dont la tonalité est fort différente de celui de son illustre prédécesseur. C’est entre 1880 et 1910, que Poincaré, qui cherche à prouver la stabilité du système solaire, découvre un nouveau continent issu des équations de Newton et jusqu’alors inexploré.

« Comment oser parler des lois du hasard ? Le hasard n’est-il pas l’antithèse de toute loi ? Ainsi s’exprime Rerirand, au début de son Calcul des probabilités. La probabilité est opposée à la certitude ; c’est donc ce qu’on ignore et, par conséquent semble-t-il, ce qu’on ne saurait calculer. Il y a là une contradiction au moins apparente et sur laquelle on a déjà beaucoup écrit.

Et d’abord qu’est-ce que le hasard ? Les anciens distinguaient les phénomènes qui semblaient obéir à des lois harmonieuses, établies une fois pour toutes, et ceux qu’ils attribuaient au hasard ; c’étaient ceux qu’on ne pouvait prévoir parce qu’ils étaient rebelles à toute loi. Dans chaque domaine, les lois précises ne décidaient pas de tout, elles traçaient seulement les limites entre lesquelles il était permis au hasard de se mouvoir. […]

Pour trouver une meilleure définition du hasard, il nous faut examiner quelques-uns des faits qu’on s’accorde à regarder comme fortuits, et auxquels le calcul des probabilités paraît s’appliquer ; nous rechercherons ensuite quels sont leurs caractères communs. Le premier exemple que nous allons choisir est celui de l’équilibre instable ; si un cône repose sur sa pointe, nous savons bien qu’il va tomber, mais nous ne savons pas de quel côté ; il nous semble que le hasard seul va en décider. Si le cône était parfaitement symétrique, si son axe était parfaitement vertical, s’il n’était soumis à aucune autre force que la pesanteur, il ne tomberait pas du tout. Mais le moindre défaut de symétrie va le faire pencher légèrement d’un côté ou de l’autre, et dès qu’il penchera, si peu que ce soit, il tombera tout à fait de ce côté. Si même la symétrie est parfaite, une trépidation très légère, un souffle d’air pourra le faire incliner de quelques secondes d’arc ; ce sera assez pour déterminer sa chute et même le sens de sa chute qui sera celui de l’inclinaison initiale. »

« Une cause très petite, qui nous échappe, détermine un effet considérable que nous ne pouvons pas ne pas voir, et alors nous disons que cet effet est dû au hasard. Si nous connaissions exactement les lois de la nature et la situation de l’univers à l’instant initial, nous pourrions prédire exactement la situation de ce même univers à un instant ultérieur. Mais, lors même que les lois naturelles n’auraient plus de secret pour nous, nous ne pourrions connaître la situation qu’approximativement. Si cela nous permet de prévoir la situation ultérieure avec la même approximation, c’est tout ce qu’il nous faut, nous disons que le phénomène a été prévu, qu’il est régi par des lois ; mais il n’en est pas toujours ainsi, il peut arriver que de petites différences dans les conditions initiales en engendrent de très grandes dans les phénomènes finaux ; une petite erreur sur les premières produirait une erreur énorme sur les derniers. La prédiction devient impossible et nous avons le phénomène fortuit. »

Site : Matière et révolution

www.matierevolution.fr

Pourquoi ce site ?

Pour nous écrire, cliquez sur Répondre à cet article


Lire également :

L’image du chaos déterministe

Chaos déterministe (dynamique non-linéaire) et dialectique - en anglais -

La dynamique chaotique de la géophysique et de la climatologie.

Climatologie et chaos déterministe.

Le cœur et le chaos déterministe

Le cerveau et le chaos déterministe

Psychanalyse et chaos déterministe

Chaos cardiaque, cérébral et cellulaire : les rythmes émergents du vivant

Qu’est-ce que le chaos déterministe en sciences ?


« Défaite du déterminisme dans la science fondamentale » disaient Hoffman et Paty dans « L’étrange histoire des quanta » et ils appellent le déterminisme « nostalgie du bon vieux temps de la physique classique où les ondes étaient des ondes et les particules des particules, où l’on pouvait représenter aisément des agissements de la nature, et où le futur était prévisible dans ses moindre détails, en théorie tout au moins. » Comme on le constate même des adeptes fervents des sciences ont envie de renoncer au déterminisme parce qu’ils ont été amenés à renoncer à la prédictibilité.

J. Harthong, cité par Dahan-Dalmedico dans « Chaos et déterminisme », oppose deux thèses : « la loi ultime du monde est entièrement déterministe et tout phénomène aléatoire que l’on peut y observer est un effet du chaos déterministe » et celle, opposée, selon laquelle : « la loi ultime du monde est le hasard et tout déterminisme ponctuel que l’on peut y trouver est un effet de la loi des grands nombres. »

Qu’est-ce que le chaos déterministe en sciences ? On ne peut qu’être impressionnés par les derniers progrès de la physique, de la neurobiologie, de la génétique ou de la biologie, des sciences en général, mais quel est le rapport avec la théorie du chaos déterministe qui a obtenu des succès en mathématiques et en physique ? Faut-il chercher à l’étendre au coeur, au cerveau, et ensuite, vouloir encore interpréter ainsi l’évolution des espèces ? Est-ce que cela ne ressemble pas à la poudre de perlimpinpin qui prétend soigner aussi bien les rhumatismes que les boutons sur les fesses ? Et ne vaudrait-il pas mieux maintenir le chaos déterministe dans les domaines des mathématiques et de la physique, au lieu de vouloir l’appliquer au vivant, à la société, à l’ensemble des sciences ? Ne vaudrait-il pas mieux laisser la génétique et la biologie à leurs spécialistes, sans chercher à expliquer des phénomènes de ces domaines par une théorie extérieure ou par une théorie fourre-tout ? Avant de répondre à ces questions légitimes, il convient de rectifier une interprétation erronée de la thèse du chaos déterministe, interprétation parfois favorisée par la presse à sensation, plutôt que par les scientifiques eux-mêmes et selon laquelle la théorie du chaos prétendrait englober tous les domaines des sciences. En fait, cette théorie n’affirme pas que la météorologie et le coeur sont des parties d’un même phénomène, mais seulement qu’ils ont un même type de dynamique. La théorie du chaos n’est pas un domaine d’étude comme l’électricité ou la gravitation. Le chaos n’est pas un objet physique comme l’électron, le ballon ou l’onde. « Chaotique » est un qualificatif qui décrit le type de dynamique d’un système, un qualificatif du même genre que des expressions comme instable, agité, ou linéaire. Employer ce qualificatif pour des phénomènes divers ne signifie pas prétendre qu’ils ont un rapport réel, matériel, entre eux. De même, lorsqu’on parle de pendule périodique, de mouvement périodique du ressort et d’oscillation périodique pour l’électricité, il ne s’agit pas de prétendre que ce sont des phénomènes identiques. Le terme de chaos déterministe caractérise le type de rythme. L’intérêt est que l’on dispose pour décrire le phénomène chaotique d’outils mathématiques (modes de calculs, courbes, mesures de dimensions), de types d’attitudes, de raisonnements, de méthodes et de concepts spécifiquement adaptés à ce type de dynamique. Le chaos déterministe est une démarche opposée à celle, classique, qui considère qu’ordre et désordre sont diamétralement opposés : ou du désordre ou des lois. La théorie du chaos considère, au contraire, que les deux coexistent et qu’un certain désordre peut servir à stabiliser un certain type d’ordre. Ce n’est pas simplement une autre mathématique mais un nouveau paradigme. J’en donne un exemple : dans la formation d’un solide, plus les molécules qui se déposent sont agitées plus elles vont remplir méthodiquement les cases de la structure : plus il y a de désordre, plus cela produit finalement d’ordre. C’est ce que l’on appelle la théorie des tas d’oranges. L’empilement le plus précis se produit quand les oranges sont distribuées le plus au hasard. Là où la méthode classique oppose ordre et hasard, la théorie du chaos voit une situation à la limite de l’ordre et du désordre, une dynamique se fondant sur des fluctuations mais avec tout de même des lois. La météorologie peut être décrite par des fonctions simples et modélisables par des courbes appelées attracteurs de Lorenz, alors que chacun sait qu’il y a du désordre dans la météo. La théorie du chaos offre des méthodes pour trouver des courbes, effectuer des mesures. Elle permet de trouver des attracteurs. Avec des équations simples comme celle de Lorenz, on retrouve le type de dynamique réelle qui ne nécessite donc pas un très grand nombre de paramètres, contrairement à ce que l’on croyait. Le chaos établit un déterminisme, une relation causale impliquant le phénomène dans sa globalité et dans les interactions entre les éléments, plutôt que de l’interpréter comme la somme de ses éléments. Le chaos s’oppose toujours au réductionnisme car la somme des causes peut entraîner un effet qui dépasse la somme des effets. Le chaos déterministe n’a pas le sens qui est donné au mot chaos dans le langage courant où il signifie simplement agitation ou désordre ; il convient de distinguer entre chaos et pur hasard. Alors que pour le hasard il n’y a aucune relation entre deux valeurs successives, le chaos déterministe suppose, au contraire, qu’il y a une relation. Le terme déterministe souligne justement que, même si on est dans une situation où on trouve du désordre, il y a une loi cachée. Comment comprendre ce paradoxe : un système est décrit par une loi et pourtant les paramètres qui obéissent à cette loi sont désordonnés. Cela est dû à une propriété fondamentale de ce type de loi : l’effet multiplicateur ou accroissement exponentiel d’une petite variation de départ. C’est ce que l’on appelle l’ « effet papillon », « l’effet boule de neige », « l’effet de pointe », « l’effet d’avalanche » ou, en termes moins imagés, la sensibilité aux conditions initiales. Deux points de départ très proches l’un de l’autre mènent rapidement à des situations complètement divergentes, comme dans le schéma d’une évolution météorologique. Comme le suggère l’expression effet boule de neige, il y a une croissance multiplicative. Plus la boule est déjà grosse plus elle grossit. Donc la croissance entraîne la croissance et du coup une petite cause peut entraîner un grand effet, si grand même que l’effet peut atteindre un niveau hiérarchique plus élevé. Ce type de situation est beaucoup plus courant qu’il n’y parait et a des propriétés très spéciales. Et d’abord une conséquence négative : bien que le système obéisse à une loi, il n’y a pas prédictibilité. Mais cela a aussi une conséquence extrêmement intéressante : il s’agit de systèmes déterministes qui produisent de la nouveauté, de nouvelles structures, un nouveau mode d’organisation qui n’étaient pas inscrits dans les règles de départ. Comme tous les phénomènes chaotiques, la météo terrestre est capable de brutales innovations. Le dernier ouragan nous l’a montré et des tempêtes ont bien des fois été une surprise. Inutile donc de chercher à prédire à partir des lois chaotiques de la météo. Si ces lois disent une chose, c’est bien que la météo n’est pas prédictible à long terme ! Mais cela ne signifie pas qu’il s’agit seulement de désordre. Il y a de l’ordre aussi dans la météo. Les types de climats sont durables et l’histoire des climats terrestres montre qu’ils changent brutalement au bout de quelques millions d’années. Cela signifie qu’un certain équilibre entre les masses d’air dans l’ensemble planétaire peut changer et se modifier, non sur quelques jours mais pour des durées considérables. On conçoit que produire de la nouveauté soit une propriété qui nous intéresse quand il s’agit de comprendre comment de nouvelles espèces peuvent naître ! Rappelons que rien de neuf n’apparaît dans un système périodique ou linéaire. Quand on le perturbe, faiblement ou fortement, tout au plus du désordre peut succéder à l’ordre très régulier. Au contraire, le chaos possède une capacité de s’organiser spontanément et l’ordre issu du chaos peut présenter une organisation à de nombreux niveaux, ce qui a un grand intérêt pour modéliser et comprendre le vivant. Dans des phénomènes dynamiques qui s’appuient sur des variables présentant un désordre permanent, pour voir se former un ordre extraordinairement structuré il n’y a pas besoin d’une loi complexe. Il suffit d’une loi non-linéaire, même une loi très simple, et d’au moins trois paramètres. Et cette propriété est très courante dans la matière, comme dans le processus de la vie. C’est même la linéarité qui est un cas plutôt rare dans la nature. Une loi linéaire est fondée sur la proportionnalité entre des facteurs et est représentée graphiquement par une ligne droite. Elle est prédictible car les effets sont proportionnés aux causes. Une telle loi ne donne pour chaque condition initiale qu’une seule solution possible contrairement à la grande variété de solutions avec saut d’une solution à l’autre dans une fonction chaotique. Un phénomène linéaire peut se maintenir ou être détruit mais pas se modifier. Dans un premier temps la science a exploité toutes les possibilités d’expliquer les phénomènes par des linéarités pour la seule raison que, dans ce cas, on était capable de résoudre les équations. Mais cela a créé l’illusion qu’une croissance linéaire était quelque chose de naturel alors, qu’au contraire, c’est plutôt exceptionnel. Il faut souligner l’importance de la non-linéarité en mettant en parallèle les propriétés des deux types de fonctions. Une fonction non-linéaire peut provoquer l’amplification de toutes petites mutations ; elle peut les stabiliser et fonder des structures stables. Du coup, ordre et désordre, loin d’être contradictoires, ne sont que les deux faces de la même propriété de non-linéarité. Des mathématiciens comme Poincaré, Kolmogorov ou Smale ont démontré que, pour un phénomène comprenant au moins trois variables, la non-linéarité implique le chaos déterministe. La théorie du chaos déterministe est une révolution conceptuelle de la science. C’est ce nouveau point de vue qu’il est fondamental de comprendre. En ce qui concerne la dynamique, il y a toujours eu en sciences deux démarches opposées. La première consiste à supposer que les effets sont proportionnels aux causes, que l’immobilité est plus naturelle que le mouvement, que ce dernier provient de l’action extérieure sur le système plutôt que de l’évolution interne et qu’un système laissé à lui-même aura spontanément tendance à aller vers la stabilité. La deuxième démarche, celle du chaos, considère que l’agitation aléatoire est la plus fréquente dans la nature mais que celle-ci toutefois peut être à la base de structures dynamiques mais durables. Jusque là on croyait que lorsqu’un phénomène obéit à une loi, l’ordre et le désordre, la stabilité et l’instabilité, la continuité et la discontinuité s’opposaient nécessairement. Cette manière de voir est remise en question. Elle ne convenait que parce que l’on ne traitait que des phénomènes impliquant une ou deux variables du fait de la difficulté des calculs comportant trois variables et plus. Or il s’avère qu’à partir de trois variables, on peut avoir un état dynamique durable fondé sur une instabilité sous-jacente. L’ancienne conception de la stabilité signifiait que le mouvement diminue de plus en plus pour finir par s’arrêter. Mais, au contraire, les états globalement stables qu’étudie le chaos sont dynamiques, c’est-à-dire continuellement en changement et en mouvement. Les variables ne vont pas vers l’immobilité ; la stabilité, qui n’est que globale et non locale, correspond au fait que dans une zone le nombre de variables, évoluant de manière indépendante, diminue. Ce nombre, appelé degré de liberté du système, indique combien de variables sont nécessaires pour décrire le phénomène. Ces variables peuvent varier de manière aléatoire mais l’ensemble du phénomène reste longtemps dans ces zones où le degré de liberté est moindre. Cette stabilité globale d’une zone n’empêche pas les mouvements ni les changements et, au bout d’un certain temps, le passage d’une zone à une autre, d’un ordre à un autre. Il y a à la fois agitation et constitution de structures avec possibilité de plusieurs niveaux de structure. Il est même possible que l’on ait stabilité à un niveau, en même temps qu’instabilité à un autre ou encore continuité à un niveau et discontinuité à un autre : on est à la frontière de l’ordre et du désordre. C’est ce type de phénomène qui explique que la matière passe brutalement de l’état solide à l’état liquide puis à l’état gazeux. Le désordre sous-jacent qui permet ces divers modes d’organisation est le mouvement des molécules. Cette agitation moléculaire, appelée mouvement brownien, est un exemple classique de phénomène chaotique. Les molécules s’agitent en tous sens et, en se cognant entre elles, établissent dans un récipient un certain niveau moyen d’agitation au bout d’un certain temps, ce qui détermine une température stable. On sait que ce mouvement permet plusieurs niveaux d’organisation comme gaz, liquide et solide avec un saut qualitatif de l’un à l’autre. L’ordre liquide obéit à certaines lois et ces lois changent brutalement et radicalement en passant à l’ordre gazeux. C’est une transition de phase et un saut qualitatif. La matière s’organise d’elle-même, du fait de ses propres lois. Même si une intervention extérieure peut permettre de sauter d’un état à un autre, ce n’est pas cette action externe qui définit le nouvel état. Le passage d’un ordre à un autre peut dépendre de la contingence des forces extérieures et dépendent toujours de la contingence des chocs moléculaires, mais il est cependant fondé sur les lois de la thermodynamique. Comme on le voit, obéir à une loi n’est pas incompatible avec être fondé sur du désordre et du hasard : en mathématiques, on parle de fonction de variables aléatoires.

Dialogue contradictoire et formation de structure (rétroaction et auto-organisation)Le caractère contradictoire dialectiquement de ces deux procédures provient du fait que la structure sépare et l’unité englobe. Concrétisons le propos par un exemple déjà cité : le photon qui se « matérialise » en paire particule/antiparticule construit une nouvelle contradiction et la dématérialisation de cette paire reproduit le photon. Le photon est donc l’unité des contraires : particule/antiparticule. Ce photon, globalement stable, est pourtant fondé sur une dynamique sans cesse en mouvement. C’est parce qu’il est instable qu’il est un moyen de dialogue, par exemple entre deux électrons. Il est absorbé par l’électron en intégrant sa structure puis réémis pour ensuite être absorbé par un autre électron. Cet échange permanent est la liaison électromagnétique des deux électrons. D’une part les deux électrons semblent séparés et de l’autre ils font partie d’une même unité par l’intermédiaire de ce dialogue permanent.

L’histoire est le produit de mécanismes contradictoires du fonctionnement de la matière. Quelles sont des procédures spontanées et automatiques, ne nécessitant aucun pilote ni aucun programme préétabli, qui caractérisent l’ensemble du réel et produisent à la fois l’inerte, le vivant, l’homme et sa conscience ? Au travers de ces divers exemples, nous avons montré que deux mécanismes dialectiquement contradictoires caractérisent la dynamique de la matière : 1°) la production spontanée de contradictions qui maintient l’instabilité 2°) le dialogue permanent entre les contraires qui produit l’unité et la structure

D’où une tendance permanente (à la fois et successivement) à la structuration et à la déstructuration, à l’ordre et au désordre. Le dialogue permanent, encore appelé rétroaction, produit de la nouveauté, des structures émergentes.

L’image du monde qui ressort de cette analyse est réaliste (le monde est réel et extérieur à notre cerveau) mais pas réaliste au sens où les objets réels de base ne sont pas les masses pesantes ni les images d’une masse de matière que nous avions. De même qu’elle est déterministe mais pas au sens de la causalité linéaire et prédictible.

Le physicien Robert B. Laughlin expose dans « Un univers différent » sa thèse opposée à celle du réductionnisme : comment la matière peut spontanément bâtir un ordre à partir du désordre sur la base des multiples interactions désordonnées, par émergence de structure. Cette conception, loin d’opposer agitation et lois, montre que les constantes découlent de processus de coopération collectifs par lesquels de nombreuses réactions successives en tous sens produisent un sens bien précis.

« Le tout petit groupe d’expériences qui sont d’une extrême exactitude a en physique une importance considérablement supérieure à sa taille. (…) Il y a la constante de Rydberg, le nombre qui définit la quantification des longueurs d’onde de la lumière émise par des gaz atomiques dilués et responsable de la fiabilité stupéfiante des horloges atomiques : on la connaît au cent millième de milliardième près. Autre exemple, la constante de Josephson, le nombre qui indique le rapport entre la tension qu’on applique à un type précis de « sandwich » métallique et la fréquence des ondes radio qu’il émet : on la connaît à un degré d’exactitude d’un cent millionième. Ou encore la résistance de Von Klitzing, le nombre qui indique le rapport entre le courant électrique qu’on fait passer à travers un semi-conducteur de conception spéciale et la tension induite perpendiculairement au moyen d’un aimant : on la connaît à un degré d’exactitude d’un dix milliardième. Paradoxalement, l’existence de ces expériences très reproductibles nous inspire deux points de vue incompatibles sur ce qui est fondamental. Selon le premier, cette exactitude nous fait toucher du doigt certains des éléments primitifs les plus simples dont est fait notre monde complexe et incertain. Nous disons que la vitesse de la lumière est constante parce qu’elle l’est vraiment, et parce que la lumière n’est pas constituée de composantes plus élémentaires. Avec ce mode de pensée, nous réduisons ces expériences extrêmement précises à une poignée de constantes dites « fondamentales ». L’autre point de vue, c’est que l’exactitude est un effet collectif, qui se produit en raison d’un principe d’organisation. (…) Un bel exemple d’effet collectif déguisé en effet réductionniste est la quantification des spectres atomiques. (…) Donc même la constance du spectre atomique a en réalité des origines collectives – le phénomène collectif, en l’occurrence, étant l’univers lui-même. Autre cas de « collectivisme », bien plus immédiat et troublant : la détermination de la charge de l’électron et de la constance de Planck par des mesures macroscopiques. La charge de l’électron est l’unité indivisible de l’électricité. La constance de Planck est la relation universelle entre le moment et la longueur qui définit la nature ondulatoire de la matière. Il s’agit de deux concepts résolument réductionnistes et, pour déterminer leur valeur, on recourt traditionnellement à de gigantesques machines qui mesurent les propriétés d’électrons individuels arrachés à des atomes. Or, il s’avère que le chiffre le plus précis ne vient pas de ces machines, mais simplement d’une combinaison des constantes de Josephson et de Von Klitzing, dont la mesure n’exige rien de plus compliqué qu’un cryoréfrigérateur et un voltmère. Cette découverte a été une immense surprise, car les échantillons sur lesquels on mesure les effets Josephson et Von Klitzing sont extrêmement imparfaits : ils regorgent d’impuretés chimiques, d’atomes déplacés et de structures atomiques complexes comme les frontières des grains et les morphologies de surface, autant de facteurs qui auraient dû perturber les mesures au niveau d’exactitude rapporté. Le fait même qu’ils ne le font pas prouve que de puissants principes d’organisation sont à l’œuvre. (…) Nous avons pris l’habitude de penser l’électron (et sa charge) comme un élément de base, un « cube de construction » de la nature, qui n’exige aucun contexte collectif pour avoir un sens. (…) L’énigme de la charge de l’électron, en fait, n’est pas unique. Toutes les constantes fondamentales exigent un contexte environnemental pour faire sens. (…) Il s’avère que les légendaires lois de Newton sont émergentes. Elles n’ont rien de fondamental, mais résultent de l’agrégation de la matière quantique en fluides et en solides macroscopiques – un phénomène organisationnel collectif. (…) Le comportement supraconducteur nous révèle, par son exactitude, que la réalité quotidienne est un phénomène d’organisation collective. (…) Les états de la matière – dont les plus connus sont le liquide, le gazeux et le solide – sont des phénomènes organisationnels. Beaucoup sont surpris de l’apprendre puisqu’ils apparaissent si fondamentaux et familiers, mais c’est la pure vérité. (…) Les états sont un cas d’émergence élémentaire et bien étudié, qui démontre de façon convaincante que la nature a des murs d’échelle : les règles microscopiques peuvent être parfaitement vraies mais sans aucune pertinence pour les phénomènes macroscopiques, car ce que nous mesurons leur est insensible ou au contraire trop sensible. (…) Enfin, nous savons que les lois élémentaires ont en principe la capacité d’engendrer des états et des transitions d’états en tant que phénomènes organisationnels. (…) L’aspect le plus stupéfiant de l’ordre cristallin, c’est qu’il reste exact quand la température monte. (…) L’exactitude du réseau sur longue distance explique la soudaineté de la fonte. (…) La forme et l’élasticité ne peuvent être perdues que sur le mode de la « catastrophe ». (…) Les transitions de la glace, fonte et sublimation, signalent la destruction de l’ordre cristallin et son remplacement par un autre ensemble de comportements exacts collectivement baptisé « hydrodynamique ». (…) L’émergence de la loi hydrodynamique aux longueurs d’onde élevées explique pourquoi l’onde de compression du son se propage universellement dans les fluides, et pourquoi la force de cisaillement d’un fluide est presque exactement de zéro. (…) le phénomène émergent qui distingue les états liquide et gazeux n’est donc pas le développement de l’ordre (…) Les états cristallins et superfluides, et les comportements exacts qui leur sont propres, sont des exemples particuliers d’une idée abstraite importante en physique, qu’on appelle la brisure de symétrie spontanée. (…) L’idée de brisure de symétrie est simple : la matière acquiert collectivement et spontanément une propriété ou une préférence qui n’existait pas dans les règles antérieures. Par exemple, lorsque des atomes s’ordonnent en cristal, ils acquièrent des positions privilégiées, mais ces positions n’avaient rien de privilégié avant la constitution du cristal. Quand un morceau de fer devient aimanté, le magnétisme choisit spontanément une direction dans laquelle il va orienter.(…) Nous disons que la matière décide « au hasard » (…) mais cette formule ne saisit pas vraiment ce qui se passe. (…) L’émergence des principes traditionnels de protection prend un tour intéressant quand le système se trouve à l’équilibre, à une transition d’état, car il a du mal à décider comment s’auto-organiser. Il peut alors arriver que tout soit non pertinent sauf une seule quantité caractéristique qui grandit sans limite quand la taille de l’échantillon augmente, par exemple la quantité de magnétisme dans un matériau magnétique. (…) La protection équilibrée se produit couramment dans la nature, mais moins qu’on pourrait s’y attendre, car la plupart des transitions d’état, l’évaporation de l’eau par exemple, ont une chaleur latente qui force les états à coexister. »

LE POINT DE VUE DE POINCARE

Poincaré et imprédictibilité Environ un siècle après Laplace, Poincaré écrit dans l’introduction de son Calcul des Probabilités [6] un texte dont la tonalité est fort différente de celui de son illustre prédécesseur. C’est entre 1880 et 1910, que Poincaré, qui cherche à prouver la stabilité du système solaire, découvre un nouveau continent issu des équations de Newton et jusqu’alors inexploré.

« Comment oser parler des lois du hasard ? Le hasard n’est-il pas l’antithèse de toute loi ? Ainsi s’exprime Rerirand, au début de son Calcul des probabilités. La probabilité est opposée à la certitude ; c’est donc ce qu’on ignore et, par conséquent semble-t-il, ce qu’on ne saurait calculer. Il y a là une contradiction au moins apparente et sur laquelle on a déjà beaucoup écrit.

Et d’abord qu’est-ce que le hasard ? Les anciens distinguaient les phénomènes qui semblaient obéir à des lois harmonieuses, établies une fois pour toutes, et ceux qu’ils attribuaient au hasard ; c’étaient ceux qu’on ne pouvait prévoir parce qu’ils étaient rebelles à toute loi. Dans chaque domaine, les lois précises ne décidaient pas de tout, elles traçaient seulement les limites entre lesquelles il était permis au hasard de se mouvoir. […]

Pour trouver une meilleure définition du hasard, il nous faut examiner quelques-uns des faits qu’on s’accorde à regarder comme fortuits, et auxquels le calcul des probabilités paraît s’appliquer ; nous rechercherons ensuite quels sont leurs caractères communs. Le premier exemple que nous allons choisir est celui de l’équilibre instable ; si un cône repose sur sa pointe, nous savons bien qu’il va tomber, mais nous ne savons pas de quel côté ; il nous semble que le hasard seul va en décider. Si le cône était parfaitement symétrique, si son axe était parfaitement vertical, s’il n’était soumis à aucune autre force que la pesanteur, il ne tomberait pas du tout. Mais le moindre défaut de symétrie va le faire pencher légèrement d’un côté ou de l’autre, et dès qu’il penchera, si peu que ce soit, il tombera tout à fait de ce côté. Si même la symétrie est parfaite, une trépidation très légère, un souffle d’air pourra le faire incliner de quelques secondes d’arc ; ce sera assez pour déterminer sa chute et même le sens de sa chute qui sera celui de l’inclinaison initiale. »

« Une cause très petite, qui nous échappe, détermine un effet considérable que nous ne pouvons pas ne pas voir, et alors nous disons que cet effet est dû au hasard. Si nous connaissions exactement les lois de la nature et la situation de l’univers à l’instant initial, nous pourrions prédire exactement la situation de ce même univers à un instant ultérieur. Mais, lors même que les lois naturelles n’auraient plus de secret pour nous, nous ne pourrions connaître la situation qu’approximativement. Si cela nous permet de prévoir la situation ultérieure avec la même approximation, c’est tout ce qu’il nous faut, nous disons que le phénomène a été prévu, qu’il est régi par des lois ; mais il n’en est pas toujours ainsi, il peut arriver que de petites différences dans les conditions initiales en engendrent de très grandes dans les phénomènes finaux ; une petite erreur sur les premières produirait une erreur énorme sur les derniers. La prédiction devient impossible et nous avons le phénomène fortuit. »

Sensibilité aux conditions initiales

Dans le paragraphe précédent, Poincaré met en exergue le phénomène connu aujourd’hui sous la dénomination de sensibilité aux conditions initiales : pour un système chaotique, une très petite erreur sur la connaissance de l’état initial x0 dans l’espace des phases va se trouver (presque toujours) rapidement amplifiée.

Quantitativement, la croissance de l’erreur est localement exponentielle pour les systèmes fortement chaotiques, baptisés selon la théorie ergodique K-systèmes (le K est pour Kolmogorov), ainsi que pour les systèmes très fortement chaotiques, dits B-systèmes (le B est pour Bernoulli) [7]. Cette amplification des erreurs rend rapidement totalement inopérant le pouvoir prédictif qui découle de l’unicité de la solution, assurée par Cauchy-Lipschitz.

Typiquement, pour un système chaotique, les erreurs croissent localement selon une loi du type :

où τ est un temps caractéristique du système chaotique, appelé parfois « horizon de Lyapounov » [8]. Le caractère prédictible de l’évolution du système ne subsiste que pour les instants , pour lesquels l’exponentielle vaut approximativement 1, et donc tels que l’erreur garde sa taille initiale. En revanche, pour , toute prédiction devient pratiquement impossible, bien que le théorème de Cauchy-Lipschitz reste vrai."

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

Structures dissipatives loin de l’équilibre selon Ilya Prigogine

« Loin de l’équilibre, les processus irréversibles sont source de cohérence. L’apparition de cette activité cohérente de la matière – des « structures dissipatives » - nous impose un nouveau regard, une nouvelle manière de nous situer par rapport au système que nous définissons et manipulons. Alors qu’à l’équilibre et près de l’équilibre, le comportement du système est, pour des temps suffisamment longs, entièrement déterminé par les conditions aux limites, nous devrons désormais lui reconnaître une certaine autonomie qui permet de parler des structures loin de l’équilibre comme de phénomènes d’ « auto-organisation ». (…) Un système physico-chimique peut donc devenir sensible, loin de l’équilibre, à des facteurs négligeables près de l’équilibre. (…) La notion de « sensibilité » lie ce que les physiciens avaient l’habitude de séparer : la définition du système et son activité. (…) C’est l’activité intrinsèque du système qui détermine comment nous devons décrire son rapport à l’environnement, qui engendre donc le type d’intelligibilité qui sera pertinente pour comprendre ses histoires possibles. (…) On retrouve la notion de sensibilité associée à celle d’instabilité, puisqu’il s’agit, dans ce cas, de la sensibilité du système à lui-même, aux fluctuations de sa propre activité. (…) Nous pouvons décrire un système à l’équilibre à partir des seules valeurs moyennes des grandeurs qui le caractérisent, parce que l’état d’équilibre est stable par rapport aux incessantes fluctuations qui perturbent ces valeurs, parce que ces fluctuations sont vouées à la régression. (…) Le fait que tel ou tel événement puisse « prendre sens », cesser d’être un simple bruit dans le tumulte insensé de l’activité microscopique, introduit en physique cet élément narratif dont nous avons dit qu’il était indispensable à une véritable conception de l’évolution. (…) ces questions ne renvoient ne renvoient pas à une ignorance contingente et surmontable, mais définissent la singularité des points de bifurcation. En ces points, le comportement du système devient instable et peut évoluer vers plusieurs régimes de fonctionnement stables. En de tels points, une « meilleure connaissance » ne nous permettrait pas de déduire ce qui arrivera, de substituer la certitude aux probabilités. (…) La physique des phénomènes loin de l’équilibre a démontré le rôle constructif des phénomènes irréversibles. Nous pouvons désormais affirmer que le message de l’entropie n’a pas pour objet les limites de nos connaissances, ou des impératifs pratiques. (…) Il définit les contraintes intrinsèques à partir desquelles se renouvellent le sens et la portée des questions que ce monde nous autorise à poser. (…) Nous avons surtout souligné les dimensions négatives du chaos dynamique, la nécessité qu’il implique d’abandonner les notions de trajectoire et de déterminisme. Mais l’étude des systèmes chaotiques est également une ouverture ; elle crée la nécessité de construire de nouveaux concepts, de nouveaux langages théoriques. Le langage classique de la dynamique implique les notions de points et de trajectoires, et, jusqu’à présent, nous-mêmes y avons eu recours alors même que nous montrions l’idéalisation – dans ce cas illégitime – dont elles procèdent. Le problème est maintenant de transformer ce langage, de sorte qu’il intègre de manière rigoureuse et cohérente les contraintes que nous venons de reconnaître. Il ne suffit pas, en effet, d’exprimer le caractère fini de la définition d’un système dynamique en décrivant l’état initial de ce système par une région de l’espace des phases, et non par un point. Car une telle région, soumise à l’évolution que définit la dynamique classique, aura beau se fragmenter au cours du temps, elle conservera son volume dans l’espace des phases. C’est ce qu’exprime un théorème général de la dynamique, le théorème de Liouville. Toutes les tentatives de construire une fonction entropie, décrivant l’évolution d’un ensemble de trajectoires dans l’espace des phases, se sont heurtées au théorème de Liouville, au fait que l’évolution d’un tel ensemble ne peut être décrite par une fonction qui croîtrait au cours du temps. Or, un argument simple permet de montrer l’incompatibilité, dans le cas d’un système chaotique, entre le théorème de Liouville et la contrainte selon laquelle toute description définit le « pouvoir de résolution » de nos descriptions ; il existera toujours une distance r telle que nous ne pourrons faire de différence entre des points plus proches l’un de l’autre (…) La nouvelle description des systèmes dynamiques chaotiques substitue au point un ensemble correspondant à un fragment de fibre contractante. Il s’agit d’une description non locale, qui tient compte de la contrainte d’indiscernabilité que nous avons définie. Mais cette description n’est pas relative à notre ignorance. Elle donne un sens intrinsèque au caractère fini de nos descriptions : dans le cas où le système n’est pas chaotique, où l’exposant de Lyapounov est de valeur nulle, nous retrouvons la représentation classique, ponctuelle, et les limites mises à la précision de nos mesures n’affectent plus la représentation du système dynamique. Cette nouvelle représentation brise également la symétrie temporelle. (…) Là où une seule équation d’évolution permettait de calculer l’évolution vers le passé ou vers le futur de points eux-mêmes indifférents à cette distinction, nous avons maintenant deux équations d’évolution différentes. L’une décrirait l’évolution d’un système vers un équilibre situé dans le futur, l’autre décrirait l’évolution d’un système vers un équilibre situé dans le passé. L’un des grands problèmes de l’interprétation probabiliste de l’évolution vers l’équilibre était que la représentation probabiliste ne donne pas sens à la distinction entre passé et futur. (…) La nouvelle description dynamique que nous avons construite incorpore, en revanche, la flèche du temps (…) Les comportements dynamiques chaotiques permettent de construire ce pont, que Boltzmann n’avait pu créer, entre la dynamique et le monde des processus irréversibles. La nouvelle représentation de l’objet dynamique, non locale et à symétrie temporelle brisée, n’est pas une description approximative, plus pauvre que la représentation classique. Elle définit au contraire cette représentation classique comme relative à un cas particulier. (…) Nous savons aujourd’hui que ces derniers (les systèmes non-chaotiques), qui dominèrent si longtemps l’imagination des physiciens, forment en fait une classe très particulière. (…) C’est en 1892, avec la découverte d’un théorème fondamental par Poincaré ( la loi des trois corps), que se brisa l’image homogène du comportement dynamique : la plupart des systèmes dynamiques, à commencer par le simple système « à trois corps » ne sont pas intégrables. Comment comprendre cet énoncé ? Depuis les travaux de Hamilton, on sait qu’un même système dynamique peut être représenté de différentes manières équivalentes par une transformation dite canonique (ou unitaire) (…) L’hamiltonien du système est la grandeur qui détermine son évolution temporelle. Parmi toutes les transformations unitaires, il en existe une qui permet d’aboutir à une représentation privilégiée du système. C’est celle qui fait de l’énergie, c’est-à-dire de l’hamiltonien, une fonction des seuls moments, et non plus des positions. Dans une telle représentation, les mouvements des différentes particules du système sont décrits comme s’ils ne dépendaient plus des positions relatives des particules, c’est-à-dire comme si elles n’étaient plus en interaction. (…) Les mouvements possibles de tels systèmes ont donc la simplicité des mouvements libres. (…) Or, en 1892, Poincaré montra qu’en général il est impossible de définir la transformation unitaire qui ferait des « actions » des invariants du système. La plupart des systèmes dynamiques n’admettent pas d’invariants en dehors de l’énergie et de la quantité de mouvement, et dès lors ne sont pas intégrables. La raison de l’impossibilité de définir les invariants du mouvement qui correspondent à la représentation d’un système dynamique intégrable tient à un mécanisme de résonance. (…) Le mécanisme de résonance peut être caractérisé comme un transfert d’énergie entre deux mouvements périodiques couplés dont les fréquences sont entre elles dans un rapport simple. Ce sont ces phénomènes de résonance – mais, cette fois, entre les différents degrés de liberté qui caractérisent un même système dynamique – qui empêchent que ce système soit mis sous une forme intégrable. La résonance la plus simple entre les fréquences se produit quand ces fréquences sont égales, mais elle se produit aussi à chaque fois que les fréquences sont commensurables, c’est-à-dire chaque fois qu’elles ont entre elles un rapport rationnel. Le problème se complique du fait que de manière générale les fréquences ne sont pas constantes. (…) Ce qui fait que, dans l’espace des phases d’un système dynamique, il y aura des points caractérisés par une résonance, alors que d’autres ne le seront pas. L’existence des points de résonance interdit en général la représentation en termes de variables cycliques, c’est-à-dire une décomposition du mouvement en mouvements périodiques indépendants. Les points de résonance, c’est-à-dire les points auxquels les fréquences ont entre elles un rapport rationnel, sont rares, comme sont rares les nombres rationnels par rapport aux nombres irrationnels. Dès lors, presque partout dans l’espace des phases, nous aurons des comportements périodiques de type habituel. Néanmoins, les points de résonance existent dans tout le volume fini de l’espace des phases. D’où le caractère effroyablement compliqué de l’image des systèmes dynamiques telle qu’elle nous a été révélée par la dynamique moderne initiée par Poincaré et poursuivie par les travaux de Kolmogoroff, Arnold et Moser. Si les systèmes dynamiques étaient intégrables, la dynamique ne pourrait nous livrer qu’une image statique du monde, image dont le mouvement du pendule ou de la planète sur sa trajectoire képlérienne constituerait le prototype. Cependant l’existence des résonances dans les systèmes dynamiques à plus de deux corps ne suffit pas pour transformer cette image et la rendre cohérente avec les processus évolutifs étudiés précédemment. Lorsque le volume reste petit, ce sont toujours les comportements périodiques qui dominent. (…) Cependant, pour les grands systèmes, la situation s’inverse. Les résonances s’accumulent dans l’espace des phases, elles se produisent désormais non plus en tout point rationnel, mais en tout point réel. (…) Dès lors, les comportements non périodiques dominent, comme c’est le cas dans les systèmes chaotiques. (…) Dans le cas d’un système de sphères dures en collision, Sinaï a pu démontrer l’identité entre comportement cinétique et chaotique, et définir la relation entre une grandeur cinétique comme le temps de relaxation (temps moyen entre deux collisions) et le temps de Lyapounov qui caractérise l’horizon temporel des systèmes chaotiques. (…) Or, l’atome en interaction avec son champ constitue un « grand système quantique » auquel, nous l’avons démontré, le théorème de Poincaré peut être étendu. (…) La « catastrophe » de Poincaré se répète dans ce cas : contrairement à ce que présupposait la représentation quantique usuelle, les systèmes caractérisés par l’existence de telles résonances ne peuvent être décrits en termes de superposition de fonctions propres de l’opérateur hamiltonien, c’est-à-dire d’invariants du mouvement. Les systèmes quantiques caractérisés par des temps de vie moyens, ou par des comportements correspondants à des « collisions », constituent donc la forme quantique des systèmes dynamiques au comportement chaotique (…) L’abandon du modèle des systèmes intégrables a des conséquences aussi radicales en mécanique quantique qu’en mécanique classique. Dans ce dernier cas, il impliquait l’abandon de la notion de point et de loi d’évolution réversible qui lui correspond. Dans le second, il implique l’abandon de la fonction d’onde et de son évolution réversible dans l’espace de Hilbert. Dans les deux cas, cet abandon a la même signification : il nous permet de déchiffrer le message de l’entropie. (…) La collision, transfert de quantité de mouvement et d’énergie cinétique entre deux particules, constitue, du point de vue dynamique, un exemple de résonance. Or, c’est l’existence des points de résonance qui, on le sait depuis Poincaré, empêche de définir la plupart des systèmes dynamiques comme intégrables. La théorie cinétique, qui correspond au cas d’un grand système dynamique ayant des points de résonance « presque partout » dans l’espace des phases , marque donc la transformation de la notion de résonance : celle-ci cesse d’être un obstacle à la description en termes de trajectoires déterministes et prédictibles, pour devenir un nouveau principe de description, intrinsèquement irréversible et probabiliste. C’est cette notion de résonance que nous avons retrouvée au cœur de la mécanique quantique, puisque c’est elle qu’utilisa Dirac pour expliquer les événements qui ouvrent un accès expérimental à l’atome, l’émission et l’absorption de photons d’énergie spécifique, dont le spectre constitue la véritable signature de chaque type d’atome. (…) Le temps de vie, qui caractérise de manière intrinsèque un niveau excité, dépend, dans le formalisme actuel de la mécanique quantique, d’une approximation et perd son sens si le calcul est poussé plus loin. Dès lors, la mécanique quantique a dû reconnaître l’événement sans pouvoir lui donner de sens objectif. C’est pourquoi elle a pu paraître mettre en question la réalité même du monde observable qu’elle devait rendre intelligible. (…) Pour expliquer les transitions électroniques spontanées qui confèrent à tout état excité un temps de vie fini, Dirac avait dû faire l’hypothèse d’un champ induit par l’atome et entrant en résonance avec lui. Le système fini que représente l’atome isolé n’est donc qu’une abstraction. L’atome en interaction avec son champ est, lui, un « grand système quantique », et c’est à son niveau que se produit la « catastrophe de Poincaré ». L’atome en interaction avec le champ qu’il induit ne constitue pas, en effet, un système intégrable et ne peut donc pas plus être représenté par l’évolution de fonction d’onde qu’un système classique caractérisé par des points de résonance ne peut être caractérisé par une trajectoire. C’est là la faille que recélait l’édifice impressionnant de la mécanique quantique. (…) Il est significatif que, partout, nous ayons rencontré la notion de « brisement de symétrie ». Cette notion implique une référence apparemment indépassable à la symétrie affirmée par les lois fondamentales qui constituent l’héritage de la physique. Et, en effet, dans un premier temps, ce sont ces lois qui ont guidé notre recherche. (…) La description à symétrie temporelle brisée permet de comprendre la symétrie elle-même comme relative à la particularité des objets autrefois privilégiés par la physique, c’est-à-dire de situer leur particularité au sein d’une théorie plus générale. »

Extrait de « Le temps et l’éternité » d’Ilya Prigogine et Isabelle Stengers

3 Messages de forum

  • Hasard et nécessité 15 juillet 2009 22:21

    La réponse de I. Prigogine (1995) est pourtant claire : « la certitude n’a jamais fait partie de notre vie. Je ne sais pas ce que sera demain. Pourquoi penser que la certitude est la condition même de la science ? (...) La science traditionnelle identifiait raison et certitude, et ignorance et probabilité. Il n’en est plus ainsi aujourd’hui. »

    Répondre à ce message

  • Hasard et nécessité 10 septembre 2009 19:13, par Robert Paris

    Le biologiste Jacques Monod dans « Le hasard et la nécessité » : « Le hasard pur, le seul hasard, la liberté absolue, mais aveugle, à la racine même du prodigieux édifice de l’évolution. » Donnons sur ce point la réponse de François Jacob : « Pour extraire d’une roulette, coup par coup, sous- unité par sous- unité, chacune des cent mille chaînes protéiques qui peuvent composer le corps d’un mammifère, il faut un temps qui excède, et de loin, la durée allouée au système solaire. »

    Répondre à ce message

  • Hasard et nécessité 31 décembre 2009 14:12, par Robert Paris

    "L’opposition entre organisé et aléatoire peut être remplacée par une coopération où inévitablement ces concepts acquièrent de nouveaux contenus."

    Entre le cristal et la fumée, Henri Atlan

    Répondre à ce message

Répondre à cet article

SPIP | squelette | | Plan du site | Suivre la vie du site RSS 2.0