English German Espagnol Portugese Chinese Japanese Arab Rusian Italian Norvegian Dutch Hebrew Polish Turkish Hindi
Accueil du site > 01 - Livre Un : PHILOSOPHIE > LIVRE UN - Chapitre 09 : L’image du chaos déterministe > Les idées d’Ilya Prigogine

Les idées d’Ilya Prigogine

samedi 17 mai 2008, par Robert Paris

Prigogine en vidéo

Alastair Rae dans "Physique quantique, illusion ou réalité ?" :

"Comme nous le voyons, les théories de Prigogine, bien qu’apparemment simples, impliquent un changement quasiment révolutionnaire dans notre mode de pensée sur l’univers physique. (...) Ainsi, le comportement d’un gaz composé de particules, obéissant à des mouvements réversibles, devait être aussi soumis à des lois réversibles, et les changement apparemment irréversibles devaient être des approximations ou des illusions résultant d’une observation sur un temps trop court. Prigogine a complètement renversé cette manière de voir les choses. Il propose que les changements irréversibles sont la réalité fondamentale des entités de l’univers et que l’idée de particules microscopiques sujettes à des mouvements réversibles n’est qu’une approximation. "

Ilya Prigogine dans « Temps à devenir » :

« On a découvert que quand vous allez loin de l’équilibre, par exemple, en considérant une réaction chimique, que vous empêchez d’arriver à l’équilibre, se produisent des phénomènes extraordinaires que personne n’aurait cru possibles ; par exemple, des horloges chimiques. Une horloge chimique, qu’est-ce que c’est ? Prenons un exemple : vous avez des molécules qui de rouges peuvent devenir bleues. Comment imaginez-vous voir ce phénomène ? Si vous pensez que les molécules vont au hasard, vous allez voir des flashes de bleu, puis de flashes de rouge. Mais il se produit, loin de l’équilibre, dans d’importantes classes de réactions chimiques, des phénomènes rythmiques. Tout devient bleu, puis tout devient rouge, puis tout devient bleu, c’est-à-dire qu’une cohérence naît, qui n’existe que loin de l’équilibre. (…) Donc, loin de l’équilibre, se produisent des phénomènes ordonnés qui n’existent pas près de l’équilibre. Si vous chauffez un liquide par en-dessous, il se produit des tourbillons dans lesquels des milliards de milliards de molécules se suivent l’une l’autre. De même, un être vivant, vous le savez bien, est un ensemble de rythmes, tels le rythme cardiaque, le rythme hormonal, le rythme des ondes cérébrales, de division cellulaire, etc. Tous ces rythmes ne sont possibles que parce que l’être vivant est loin de l’équilibre. Le non-équilibre, ce n’est pas du tout les tasses qui se cassent ; le non-équilibre, c’est la voie la plus extraordinaire que la nature ait inventée pour coordonner les phénomènes, pour rendre possibles des phénomènes complexes.

Donc, loin d’être simplement un effet du hasard, les phénomènes de non-équilibre sont notre accès vers la complexité. Et des concepts comme l’auto-organisation loin de l’équilibre, ou de structure dissipative, sont aujourd’hui des lieux communs qui sont appliqués dans des domaines nombreux, non seulement de la physique, mais de la sociologie, de l’économie, et jusqu’à l’anthropologie et la linguistique. »

Entre hasard et nécessité : l’auto-organisation des structures dissipatives du nuage

Ilya Prigogine et Isabelle Stengers dans « La nouvelle alliance » :

« La thermodynamique des processus irréversibles a découvert que les flux qui traversent certains systèmes physico-chimiques et les éloignent de l’équilibre, peuvent nourrir des phénomènes d’auto-organisation spontanée, des ruptures de symétrie, des évolutions vers une complexité et une diversité croissantes. »

Ilya Prigogine et Isabelle Stengers dans « Entre le temps et l’éternité » :

"Les comportements dynamiques chaotiques permettent de construire ce pont, que Boltzmann n’avait pu créer, entre la dynamique et le monde des processus irréversibles. La nouvelle représentation de l’objet dynamique, non locale et à symétrie temporelle brisée, n’est pas une description approximative, plus pauvre que la représentation classique. Elle définit au contraire cette représentation classique comme relative à un cas particulier. (…) Nous savons aujourd’hui que ces derniers (les systèmes non-chaotiques), qui dominèrent si longtemps l’imagination des physiciens, forment en fait une classe très particulière. (…) C’est en 1892, avec la découverte d’un théorème fondamental par Poincaré ( la loi des trois corps), que se brisa l’image homogène du comportement dynamique : la plupart des systèmes dynamiques, à commencer par le simple système « à trois corps » ne sont pas intégrables."

Sommaire du site

Ilya Prigogine et Isabelle Stengers dans « La nouvelle alliance » :

« Une notion cruciale est la notion d’attracteur. Les exemples d’attracteurs sont innombrables et bien connus de la physique. Le pendule, qui s’immobilise progressivement, rejoint son état attracteur. Le liquide chaud dont la température rejoint progressivement celle de l’environnement gagne son état attracteur. (…) Nous avons vu que, près de l’équilibre, l’état stationnaire correspond (….) à un état attracteur essentiellement analogue à l’état d’équilibre. Mais, loin de l’équilibre, d’autres types d’attracteurs peuvent apparaître, et notamment le « cycle limite », correspondant à un comportement temporel périodique adopté de manière spontanée par le système. (…) Depuis, de nouveaux types d’attracteurs ont été découverts qui enrichissent la dialectique du régulier et de l’aléatoire. (…) Ces attracteurs ne correspondent pas à un point, comme l’état d’équilibre, ou à une ligne, comme le cycle limite, mais à un ensemble dense de points, un ensemble assez dense pour que l’on puisse trouver de ces points dans toute région, aussi petite soit-elle. Il s’agit d’un ensemble auquel peut être attribué une dimension « fractale ». Les attracteurs de ce type impliquent, de la part du système qu’ils caractérisent, un comportement de type chaotique. Attracteur et stabilité cessent ici d’aller de pair. David Ruelle a caractérisé ces « attracteurs étranges », qu’on a également appelés « attracteurs fractals », par leur très grande sensibilité aux conditions initiales. Ce qui signifie que l’état attracteur ne se caractérise plus du tout par son insensibilité à de petites variations de ses paramètres. Toute petite variation est susceptible d’entraîner des effets sans mesure, de déporter le système d’un état à un autre très différent. (…) L’opposition entre déterminisme et aléatoire est battue en brèche. (…) C’est désormais autour des thèmes de la stabilité et de l’instabilité que s’organisent nos descriptions du monde, et non autour de l’opposition entre hasard et nécessité. »

"Prigogine a formalisé sur le plan thermodynamique, l’approche que le mathématicien anglais Alan Turing avait ébauché dès 1952 dans "Les bases chimiques de la morphogenèse", où il imaginait un mécanisme de réaction entre deux molécules biochimiques, qui diffusent dans un tissu, engendrant spontanément une répartition périodique. Ces phénomènes d’auto-organisation apparaissent quand deux substances agissant l’une sur l’autre sont placées dans un milieu où elles diffusent : l’une est dite activatrice, l’autre inhibitrice. La première favorise sa propre production ainsi que celle de la seconde. En revanche cette dernière inhibe la production de l’activateur. Quand on laisse le système évoluer, des motifs apparaissent spontanément : des taches, des zébrures... Les motifs résultent d’une compétition entre une activation locale et une inhibition à longue portée. De telles structures, dites dissipatives, ne se maintiennent que dans un système qui n’est pas en équilibre et que l’on alimente sans cesse en réactifs. Sinon, la réaction s’épuise et la diffusion classique reprend ses droits."

Pour la Science, no 300, octobre 2002

"L’étude des phénomènes d’auto-organisation se fonde sur les structures de Turing et les structures dissipatives de Prigogine. Ces structures apparaissent lorsqu’une substance inhibitrice diffuse plus vite que l’activateur. Insistons sur le caractère paradoxal de ce phénomène : c’est la diffusion, phénomène qui tend d’habitude à homogénéiser les constituants, qui va ici jouer un rôle essentiel la différenciation. L’entropie semble s’inverser, devenant créatrice de formes et d’ordre, tout comme le refroidissement provoque des brisures de symétries se traduisant par des cristallisations. "

Quelques citations de

"La Fin des Certitudes"

de Ilya Prigogine

On sait qu’Einstein a souvent affirmé que "le temps est illusion"· Et en effet, le temps tel qu’il a été incorporé dans les lois fondamentales de la physique, de la dynamique classique newtonienne jusqu’à la relativité et à la physique quantique, n’autorise aucune distinction entre le passé et le futur. Aujourd’hui encore pour beaucoup de physiciens, c’est là une véritable profession de foi : au niveau de la description fondamentale de la nature, il n’y a pas de flèche du temps. (...)

[...]au cours des dernières décennies, une nouvelle science est née, la physique des processus de non-équilibre. Cette science a conduit à des concepts nouveaux tels que l’auto-organisation et les structures dissipatives qui sont aujourd’hui largement utilisés dans des domaines qui vont de la cosmologie jusqu’à l’écologie et aux sciences sociales, en passant par chimie et la biologie. La physique de non-équilibre étudie les processus dissipatifs, caractérisés par un temps unidirectionnel, et ce faisant elle confère une nouvelle signification à l’irréversibilité. (...)

L’irréversibilité ne peut plus être attribuée à une simple apparence qui disparaîtrait si nous accédions à une connaissance parfaite. Elle est une condition essentielle de comportements cohérents de milliards de milliards de molécules. Selon une formule que j’aime a répéter, la matière est aveugle à l’équilibre là où la flèche du temps ne se manifeste pas ; mais lorsque celle-ci se manifeste, loin de l’équilibre, la matière commence à voir ! Sans la cohérence des processus irréversibles de non-équilibre, l’apparition de la vie sur la Terre serait inconcevable. La thèse selon laquelle la flèche du temps est seulement phénoménologique est absurde. Ce n’est pas nous qui engendrons la flèche du temps. Bien au contraire, nous sommes ses enfants. (...)

Le second développement concernant la révision du concept de temps en Physique a été celui des systèmes dynamiques instables. La science classique privilégiait l’ordre, la stabilité, alors qu’à tous les niveaux d’observation nous reconnaissons désormais le rôle primordial des fluctuations et de l’instabilité [...] Mais comme nous le montrerons dans ce livre, les systèmes dynamiques instables conduisent aussi à une extension de la dynamique classique et de la physique quantique, et dès lors à une formulation nouvelle des lois de la physique. Cette formulation brise la symétrie entre passé et futur qu’affirmait la physique traditionnelle, y compris la mécanique quantique et la relativité. [...] Dès que l’instabilité est incorporée, la signification des lois de la nature prend un nouveau sens. Elles expriment désormais des possibilités.

D’autres questions sont directement rattachées au problème du temps. L’une est le rôle étrange conféré à l’observateur dans la théorie quantique. Le paradoxe du temps fait de nous les responsables de la brisure de symétrie temporelle observée dans la nature. Mais, plus encore, c’est l’observateur qui serait responsable d’un aspect fondamental de la théorie quantique qu’on appelle la réduction de la fonction d’onde. C’est ce rôle qu’elle attribue à l’observateur qui, nous le verrons, a donné à la mécanique quantique son aspect apparemment subjectiviste et a suscité des controverses interminables. Dans l’interprétation usuelle, la mesure, qui impose une référence à l’observateur en théorie quantique, correspond à une brisure de symétrie temporelle. En revanche, l’introduction de l’instabilité dans la théorie quantique conduit à une brisure de la symétrie du temps. L’observateur quantique perd dès lors son statut singulier ! La solution du paradoxe du temps apporte également une solution au paradoxe quantique, et mène à une formulation réaliste de la théorie. Soulignons que cela ne nous fait pas revenir à l’orthodoxie classique et déterministe ; bien au contraire, cela nous conduit à affirmer encore davantage le caractère statistique de la mécanique quantique. Comme nous l’avons déjà souligné, tant en dynamique classique qu’en physique quantique, les lois fondamentales expriment maintenant des possibilités et non plus des certitudes. Nous avons non seulement des lois mais aussi des événements qui ne sont pas déductibles des lois mais en actualisent les possibilités.

La question du temps et du déterminisme n’est pas limitée aux sciences, elle est au cœur de la pensée occidentale depuis l’origine de ce que nous appelons la rationalité et que nous situons à l’époque présocratique. Comment concevoir la créativité humaine, comment penser l’éthique dans un monde déterministe ? [...] La démocratie et les sciences modernes sont toutes deux les héritières de la même histoire, mais cette histoire mènerait à une contradiction si les sciences faisaient triompher une conception déterministe de la nature alors que la démocratie incarne l’idéal d’une société libre. Nous considérer comme étrangers à la nature implique un dualisme étranger à l’aventure des sciences aussi bien qu’à la passion d’intelligibilité propre au monde occidental. Cette passion est selon Richard Tarnas [1], de "retrouver son unité avec les racines de son être". Nous pensons nous situer aujourd’hui à un point crucial de cette aventure au point de départ d’une nouvelle rationalité qui n’identifie plus science et certitude, probabilité et ignorance. En cette fin de siècle, la question de I’avenir de la science est souvent posée. Pour certains, tel Stephen Hawking dans sa Brève histoire du temps [2], nous sommes proches de la fin, du moment où nous serons capables de déchiffrer la "pensée de Dieu". Je crois, au contraire que nous sommes seulement au début de l’aventure Nous assistons à l’émergence d’une science qui n’est plus limitée à des situations simplifiées, idéalisées, mais nous met en face de la complexité du monde réel, une science qui permet à la créativité humaine de se vivre comme l’expression singulière d’un trait fondamental commun à tous les niveaux de la nature.

[1]Richard Tarnas "The Passion of the Western Mind", New York, Harmony, 1991, p443. [2]Stephen Hawking, "Une brève histoire du temps", Paris, Flammarion, Collection "Champs", 1991

Les questions étudiées dans ce livre - l’univers est-il régi par des lois déterministes ? Quel est le rôle du temps ? - ont été formulées par les présocratiques à l’aube de la pensée occidentale. Elles nous accompagnent depuis plus de deux mille cinq cent ans. Aujourd’hui, les développements de la physique et des mathématiques du chaos et de l’instabilité ouvrent un nouveau chapitre dans cette longue histoire. Nous percevons ces problèmes sous un angle renouvelé. Nous pouvons désormais éviter les contradictions du passé. Épicure fut le premier à dresser les termes du dilemme auquel la physique moderne a conféré le poids de son autorité. Successeur de Démocrite, il imaginait le monde constitué par des atomes en mouvement dans le vide. Il pensait que les atomes tombaient tous avec la même vitesse en suivant des trajets parallèles. Comment pouvaient-ils alors entrer en collision ? Comment la nouveauté, une nouvelle combinaison d’atomes, pouvait-elle apparaitre ? Pour Épicure, le problème de la science, de l’intelligibilité de la nature et celui de la destinée des hommes étaient inséparables. Que pouvait signifier la liberté humaine dans le monde déterministe des atomes ? Il écrivait à Ménécée : "Quant au destin, que certains regardent comme le maître de tout, le sage en rit. En effet, mieux vaut encore accepter le mythe sur les dieux que de s’asservir au destin des physiciens. Car le mythe nous laisse l’espoir de nous concilier les dieux par les honneurs que nous leur rendons, tandis que le destin a un caractère de nécessité inexorable". Les physiciens dont parle Épicure ont beau être les philosophes stoïciens cette citation résonne de manière étonnamment moderne ! [...] Mais avons-nous besoin d’une pensée de la nouveauté ? Toute nouveauté n’est-elle pas illusion ? Aussi la question remonte aux origines. Pour Héraclite, tel que l’a compris Popper, "la vérité est d’avoir saisi l’être essentiel de la nature, de l’avoir conçue comme implicitement infinie, comme le processus même". (...)

Chacun sait que la physique newtonienne a été détrônée au XXème siècle par la mécanique quantique et la relativité. Mais les traits fondamentaux de la loi de Newton, son déterminisme et sa symétrie temporelle, ont survécu. Bien sûr, la mécanique quantique ne décrit plus des trajectoires mais des fonctions d’onde (voir section IV de ce chapitre et le chapitre VI), mais son équation de base, l’équation de Schrödinger, est elle aussi déterministe et à temps réversible. Les lois de la nature énoncée par la physique relèvent donc d’une connaissance idéale qui atteint la certitude. Dès lors que les conditions initiales sont données, tout est déterminé. La nature est un automate que nous pouvons contrôler, en principe du moins. La nouveauté, le choix, l’activité spontanée ne sont que des apparences, relatives seulement au point de vue humain. Page 20 Remarque : Le déterminisme est issu de la pensée de l’outil. L’emploi de l’outillage, le processus technique est le prototype du déterminisme intellectuel. Comme il n’existe que très peu de processus techniques qui font usage de processus de type probabilistes, l’incertitude n’apparait pas dans la logique usuelle qui n’est que le reflet intellectuel de la pratique technique concrète. Mais tout n’est pas outil, il faut comprendre aussi ce que la nature a de naturel. C’est en quoi le point de vue de Prigogine est difficile à assimiler dans ce monde-ci... Il s’agit d’une logique qui n’a pas de précédent dans la pratique technicienne.

De nombreux historiens soulignent le rôle essentiel joué par la figure du Dieu chrétien, conçu au XVII ème siècle comme un législateur tout-puissant, dans cette formulation des lois de la nature. La théologie et la science convergeaient alors. Leibniz a écrit : "...dans la moindre des substances, des yeux aussi perçants que ceux de Dieu pourraient lire toute la suite des choses de l’univers. Quae sint, quae fuerint, quae mox futura trahantur (qui sont, qui ont été, qui se produiront dans l’avenir)". La soumission de la nature à des lois déterministes rapprochait ainsi la connaissance humaine du point de vue divin atemporel. La conception d’une nature passive, soumise à des lois déterministes, est une spécificité de l’Occident. En Chine et au Japon, "nature" signifie "ce qui existe par soi-même ". Joseph Needham nous a rappelé l’ironie avec laquelle les lettrés chinois reçurent l’exposé des triomphes de la science moderne.

Remarque : Quant à l’idée qu’une nature passive serait une spécifié de l’Occident, tout dépend de quelle période de l’Occident on parle : l’étymologie grecque du mot physique (physis) par exemple suggère tout le contraire

Dans l’un des ses derniers livres, L’Univers Irrésolu, Karl Popper écrit : "Je considère le déterminisme laplacien - confirmé comme il semble l’être par le déterminisme des théories physiques, et par leur succès éclatant - comme l’obstacle le plus solide et plus sérieux sur le chemin d’une explication et d’une apologie de la liberté, de la créativité, et de la responsabilité humaines". Pour Popper, cependant, le déterminisme ne met pas seulement en cause la liberté humaine. Il rend impossible la rencontre de la réalité qui est la vocation même de notre connaissance : Popper écrit plus loin que la réalité du temps et du changement a toujours été pour lui "le fondement essentiel du réalisme". Dans "Le possible et le réel", Henri Bergson demande "A quoi sert le temps ?... le temps est ce qui empêche quc tout soit donné d’un seul coup. Il retarde, ou plutôt il est retardement. Il doit donc étre élaboration. Ne serait-il pas alors le véhicule de création et de choix ? L’existence du temps ne prouverait-elle pas qu’il y a de l’indétermination dans les choses ?". Pour Bergson comme pour Popper 1e réalisme et l’indéterminisme sont solidaires. Mais cette conviction se heurte au triomphe de la physique moderne, au fait que le plus fructueux et le plus rigoureux des dialogues que nous ayons mené avec nature aboutit à l’affirmation du déterminisme. L’opposition entre le temps réversible et déterministe de la physique et le temps des philosophes a mené à des conflits ouverts. Aujourd’hui, la tentation est plutôt celle d’un repli, qui se traduit par un scepticisme général quant à la signification de nos connaissances. Ainsi, la philosophie postmoderne prône la déconstruction. Rorty par exemple appelle à transformer les problèmes qui ont divisé notre tradition en sujets de conversation civilisée. Bien sûr, pour lui les controverses scientifiques, trop techniques n’ont pas de place dans cette conversation.

[...] Mais le conflit n’oppose pas seulement les sciences et la philosophie, Il oppose la physique à tous les autres savoirs. En octobre 1994 Scientific American a consacré un numéro spécial à "La vie dans l’univers". A tous les niveaux, que ce soit celui de la cosmologie, de la géologie, de la biologie ou de la société, le caractère évolutif de la réalité s’affirme de plus en plus. On s’attendrait donc à ce que la question soit posée : comment comprendre ce caractère évolutif dans le cadre des lois de la physique ? Or un seul article, écrit par le célèbre physicien Steven Weinberg, discute cet aspect. Weinberg écrit : "Quel que soit notre désir d’avoir une vision unifiée de la nature, nous ne cessons de nous heurter à la dualité du rôle de la vie intelligente dans l’univers... D’une part, il y a l’équation de Schrödinger, qui décrit de manière parfaitement déterministe comment la fonction d’onde de n’importe quel système évolue dans le temps. Et puis, d’une manière parfaitement indépendante, i1 y a un ensemble de principes qui nous disent comment utiliser la fonction d’onde pour calculer les probabilités des différents résultats possibles produits par nos mesures". "Nos mesures ?" Est-i1 donc suggéré que c’est nous par nos mesures, qui serions responsables de ce qui échappe au déterminisme universel, qui serions donc à l’origine de l’évolution cosmique ? C’est le point de vue que défend également Stephen Hawking dans "Une brève histoire du Temps". I1 y expose une interprétation purement géométrique de la cosmologie : le temps ne serait en quelque sorte qu’un accident de l’espace.

Dans The Emperor’s New Mind, Roger Penrose écrit que "c’est notre compréhension actuellement insuffisante des lois fondamentales de la physique qui nous empêche d’exprimer la notion d’esprit (mind) en termes physiques ou logiques". Je suis d’accord avec Penrose : nous avons besoin d’une nouvelle formulation des lois fondamentales de la physique, mais celle-ci ne doit pas nécessairement décrire la notion d’esprit, elle doit d’abord incorporer dans nos lois physiques la dimension évolutive sans laquelle nous sommes condamnés à une conception contradictoire de la réalité. Enraciner l’indéterminisme et l’asymétrie du temps dans les lois de la physique est la réponse que nous pouvons donner aujourd’hui au dilemme d’Épicure. Sinon, ces lois sont incomplètes, aussi incomplètes que si elles ignoraient la gravitation ou l’électricité.

13. R. Penrose, The Ernperor’s New Mind. Oxford, Oxford University Press, Vintage edition, 1990, p. 4-5.

Au début de ce chapitre, nous avons mentionné les penseurs présocratiques. En fait, les anciens grecs nous ont légué deux idéaux qui ont guidé notre histoire : celui d’intelligibilité de la nature ou, comme l’a écrit Whitehead, de "former un système d’idées générales qui soit nécessaire, logique, cohérent, et en fonction duquel tous les éléments de notre expérience puissent être interprétés" ; et celui de démocratie basée sur le présupposé de la liberté humaine, de la créativité et de la responsabilité. Nous sommes certes très loin de l’accomplissement de ces deux idéaux, du moins nous pouvons désorrnais conclure qu ïls ne sont pas contradictoires. (...)

La nature nous présente des processus irréversibles et des processus réversibles, mais les premiers sont la règle, et les seconds l’exception. Les processus macroscopiques, tels que réactions chimiques et phénomènes de transport, sont irréversibles. Le rayonnement solaire est le résultat de processus nucléaires irréversibles. Aucune description de l’écosphère ne serait possible sans les processus irréversibles innombrables qui s’y déroulent. Les processus réversibles, en revanche, correspondent toujours à des idéalisations : nous devons négliger la friction pour attribuer au pendule un comportement réversible, et cela ne vaut que comme une approximation. (...)

[...] Après plus d’un siècle, au cours duquel la Physique a connu d’extraordinaires mutations,1’interprétation de 1’irreversibilité comme approximation est présentée par la majorité des physiciens contemporains comme allant de soi. Qui plus est, le fait que nous serions alors responsables du caractère évolutif de 1’univers n’est pas explicité. Au contraire, une première étape du raisonnement qui doit mener le lecteur a accepter le fait que 1’irréversibilité n’est rien d’autre qu’une conséquence de nos approximations consiste toujours à présenter les conséquences du second principe comme évidentes, voire triviales. Voici par exemple comment Murray Gell-Mann s’exprime dans The Quark and the Jaguar [17] : "L’explication de 1’irréversibilité est qu’il y a plus de manières pour les clous ou les pièces de monnaie d’être mélangés que triés. I1 y a plus de manières pour les pots de beurre et de confiture d’être contaminés 1’un par 1’autre que de rester purs. Et il y a plus de manières pour les molécules d’un gaz d’oxygène et d’azote d’être mélangées que séparées. Dans la mesure où on laisse aller les choses au hasard, on peut prévoir qu’un système clos caractérisé par quelque ordre initial évoluera vers le désordre, qui offre tellement plus de possibilités. Comment ces possibilités doivent-elles être comptées ? Un système entièrement clos, décrit de manière exacte, peut se trouver dans un grand nombre d’états distincts, souvent appelés "microétats ". En mécanique quantique, ceux-ci sont les états quantiques possibles du système. Ils sont regroupés en catégories (parfois appelées macroétats) selon des propriétés établies par une description grossière (coarse grained). Les microétats correspondant à un macroétat donné sont traités comme équivalents, ce qui fait que seul compte leur nombre. " Et Gell-Man conclut : " L’entropie et 1’information sont étroitement liées. En fait, l’entropie peut être considérée comme une mesure de l’ignorance. Lorsque nous savons seulement qu’un systeme est dans un macroétat donné, l’entropie du macroétat mesure le degré d’ignorance à propos du microétat du système, en comptant le nombre de bits d’information additionnelle qui serait nécessaire pour le specifier, tous les microétats dans le macroétat étant considérés comme également probables". J’ai cité longuement Gell-Mann, mais le même genre de présentation de la flèche du temps figure dans la plupart des ouvrages. Or cette interprétation, qui implique que notre ignorance, le caractère grossier de nos descriptions, seraient responsables du second principe et dès lors de la flèche du temps, est intenable. Elle nous force à conclure que le monde paraîtrait parfaitement symétrique dans le temps à un observateur bien informé, comme le démon imaginé par Maxwell, capable d’observer les microétats. Nous serions les pères du temps et non les enfants de l’évolution. Mais comment expliquer alors que les propriétés dissipatives, comme les coefficients de diffusion ou les temps de relaxation, soient bien définis, quelle que soit la précision de nos expériences ? Comment expliquer le rôle constructif de la flèche du temps que nous avons évoqué plus haut ? (...)

[17]. M. Gell-Mann, The Quark and the Jaguar, Londres. Little Brown and Co, 1994, p. 218-220.

Remarque : quelle belle image... quel beau parfum de logique quasi raciste. Ce qui n’est pas pur est "contaminé"...

[...] Les développements récents de la physique et de la chimie de non équilibre montrent que la flèche du temps peut être une source d’ordre. Il en était déjà ainsi dans des cas classiques simples, comme la diffusion thermique. Bien sûr, les molécules mettons d’hydrogène et d’azote au sein d’une boite close, évolueront vers un mélange uniforme. Mais chauffons une partie de la boite et refroidissons l’autre. Le système évolue alors vers un état stationnaire dans lequel la concentration de l’hydrogène est plus élevée dans la partie chaude et celle de l’azote dans la partie froide. L’entropie produite par le flux de chaleur, qui est un phénomène irréversible, détruit l’homogénéité du mélange. C’est donc un processus générateur d’ordre, un processus qui serait impossible sans le flux de chaleur. L’irréversibilité mène à la fois au désordre et à l’ordre. (...°

Remarque : et même encore plus simples - merveilleusement simples - les "pots vibrants" utilisés dans l’industrie pour trier et mettre en ordre des pièces sont un autre example du fait qu’il suffit parfois d’injecter un peu d’énergie créer de l’ordre.

Retenons ici que nous pouvons affirmer aujourd’hui que c’est grâce aux processus irréversibles associés à la flèche du temps que la nature réalise ses structures les plus délicates et les plus complexes. La vie n’est possible que dans un univers loin de l’équilibre. Le développement remarquable de la physique et de la chimie de non-équilibre au cours de ces dernières décennies renforce donc les conclusions présentées dans La Nouvelle Alliance * : 1. Les processus irréversibles (associés à la flèche du temps) sont aussi réels que les processus réversibles décrits par les lois traditionnelles de la physique ; ils ne peuvent pas s’interpréter comme des approximations des lois fondamentales. 2. Les processus irréversibles jouent un rôle constructif dans la nature. 3. L’irréversibilité exige une extension de la dynamique. (...)

[*] I. Prigogine et I. Stengers, La Nouvelle Alliance, Paris, Gallimard, 1979

II y a deux siècles, Lagrange décrivait la mécanique analytique, où les lois du mouvement newtonien trouvaient leur formulation rigoureuse, comme une branche des mathématiques [18]. Aujourd’hui encore on parle souvent de "mécanique rationnelle", ce qui signifierait que les lois newtoniennes exprimeraient les lois de la "raison" et pourraient ainsi prétendre à une vérité immuable. Nous savons qu’il n’en est pas ainsi puisque ous avons vu naître la mécanique quantique et la relativité. Mais aujourd’hui c’est à la mécanique quantique que l’on est tenté d’attribuer une vérité absolue. Gell-Mann écrit dans The Quark and the Jaguar que "la mécanique quantique n’est pas, en elle-même une théorie ; c’est plutôt le cadre dans lequel doit entrer toute théorie physique contemporaine". En est-il vraiment ainsi ? Comme mon regretté ami LéonRosenfeld ne cessait de le souligner, toute théorie est fondée sur des concepts physiques associés à des idéalisations qui rendent possible la formulation mathématique de ces théories ; c’est pourquoi "aucun concept physique n’est suffisamment défini sans que soient connues les limites de sa validité", limites provenant des idéalisations mêmes qui le fondent. (....)

[18] J.-L. Lagrange, Théorie des fonctions analytiques, Paris, Imprimerie de la République 1796. [20] L. Rosenfeld, "Considérations non-philosophiques sur la causalité", in Les Théories de la Causalité, Paris, PUF, 1971, P137.

La différence entre systèmes stables et instables nous est familière. Prenons un pendule et étudions son mouvement en tenant compte de 1’existence d’une friction. Supposons-le d’abord immobile à l’équilibre. On sait que son énergie potentielle y presente une valeur minimale. Une petite perturbation sera suivie par un retour à 1’équilibre. L’état d’équilibre du pendule est stable. En revanche, si nous réussissons à faire tenir un crayon sur sa pointe,1’équilibre est instable. La moindre perturbation le fera tomber d’un côté ou de I’autre. I1 y a une distinction fondamentale entre les mouvements stables et instables. En bref, les systèmes dynamiques stables sont ceux ou de petites modifications des conditions initiales produisent de petits effets. Mais pour une classe très étendue de systèmes dynamiques, ces modifications s’amplifient au cours du temps. Les systèmes chaotiques sont un exemple extrême de systèmes instables car les trajectoires correspondant à des conditions initiales aussi proches que I’on veut divergent de maniere exponentielle au cours du temps. On parle alors de "sensibilité aux conditions initiales" telle que 1’illustre la parabole bien connue de "1’effet papillon" : le battement des ailes d’un papillon dans le bassin amazonien peut affecter le temps qu’il fera aux Etats-Unis. Nous verrons des exemples de systèmes chaotiques aux chapitres III et IV. On parle souvent de "chaos déterministe". En effet, les équations de systèmes chaotiques sont déterministes comme le sont les lois de Newton. Et pourtant elles engendrent des comportements d’allure aléatoire ! Cette découverte surprenante a renouvelé la dynamique classique, jusque là considérée comme un sujet clos.

[...]

A la fin du XIXème siècle seulement, Poincaré a montré que les problèmes sont fondamentalement différents selon qu’il s’agit d’un système dynamique stable ou non. Déjà le problème à trois corps [Le Soleil, la Terre et la Lune] entre dans la catégorie des systèmes instables. [...]

Au lieu de considérer un seul système, nous pouvons en étudier une collection, un "ensemble p", selon le terme utilisé depuis le travail pionnier de Gibbs et d’Einstein au début de ce siècle. Un ensemble est représenté par un nuage de points dans l’espace des phases. Ce nuage est décrit par une fonction ro(q,p,t) dont l’interprétation physique est simple : c’est la distribution de probabilité, qui décrit la densité des points du nuage au sein de l’espace des phases. Le cas particulier d’un seul système correspond alors à la situation où ro a une valeur nulle partout dans 1’espace des phases sauf en un point unique q0, p0. Ce cas correspond à une forme spéciale de ro : les fonctions qui ont la propriété de s’annuler partout sauf en un seul point noté x0 sont appelées "fonctions de Dirac" delta(x-x0). Une telle fonction delta(x-x0) est donc nulle pour tout point x différent de x0. Nous reviendrons sur les propriétés des fonctions delta par la suite. Soulignons d’ores et déjà qu’elles appartiennent à une classe de fonctions généralisées ou de distributions (à ne pas confondre avec les distributions de probabilité). Elles ont en effet des propriétés anormales par rapport aux fonctions régulières car lorsque x=x0, la fonction delta(x-x0) diverge, c’est-à-dire tend vers l’infini. Soulignons-le déjà, ce type de fonction ne peut être utilisé qu’en conjonction avec des fonctions régulières, les fonctions test phi(x). La nécessité d’introduire une fonction test jouera un rôle crucial dans l’extension de la dynamique que nous allons décrire. Bornons-nous à souligner l’inversion de perspective qui s’esquisse ici : alors que la description d’un système individuel semble intuitivement la situation première, elle devient, lorsqu’on part des ensembles, un cas particulier, impliquant l’introduction d’une fonction delta aux propriétes singulières.

(....)

Henri Poincaré fut tellement impressionné par ce succès de la théorie cinétique qu’il écrivit : "peut-être est-ce la théorie cinétique des gaz qui va prendre du développement et servir de modèles aux autres... La loi physique alors prendrait un aspect entièrement nouveau... elle prendrait le caractère d’une loi statistique" [21]. Nous le verrons, cet énoncé était prophétique. La notion de probabilité introduite empiriquement par Boltzmann a été un coup d’audace d’une très grande fécondité. Plus d’un siècle après, nous commençons à comprendre comment elle émerge de la dynamique à travers 1’instabilité : celle-ci détruit 1’équivalence entre le niveau individuel et le niveau statistique, si bien que les probabilités prennent alors une signification intrinsèque , irréductible à une interprétation en termes d’ignorance ou d’approximation. C’est ce que mon collègue B. Misra et moi avons souligné en introduisant l’expression "intrinsèquement aléatoire". (...)

[21] . H. Poincaré, La valeur de la science, Paris, Flammarion, 1913, p. 210.

[...] la distribution de probabilité nous permet d’incorporcr dans le cadre de la description dynamique la microstructure complexe de l’espace des phases. Elle contient donc une infonnation additionnelle, qui est perdue dans la description des trajectoires individuelles. Comme nous le verrons au chapitre IV, c’est un point fondamental : la description probabiliste est plus riche que la description individuelle, qui pourtant a toujours été considérée comme la description fondamentale. C’est la raison pour laquelle nous obtiendrons au niveau des distributions de probabilité ro une description dynamique nouvelle permettant de prédire l’évolution de l’ensemble. Nous pouvons ainsi obtenir les échelles de temps caractéristiques correspondant à l’approche des fonctions de distribution vers l’équilibre, ce qui est impossible au niveau des trajectoire individuelles. L’équivalence entre le niveau individuel et le niveau statistique est bel et bien détruite. Nous parvenons, pour les distributions de probabilité, à des solutions nouvelles irréductibles, au sens où elles ne s’appliquent pas aux trajectoires individuelles. Les "lois du chaos" associées à une description régulière et prédictive des systèmes chaotiques se situent au niveau statistique. C’est ce que nous entendions lorsque nous parlions à la section précédente d’une "généralisation de la dynamique". Il s’agit d’une formulation de la dynamique au niveau statistique qui n’a pas d’équivalent en termes de trajectoires. Cela nous conduit à une situation nouvelle. Les conditions initiales ne peuvent plus être assimilées à un point dans l’espace des phases, elles correspondent à une région décrite par une distribution de probabilité. Il s’agit donc d’une description non-locale. De plus, comme nous le verrons, la symétrie par rapport au temps est brisée car dans la fomulation statistique le passé et le futur jouent des rôles différents. Bien sûr, lorsque l’on considère des systèmes stables, la description statistique se réduit à la description usuelle. On pourrait se demander pourquoi il a fallu tellement de temps pour arriver à une formulation des lois de la nature qui inclue l’irréversibilité et les probabilités. L’une des raisons en est certainement d’ordre idéologique : c’est le désir d’accéder à un point de vue quasi divin sur la nature. Que devient le démon de Laplace dans le monde que décrivent les lois du chaos ? Le chaos déterministe nous apprend qu’il ne pourrait prédire le futur que s’il connaissait l’état du monde avec une précision infinie. Mais on peut désormais aller plus loin car il existe une forme d’instabilité dynamique encore plus forte, telle que les trajectoires sont détruites quelque soit la précision de la description. Ce type d’instabilité est d’une importance fondamentale puisqu ïl s’applique, comme nous le verrons, aussi bien à la dynamique classique qu’à la mécanique quantique. ll est central dans tout ce livre. Une fois de plus, notre point de départ est le travail fondamental d’Henri Poincaré à la fin du XIXème siècle [23]

Nous avons déjà vu que Poincaré avait établi une distinction fondamentale entre systèmes stables et systèmes instables. Mais il y a plus. Il a introduit la notion cruciale de "système dynamique non intégrable". Il a montré que la plupart des systèmes dynamiques étaicnt non intégrables. I1 s’agissait de prime abord d’un résultat négatif, longtemps considéré comme un simple problème de technique mathématique. Pourtant comme nous allons le voir, ce résultat exprime la condition sine qua non à toute possibilité d’articuler de manière cohérente le langage de la dynamique à ce monde en devenir qui est le nôtre. Qu’est-ce en effet qu’un système intégrable au sens de Poincaré ? Tout système dynamique pent être caractérisé par une énergie cinétique, qui dépend de la seule vitesse des corps qui le composent, et par une énergie potentielle, qui dépend de l’interaction entre ces corps, c’est-à-dire de leurs distances relatives. Un cas particulièrement simple est celui de particules libres, dénuées d’interactions mutuelles. Dans ce cas, il n y a pas d’énergie potentielle ct le calcul de la trajectoire devient trivial. Un tel système est intégrable au sens de Poincaré. On peut montrer que tout système dynamique intégrable peut être représenté comme s’il était constitué de corps dépourvus d’interactions. Nous reviendrons au chapitre V sur le formalisme hamiltonien qui permet ce type de transformation. Nous nous bornons ici à présenter la définition de 1’intégrabilité énoncée par Poincaré : un système dynamique intégrable est un système dont on peut définir les variables de telle sorte que l’énergie potentielle soit éliminée, c’est-à-dire de telle sorte que son comportement devienne isomorphe à celui d’un système de particules libres sans interaction. Poincaré a montré qu’en général de telles variables ne peuvent pas être obtenues. Des lors, en général, les systèmes dynamiques sont non intégrables. Si la démonstration de Poincaré avait conduit à un résultat différent, s’il avait pu montrer que tous les systèmes dynamiques étaient intégrables, jeter un pont entre le monde dynamique et le monde des processus que nous observons aurait été exclu. Dans un monde isomorphe à un ensemble de corps sans interaction, il n’y a pas de place pour la flèche du temps ni pour l’auto-organication, ni pour la vie. Mais Poincaré n’a pas seulement démontré que l’intégrabilité s’applique seulement à une classe réduite de systèmes dynamiques, il a identifié la raison du caractère exceptionnel de cette propriété : 1’existence de résonance entre les degrés de liberté du système. Il a, ce faisant, identifié le problème à partir duquel une formulation élargie de la dynamique devient possible. La notion de résonance caractérise un rapport entre des fréquences. Un exemple simple de fréquence est celui de l’oscillateur harmonique, qui décrit le comportement d’une particule liée à un centre par une force proportionnelle à la distance : si on écarte la particule du centre, elle oscillera avec une fréquence bien définie. Considérons maintenant le cas le plus familier d’oscillateur, celui du ressort qui, éloigné de sa position d’équilibre, vibre avec une fréquence caractéristique. Soumettons un tel ressort à une force extérieure, caractérisée elle aussi par une fréquence que nous pouvons faire varier. Nous observons alors un phénomène de couplage entre deux fréquences. La résonance se produit lorsque les deux fréquences, celle du ressort et celle de la force extérieure, correspondent à un rapport numérique simple (l’une des fréquences est égale à un multiple entier de l’autre). L’amplitude de la vibration du pendule augmente alors considérablement. Le même phénomène se produit en musique, lorsque nous jouons une note sur un instrument. Nous entendons les harmoniques. La résonance "couple" les sons. Les fréquences, et en particulier la question de leur résonance, sont au coeur de la description des systèmes dynamiques. Chacun des degrés de liberté d’un système dynamique est caractérisé par une fréquence. La valeur des différentes fréquences dépend en général du point de l’espace des phases. Considérons un système à deux degrés de liberté, caractérisé par les fréquences w1 et w2. Par définition, en chaque point de l’espace des phases où la somme n1w1+n1w2 s’annule pour des valeurs entières, non nulles de n1 et n2 nous avons résonance, car en un tel point n1/n2=-w2/w1. Or, le calcul de la trajectoire de tels systèmes fait intervenir des dénominateurs de type 1/(n1w1+n2w2), qui divergent donc aux points de résonance, ce qui rend le calcul impossible. C’est le problème des petits diviseurs, déjà souligné par Le Verrier. Ce que Poincaré a montré, c’est que les résonances et les dénominateurs dangereux qui leur correspondent constituaient un obstacle incontournable s’opposant à l’intégration de la plupart des systèmes dynamiques. Poincaré avait compris que son résultat menait à ce qu’il appela "le problème général de la dynamique", mais ce problème fut longtemps négligé. Max Born a écrit : "Il serait vraiment remarquable que la Nature ait trouvé le moyen de résister au progrès de la connaissance en ce cachant derrière le rempart des difficultés analytiques du problème à n-corps" [...]

[21] H. Poincaré, "La valeur de la Science", Paris Flammarion, 1913, P210 [22] B Mandelbrot, "The Fractal Geometry of Nature", San Francisco, J.Wiley, 1982 [23] H. Poincaré, "Les méthode nouvelles de la rnécanique", Paris, Gauthier-Villars 1893 (Dover 1957).

Remarque : c’est une demie explication car il resterait à savoir d’où vient le dit "point de vue divin". En fait, ce point de vue divin n’est pas celui de n’importe quelle religion. Par exemple, ce n’est pas celui du taoisme, ni du boudhisme, ni même de l’animisme. Le point de vue divin en question est le point de vue de dieux techniciens, soit Grecs, Hébreux ou dérivés [...]

Nous pouvons désormais aller au delà du résultat négatif de Poincaré et montrer que la non-intégrabilité ouvre, comme les systèmes chaotiques, la voie à une formulation statistique des lois de la dynamique. Page 47

J’ai toujours pensé que la science était un dialogue avec la nature. Comme dans tout dialogue véritable les réponses sont souvent être inattendues. (...)

Adolescent, j’étais fasciné par l’archéologie, la philosophie et la musique. [...] Les sujets qui intéressaient avait toujours été ceux où le temps jouait un rôle essentiel, que ce soit l’émergence des civilisations, les problèmes éthiques associés à la liberté humaine où l’organisation temporelle des sons en musique. Mais la menace de la guerre pesait et il semblait plus raisonnable que je me dirige vers une carrière dans les sciences "dures". C’est ainsi que j’entamai des études de Physique et de Chimie à l’Université libre de Bruxelles. Après tant d’années je ne peux pas me souvenir précisément de mes réactions, mais il me semble que j’ai ressorti étonnement et frustration. En physique, le temps était considéré comme un simple paramètre géométrique. Plus de cent ans avant Einstein et Minkowski, en 1796 déjà, Lagrange avait baptisé la dynamique "une géométrie à 4 dimensions". Einstein affirmait que le temps associé à l’irréversibilité était une illusion. Étant donné mes premiers intérêts, c’était une conclusion qu’il m’était impossible d’accepter, mais même aujourd’hui la tradition d’un temps spatialisé reste toujours vivante. (...)

Je ne suis certainement pas le premier à avoir senti que cette spatialisation du temps était incompatible tant avec l’univers évolutif que nous observons qu’avec notre expérience humaine. Ce fut d’ailleurs le point de départ du philosophe Henri Bergson, pour qui "le temps est invention où il n’est rien du tout". J’ai déjà cité l’article "le possible et le réel", une oeuvre assez tardive puisque l’article fut écrit en 1930 à l’occasion de son prix Nobel Bergson y parle du temps comme "jaillissement effectif de nouveauté imprévisible" dont témoigne notre expérience de la liberté humaine mais aussi de l’indétermination des choses. En conséquence, le possible est plus riche que le réel. L’univers autour de nous doit être compris à partir du possible , non à partir d’un quelconque état initial dont il pourrait, de quelque manière, être déduit. (...)

Remarque : et même probablement, comme somme, comme intégrale des possibles

Comme l’a écrit le grand physicien A.S. Eddington : "dans toute tentative pour construire un pont entre les domaines d’expériences qui appartiennent aux dimensions spirituelles et aux dimensions physiques, le temps occupant la position cruciale". (...)

Il me semblait que nier toute pertinence de la physique en ce qui concerne le temps était payer un prix trop élevé . Après tout, la science était un exemple unique de dialogue fructueux entre l’homme et la nature. N’était-ce pas parce que la science classique s’est cantonnée à l’étude de problèmes simples qu’elle a pu réduire le temps à un paramètre géométrique ? [...] Le temps ne serait-il pas une propriété émergente ? Mais il faut alors découvrir ses racines. Jamais la flèche du temps n’émergera d’un monde régi par des lois temporelles symétriques. J’ai acquis la conviction que irréversibilité macroscopique était l’expression d’un caractère aléatoire niveau microscopique. J’étais encore très loin des contributions résumées au chapitre précédent, où l’instabilité impose une reformulation des lois fondamentales classiques et quantiques, même au niveau microscopique. (...°

Pour la grande majorité des scientifiques, la thermodynamique devrait se limiter de manière stricte à l’équilibre. Pour eux, l’irréversibilité associée à un temps unidirectionnel était une hérésie. Lewis alla jusqu’à écrire : "nous allons voir que presque partout le physicien a purifié sa science de l’usage d’un temps unidirectionnel ... Étranger à idéal de la physique." (....)

Après mon exposé, le plus grand expert en la matière fit le commentaire suivant : "je suis étonné que ce jeune homme soit tellement intéressé par la physique de non équilibre. Les processus irréversibles sont transitoires. Pourquoi alors ne pas attendre et étudier l’équilibre comme tout le monde ?" J’ai été tellement étonné que je n’ai pas eu la présence d’esprit de lui répondre : "Mais nous aussi nous sommes des êtres transitoires. N’est il pas naturel de s’intéresser à notre condition humaine commune ?". J’ai ressenti toute ma visite l’hostilité que suscite chez les physiciens le temps unidirectionnel. [...] Partout autour de nous nous voyons l’émergence de structures, témoignage de la créativité de la nature pour utiliser le terme de Whitehead. J’étais persuadé que, d’une manière ou d’une autre, cette créativité était liée aux processus irréversibles.

(....)

Contrairement aux systèmes soit à l’équilibre soit proches de l’équilibre, les systèmes loin de l’équilibre ne conduisent plus à un extremum d’une fonction telles que l’énergie libre où la production d’entropie. En conséquence, il n’est plus certain que les fluctuations soient amorties. Il est seulement possible de formuler les conditions suffisantes de stabilité que nous avons baptisé "critère général d’évolution". Ce critère met en jeu le mécanisme des processus irréversibles dont le système est le siège. Alors que à l’équilibre et près de l’équilibre, les lois de la nature sont universelles, loin de l’équilibre elles deviennent spécifiques, elles dépendent du type de processus irréversibles. Cette observation est conforme à la variété des comportements de la matière que nous observons autour de nous. Loin de l’équilibre, la matière acquiert de nouvelles propriétés où les fluctuations, les instabilités jouent un rôle essentiel : la matière devient active. (....)

La thermodynamique permet de formuler les conditions nécessaires à l’apparition de structures dissipatives en Chimie. Elles sont de deux types : Les structures dissipatives se produisant dans des conditions éloignées de l’équilibre, il y a toujours une distance critique en deçà de laquelle la branche thermodynamique est stable. Les structures dissipatives impliquent l’existence d’étapes catalytiques. Cela signifie qu’il existe dans la chaîne des réactions chimiques une étape dans laquelle un produit intermédiaire Y est obtenu à partir d’un produit intermédiaire X alors que dans une autre étape X est produit et à partir de Y. Ces conditions, remarquons-le, sont satisfaites par tous les organismes vivants. Les enzymes, qui sont codées dans le matériel génétique, assurent une richesse et une multiplicité de réactions catalytiques sans équivalent dans le monde inorganique. Et sans elles, le matériel génétique resterait lettre morte.

(....)

La réaction de Belousov-Zhabotinski constitue un exemple spectaculaire d’oscillations chimiques qui se produisent en phase liquide loin de l’équilibre. Je ne décrirai pas ici cette réaction. Je veux seulement évoquer notre émerveillement lorsque nous vîmes cette solution réactive devenir bleue, puis rouge, puis bleue à nouveau... Aujourd’hui, bien d’autres réactions oscillantes sont connues, mais la réaction de Belousov-Zhabotinski garde une importance historique. Elle a été la preuve que la matière loin de l’équilibre acquiert bel et bien de nouvelles propriétés. Des milliards de molécules évoluent ensemble et cette cohérence se manifeste par le changement de couleur de la solution. Cela signifie que des corrélations à longue portée apparaissent dans des conditions de non équilibre, des corrélations qui existent pas à l’équilibre. Sur un mode métaphorique, on peut dire qu’à l’équilibre la matière est aveugle, alors que loin de l’équilibre elle commence à voir. Et cette nouvelle propriété, cette sensibilité de la matière à elle-même et à son environnement, est liée à la dissipation associée aux processus irréversibles. (...)

L’homogénéité du temps (comme dans les oscillations chimiques), ou de l’espace (comme dans les structures de Türing), ou encore de l’espace et du temps simultanément (comme dans les ondes chimiques) est brisée. De même, les structures dissipatives se différencient intrinsèquement de leur environnement. (...)

A propos des structures dissipatives, nous pouvons parler d’"auto organisation". Même si nous connaissons l’état initial du système, les processus donc il est le siège et les conditions aux limites, nous ne pouvons pas prévoir lequel des régimes d’activité ce système va choisir. Les bifurcations ne peuvent elles nous aider à comprendre l’innovation et la diversification dans d’autres domaines que la physique ou la chimie ? (...)

L’activité humaine, créative et innovante, n’est pas étrangère à la nature. On peut la considérer comme une amplification et une intensification de traits déjà présents dans le monde physique, et que la découverte des processus loin de l’équilibre nous a appris à déchiffrer. (....)

Rapport aux communautés européennes.

Dans un rapport récent aux Communautés européennes, C.K. Biebracher, G Nicolis et P. Schuster ont écrit : "Le maintien de l’organisation dans la nature n’est pas - et ne peut pas être - réalisé par une gestion centralisée, l’ordre ne peut être maintenu que par une auto-organisation. Les systèmes auto-organisateurs permettent l’adaptation aux circonstances environnementales ; par exemple, ils réagissent à des modifications de l’environnement grâce à une réponse thermodynamique qui les rend extraordinairement flexibles et robustes par rapport aux perturbations externes. Nous voulons souligner que la supériorité des systèmes auto-organisateurs par rapport à la technologie humaine habituelle qui évite soigneusement la complexité et gère de manière centralisée la grande majorité des processus techniques. Par exemple, en chimie synthétique les différentes étapes réactionnelles sont soigneusement séparées les unes des autres, et les contributions liées à la diffusion des réactifs sont évitées par brassage. Une technologie entièrement nouvelle devra être développée pour exploiter le grand potentiel d’idées et de règles des systèmes auto-organisateurs en matière de processus technologiques. La supériorité des systèmes auto-organisateurs est illustrée par les systèmes biologiques où des produits complexes sont formés avec une précision, une efficacité, une vitesse sans égale". La Fin des Certitudes

C.K. Biebracher, G Nicolis et P. Schuster , Self Organisation in the Physico-Chemical and Life sciences, Report EUR 16546, European Commission 1995.

La nature nous présente en effet l’image de la création, de l’imprévisible nouveauté. Notre univers a suivi un chemin de bifurcations successives : il aurait pu en suivre d’autres. Peut-être pouvons-nous en dire autant pour la vie de chacun d’entre nous. (...)

L’existence d’une flèche du temps n’est pas une question de convenance. C’est un fait imposé par l’observation. (...)

L’application de Bernouilli introduit dès le départ une direction privilégiée du temps. Si nous prenons l’application inverse, nous obtenons un point attracteur unique, vers lequel convergent toutes les trajectoires quelle que soit la condition initiale. Voici la symétrie du temps est déjà brisée au niveau de l’équation du mouvement. La notion trajectoire n’est un mode de représentation adéquat que si la trajectoire reste à peu près la même lorsque nous modifions légèrement les conditions initiales. Les questions que nous formulons en physique doivent recevoir une réponse robuste, qui résiste à l’à peu près. La description en termes de trajectoires n’a pas ce caractère robuste. C’est la signification de la sensibilité aux conditions initiales. Au contraire, la description statistique ne présente pas cette difficulté. C’est donc à ce niveau statistique que nous devons formuler les lois du chaos et c’est également à ce niveau que l’opérateur de Perron-Frobenius admet de nouvelles solutions.

(...)

Les systèmes non intégrables de Poincaré seront ici d’une importance considérable. Dans ce cas, la rupture entre la description individuelle (trajectoire ou fonction d’onde) et la description statistique sera encore plus spectaculaire. Avait comme nous le verrons, pour de tels systèmes, le démon de Laplace reste impuissant, quelle que soit sa connaissance, finie ou même infinie,. Le futur n’est plus donné. Il devient, comme l’avait prédit le poète Paul Valéry, "une construction".

(...)

La non-intégrabilité est due aux résonances. Or, les résonances expriment des conditions qui doivent être satisfaites par les fréquences : elles ne sont pas des événements locaux qui se produisent à un instant donné. Elles introduisent donc un élément étranger à la notion de trajectoire, qui correspond à une description locale d’espace temps.

(...)

La physique de l’équilibre nous a donc inspiré une fausse image de la matière. Nous retrouvons maintenant la signification dynamique de ce que nous avions constaté au niveau phénomène logique : la matière à l’équilibre est aveugle et, dans les situations de non équilibre, elle commence à voir.

(...)

C’est parce que, selon les termes d’Heisenberg, nous sommes à la fois "acteurs" et "spectateurs" que nous pouvons apprendre quelque chose de la nature. Cette communication, cependant, exige un temps commun. C’est ce temps commun qu’introduit notre approche tant en mécanique quantique que classique. [...) La direction du temps est commune à l’appareil de mesure et à l’observateur. Il n’est plus nécessaire d’introduire une référence spécifique à la mesure dans l’interprétation du formalisme. [...] Dans notre approche, l’observateur et ses mesures ne jouent plus un rôle actif dans l’évolution des systèmes quantiques, en tous cas, pas plus qu’en mécanique classique. Dans les deux cas nous transformons en action l’information que nous recevons du monde environnant. Mais ce rôle, s’il est important à l’échelle humaine, n’a rien à voir avec celui de démiurge que la théorie quantique traditionnelle assignait à l’homme, considéré comme responsable de l’actualisation des potentialités de la nature. En ce sens, notre approche restaure le sens commun. Elle élimine les traits anthropocentriques implicites dans la formulation traditionnelle de la théorie quantique.

(...)

La science est un dialogue avec la nature. Mais comment un tel dialogue est-il possible ? Un monde symétrique par rapport au temps serait un monde inconnaissable. Toute prise de mesure, préalable à la création de connaissance, présuppose la possibilité d’être affectés par le monde, que ce soit nous qui soyons affectés ou nos instruments. Mais la connaissance ne présuppose pas seulement un lien entre celui qui connait et ce qui est connu, elle exige que ce lien crée une différence entre passé et futur. La réalité du devenir est la condition sine qua non à notre dialogue avec la nature.

(...)

Comprendre la nature a été l’un des grands projets de la pensée occidentale. Il ne doit pas être identifié avec celui de contrôler la nature. Aveugle serait le maître qui croirait comprendre ses esclaves sous prétexte que ceux-ci obéissent à ses ordres. Bien sûr, lorsque nous nous adressons à la nature, nous savons qu’il ne s’agit pas de la comprendre à la manière dont nous comprenons un animal ou un homme. Mais là aussi la conviction de Nabokov s’applique : "ce qui peut être contrôlé n’est jamais tout à fait réel, ce qui est réel ne peut jamais être rigoureusement contrôlé."

(...)

Le déterminisme a des racines anciennes dans la pensée humaine, et il a été associé aussi bien à la sagesse, à la sérénité qu’au doute et au désespoir. La négation du temps, l’accès à une vision qui échapperait à la douleur du changement, est un enseignement mystique. Mais la réversibilité du changement n’avait, elle, été pensée par personne : "Aucune spéculation, aucun savoir n’a jamais affirmé l’équivalence entre ce qui se fait et ce qui se défait, entre une plante qui pousse, fleurit et meurt, et une plante qui ressuscite, rajeunit et retourne vers sa graine primitive, entre un homme qui mûrit et apprend, et un homme qui devient progressivement enfant, puis embryon, puis cellule." (...)

A quelque niveau que ce soit, la physique et les autres sciences confirment notre expérience de la réalité : nous vivons dans un univers en évolution. [...] La dernière forteresse qui résistait à cette affirmation vient de céder. Nous sommes maintenant en mesure de déchirer le message de l’évolution tel qu’il prend racine dans les lois fondamentales de la physique. Nous sommes désormais en mesure de déchiffrer sa signification en termes d’instabilité associée au chaos déterministe et à la non-intégrabilité. Le résultat de notre recherche est en effet l’identification de systèmes qui imposent une rupture de l’équivalence entre la description individuelle (trajectoires, fonctions d’onde) et la description statistique d’ensembles. Et c’est au niveau statistique que l’instabilité peut être incorporée dans les lois fondamentales. Les lois de la nature acquièrent alors une signification nouvelle : elle ne traitent plus de certitudes mais de possibilités. Elles affirment le devenir et non plus seulement l’être. Elles décrivent un monde de mouvements irréguliers, chaotiques, un monde plus proche de celui qu’imaginaient les atomiques anciens que des orbites newtoniennes.

Œuvres de Prigogine Ilya,

"L’homme devant l’incertain", coll. sciences, éd. Odile Jacob, 2001

"La fin des certitudes", coll. sciences, éd. Odile Jacob,1996

"Les lois du chaos", coll. Champs, éd. Flammarion, 1994

avec Stengers Isabelle, "Entre le temps et l’éternité", éd. Fayard,1988

avec Stengers Isabelle, "La Nouvelle Alliance. Métamorphose de la science", bibliothèque des sciences humaines, éd. Gallimard, 1979

"Physique, temps et devenir", éd. Masson, 1982

Jean Zin

Prigogine, Ilya

La famille d’llya Prigogine, né à Moscou le 25 janvier 1917, a émigré en 1921 en Allemagne, avant de s’installer à Bruxelles à partir de 1929. C’est dans cette ville qu’il a effectué ses études secondaires, avant d’y suivre les cours de l’Université Libre, et il a acquis la nationalité belge en 1949. De formation littéraire, et alors qu’il s’intéressait particulièrement à l’histoire, à l’archéologie et à la musique (son passe-temps favori a toujours été le piano), ce sont des circonstances fortuites qui l’ont finalement conduit à étudier la chimie et la physique, rejoignant ainsi la tradition familiale : son père, Roman Prigogine, était ingénieur chimiste diplômé de l’Ecole Polytechnique de Moscou, et son frère aîné Alexandre avait lui-même entrepris des études de chimie.

En 1941, Prigogine obtient son premier titre de docteur, et il commence en 1945 à préparer sa thèse d’agrégation sur "l’étude thermodynamique des phénomènes irréversibles", sujet qui l’a passionné sa vie durant. Deux professeurs ont exercé une influence durable sur l’orientation de ses recherches. Il s’agit d’abord de Théophile De Donder, disciple de l’école française de thermodynamique fondée par Pierre Duhem ; ensuite de Jean Timmermans, expérimentateur intéressé par les applications de la thermodynamique classique aux solutions liquides et aux systèmes complexes, sujet de prédilection de l’école thermodynamique néerlandaise de Van der Waals. Prigogine a donc consacré beaucoup de temps à l’étude théorique des phénomènes thermodynamiques ; c’est ainsi qu’il a appliqué les méthodes thermodynamiques à la théorie des solutions et à la théorie des états correspondant aux effets isotopiques en phases condensées.

Des diverses perspectives offertes par la thermodynamique, celle qui a le plus retenu l’attention d’llya Prigogine concerne l’étude des phénomènes irréversibles. Il a été à l’origine d’une véritable révolution en thermodynamique. Pour en montrer toute l’étendue, il est nécessaire d’évoquer brièvement les étapes importantes de l’histoire de cette discipline.

La thermodynamique est née de préoccupations techniques, comme on le voit avec les travaux de Sadi Carnot. Puis, grâce à l’apport de Clausius, elle a débouché sur des considérations physiques d’une généralité imprévue au départ. Selon ce dernier, le second principe de thermodynamique des phénomènes irréversibles s’exprime par l’inégalité ou, pour parler un langage plus actuel, par la production d’entropie positive. Or, depuis toujours, comme en témoignaient les ouvrages d’enseignement de la thermodynamique jusqu’à ces dernières années, les phénomènes irréversibles avaient mauvaise presse auprès des physico-chimistes et des ingénieurs, qui les considéraient comme des nuisances contrariant l’efficacité d’un rendement. Aussi l’attitude générale était-elle de limiter la thermodynamique à l’étude des systèmes pour lesquels la production d’entropie s’annulait, c’est-à-dire des systèmes évoluant irrémédiablement vers un état d’équilibre. Il faut rappeler ici que Boltzmann, en créant la mécanique statistique, avait tenté de concilier la mécanique et le problème posé par un système à x corps (x étant un nombre très grand). Il avait introduit le vocable d’entropie du "clair-obscur", l’accent étant mis tout naturellement sur les systèmes équilibrés considérés comme les seuls physiquement significatifs. La thermodynamique, devenue statistique, privilégiait l’état d’équilibre comme étape ultime de n’importe quel système. De Donder, l’un des maîtres de Prigogine, eut le grand mérite d’éclairer de façon nouvelle la production d’entropie en la rattachant à la vitesse de la réaction chimique par l’introduction d’une nouvelle fonction d’état qu’il appela l"’affinité", fondée sur le degré d’avancement de la réaction ; c’était une véritable variable chimique.

Comme Prigogine portait un grand intérêt au concept de temps, il était normal qu’il s’intéressât au second principe de thermodynamique, pressentant qu’il introduisait un élément original dans la description du monde physique en évolution. Il consacra dès lors la plus grande partie de ses recherches aux aspects macro- et microscopiques de ce principe, afin d’en étendre la portée à des situations nouvelles et de l’intégrer aux autres méthodes de la physique théorique comme la dynamique classique ou la dynamique quantique. Il fut amené en 1945 à proposer un théorème de production d’entropie minimum applicable aux états stationnaires de non-équilibre. Ce théorème rendait compte d’une manière directe de l’analogie entre la stabilité des états d’équilibre thermodynamique et celle des systèmes biologiques exprimée par le concept "d’homéostasie" de Claude Bernard.

Avec ses collaborateurs, Prigogine a appliqué son théorème à la discussion de quelques problèmes importants de biologie, en particulier l’énergétique de l’évolution embryologique. Il a montré que la plupart des états qualifiés d’équilibre ne sont en fait que des états stationnaires, et que dans un système matériel réel on a une pluralité d’états stationnaires en lieu et place de l’état d’équilibre unique qu’envisageait jusqu’alors la thermodynamique classique. En l’absence d’équilibre, la matière reste habitée de phénomènes de transport (énergie, matière) et de réactions chimiques, et cela d’autant plus facilement que les contraintes externes et internes appliquées au milieu sont plus fortes. Ce sont là des phénomènes que Prigogine nomme dissipatifs, et qui impriment un caractère irréversible à l’évolution d’un milieu, conception nouvelle que le XIXe siècle n’a pas su maîtriser. Tant que les contraintes sont faibles, les phénomènes dissipatifs le sont également et le milieu reste pratiquement homogène. Si les phénomènes dissipatifs s’accroissent, il en est de même pour les contraintes, et le système s’écarte de l’équilibre et parvient à un état marginal, véritable seuil d’instabilité ; le système présente alors un comportement périodique dans le temps (structure temporelle) ou une rupture spontanée de l’homogénéité spatiale (structure dissipative). Dès le seuil d’instabilité, les solutions stationnaires deviennent multiples, et seules certaines d’entre elles demeurent stables. Les premières observations expérimentales publiées des phénomènes oscillatoires, notamment en chimie, ont été plutôt rares. Mais, loin d’embarrasser le théoricien, elles lui fournissent une explication simple de l’accroissement de complexité offert par l’environnement humain, qu’il s’agisse de l’inanimé, du biologique ou du social. La notion d’instabilité, de chaos, d’amplification, est ainsi aujourd’hui au centre des préoccupations d’un nombre croissant de chercheurs dans des domaines allant des mathématiques à l’économie.

Cet exposé sera peut-être plus clair si l’on se rappelle l’exemple bien connu du "lundi noir de la bourse" du 19 octobre 1987. Si ce dernier est destiné à faire date dans l’histoire des sciences, ce n’est sans doute pas à cause des victimes qui ont alors vu fondre une partie de leurs avoirs, mais parce que les désordres financiers qui se sont produits ce jour-là illustrent bien, en termes économiques, des notions comme celles de chaos, de fluctuation ou d’amplification, auxquels la presse a, à cette occasion, ouvert un chemin vers le grand public.

Reste à préciser ce que l’on doit entendre par la notion "d’ordre par fluctuations" introduite par Prigogine. Il s’agit en fait de savoir comment s’amorce une structure dissipative lorsque le seuil d’instabilité est atteint. Les expériences réalisées dans le domaine des structures spatiales suggèrent un mécanisme du type "nucléation", c’est-à-dire que la structure naît au sein du milieu en un point à partir duquel elle se propage. A l’aide de cette théorie, Prigogine a été en mesure d’expliquer comment les phénomènes de nucléation peuvent apparaître à partir du seuil d’instabilité.

Il convient d’observer que parler de fluctuation, d’amplification, etc., n’est en somme qu’évoquer le côté négatif de l’instabilité des équilibres. Il existe également un côté positif concernant les systèmes instables soumis à des contraintes de non-équilibre qui sont susceptibles de produire des structures dont les systèmes à équilibre thermodynamique n’offrent pas d’équivalent. Prenons par exemple les phénomènes catalytiques, extrêmement importants dans l’industrie chimique : un cas simple est celui de l’oxydation du monoxyde de carbone en présence de platine. Les molécules de monoxyde viennent s’adsorber sur la surface du platine, dont il était admis que la structure était la même une fois pour toutes. Or on a montré que, par suite de la réaction catalytique (c’est-à-dire sous des conditions de non-équilibre), la surface du platine subit un changement : la structure hexagonale fait alors place à une structure carrée, ce qui a pour effet d’augmenter la vitesse de la réaction d’oxydation. Une fois interrompue l’action catalytique, la surface revient à sa configuration d’équilibre. Nous avons ici typiquement une structuration de non-équilibre, que l’on pourrait qualifier d’adaptation de la structure à sa fonction.

Ce qui est donc très important dans les travaux de l’Ecole de Bruxelles, c’est qu’ils permettent de percevoir les limites réductrices de la conception classique de l’univers, qui décrivait celui-ci comme une série d’assemblages d’entités stables données une fois pour toutes, qu’il s’agisse de particules élémentaires, d’atomes ou de molécules. Prigogine a montré qu’il existe des phénomènes globaux impossibles à analyser de la sorte. Voici ce qu’il écrivait en 1988 : "La meilleure compréhension des instabilités des systèmes écologiques et l’étude des perspectives d’avenir de notre planète sont évidemment des sujets prioritaires. Nous devons aller au-delà de l’idée de conservation, nous savons que notre planète a connu un optimum climatique voici une dizaine de milliers d’années, lorsque le Sahara abritait une civilisation florissante. Rien n’interdit de penser à un retour à de telles situations. Cette vision nouvelle de la nature change aussi la manière dont nous comprenons notre insertion dans cette nature (...). La science classique semblait devoir conduire au désenchantement, voire à l’aliénation (...). Mais la conclusion essentielle que je voudrais tirer de mes travaux, c’est que le XXe siècle apporte l’espoir d’une unité culturelle, d’une vision non-réductrice, plus globale. Les sciences ne reflètent pas l’identité statique d’une raison à laquelle il faudrait se soumettre ou résister,- elles participent à la création du sens au même titre que l’ensemble des pratiques humaines (...). L’un des enseignements fondamentaux que nous propose la science de notre siècle est que le temps n’est pas donné. Le temps est construction".

Extraits de "Entre le temps et l’éternité" de Prigogine et Stengers :

"La raison du chaos quantique est l’apparition des résonances. (...) Ces résonances, qui caractérisent l’ensemble des situations fondamentales de la mécanique quantique, correspondent à des interactions entre champs (c’est-à-dire aussi aux interactions matière-lumière). On peut affirmer que notre accès au monde quantique a pour condition l’existence des systèmes chaotiques quantiques. (...)

« Nous avons surtout souligné les dimensions négatives du chaos dynamique, la nécessité qu’il implique d’abandonner les notions de trajectoire et de déterminisme. Mais l’étude des systèmes chaotiques est également une ouverture ; elle crée la nécessité de construire de nouveaux concepts, de nouveaux langages théoriques. Le langage classique de la dynamique implique les notions de points et de trajectoires, et, jusqu’à présent, nous-mêmes y avons eu recours alors même que nous montrions l’idéalisation – dans ce cas illégitime – dont elles procèdent. Le problème est maintenant de transformer ce langage, de sorte qu’il intègre de manière rigoureuse et cohérente les contraintes que nous venons de reconnaître. Il ne suffit pas, en effet, d’exprimer le caractère fini de la définition d’un système dynamique en décrivant l’état initial de ce système par une région de l’espace des phases, et non par un point. Car une telle région, soumise à l’évolution que définit la dynamique classique, aura beau se fragmenter au cours du temps, elle conservera son volume dans l’espace des phases. C’est ce qu’exprime un théorème général de la dynamique, le théorème de Liouville. Toutes les tentatives de construire une fonction entropie, décrivant l’évolution d’un ensemble de trajectoires dans l’espace des phases, se sont heurtées au théorème de Liouville, au fait que l’évolution d’un tel ensemble ne peut être décrite par une fonction qui croîtrait au cours du temps. Or, un argument simple permet de montrer l’incompatibilité, dans le cas d’un système chaotique, entre le théorème de Liouville et la contrainte selon laquelle toute description définit le « pouvoir de résolution » de nos descriptions ; il existera toujours une distance r telle que nous ne pourrons faire de différence entre des points plus proches l’un de l’autre (…) La nouvelle description des systèmes dynamiques chaotiques substitue au point un ensemble correspondant à un fragment de fibre contractante. Il s’agit d’une description non locale, qui tient compte de la contrainte d’indiscernabilité que nous avons définie. Mais cette description n’est pas relative à notre ignorance. Elle donne un sens intrinsèque au caractère fini de nos descriptions : dans le cas où le système n’est pas chaotique, où l’exposant de Lyapounov est de valeur nulle, nous retrouvons la représentation classique, ponctuelle, et les limites mises à la précision de nos mesures n’affectent plus la représentation du système dynamique. Cette nouvelle représentation brise également la symétrie temporelle. (…) Là où une seule équation d’évolution permettait de calculer l’évolution vers le passé ou vers le futur de points eux-mêmes indifférents à cette distinction, nous avons maintenant deux équations d’évolution différentes. L’une décrirait l’évolution d’un système vers un équilibre situé dans le futur, l’autre décrirait l’évolution d’un système vers un équilibre situé dans le passé. L’un des grands problèmes de l’interprétation probabiliste de l’évolution vers l’équilibre était que la représentation probabiliste ne donne pas sens à la distinction entre passé et futur. (…) La nouvelle description dynamique que nous avons construite incorpore, en revanche, la flèche du temps (…) Les comportements dynamiques chaotiques permettent de construire ce pont, que Boltzmann n’avait pu créer, entre la dynamique et le monde des processus irréversibles. La nouvelle représentation de l’objet dynamique, non locale et à symétrie temporelle brisée, n’est pas une description approximative, plus pauvre que la représentation classique. Elle définit au contraire cette représentation classique comme relative à un cas particulier. (…) Nous savons aujourd’hui que ces derniers (les systèmes non-chaotiques), qui dominèrent si longtemps l’imagination des physiciens, forment en fait une classe très particulière. (…) C’est en 1892, avec la découverte d’un théorème fondamental par Poincaré ( la loi des trois corps), que se brisa l’image homogène du comportement dynamique : la plupart des systèmes dynamiques, à commencer par le simple système « à trois corps » ne sont pas intégrables. Comment comprendre cet énoncé ? Depuis les travaux de Hamilton, on sait qu’un même système dynamique peut être représenté de différentes manières équivalentes par une transformation dite canonique (ou unitaire) (…) L’hamiltonien du système est la grandeur qui détermine son évolution temporelle. Parmi toutes les transformations unitaires, il en existe une qui permet d’aboutir à une représentation privilégiée du système. C’est celle qui fait de l’énergie, c’est-à-dire de l’hamiltonien, une fonction des seuls moments, et non plus des positions. Dans une telle représentation, les mouvements des différentes particules du système sont décrits comme s’ils ne dépendaient plus des positions relatives des particules, c’est-à-dire comme si elles n’étaient plus en interaction. (…) Les mouvements possibles de tels systèmes ont donc la simplicité des mouvements libres. (…) Or, en 1892, Poincaré montra qu’en général il est impossible de définir la transformation unitaire qui ferait des « actions » des invariants du système. La plupart des systèmes dynamiques n’admettent pas d’invariants en dehors de l’énergie et de la quantité de mouvement, et dès lors ne sont pas intégrables. La raison de l’impossibilité de définir les invariants du mouvement qui correspondent à la représentation d’un système dynamique intégrable tient à un mécanisme de résonance. (…) Le mécanisme de résonance peut être caractérisé comme un transfert d’énergie entre deux mouvements périodiques couplés dont les fréquences sont entre elles dans un rapport simple. Ce sont ces phénomènes de résonance – mais, cette fois, entre les différents degrés de liberté qui caractérisent un même système dynamique – qui empêchent que ce système soit mis sous une forme intégrable. La résonance la plus simple entre les fréquences se produit quand ces fréquences sont égales, mais elle se produit aussi à chaque fois que les fréquences sont commensurables, c’est-à-dire chaque fois qu’elles ont entre elles un rapport rationnel. Le problème se complique du fait que de manière générale les fréquences ne sont pas constantes. (…) Ce qui fait que, dans l’espace des phases d’un système dynamique, il y aura des points caractérisés par une résonance, alors que d’autres ne le seront pas. L’existence des points de résonance interdit en général la représentation en termes de variables cycliques, c’est-à-dire une décomposition du mouvement en mouvements périodiques indépendants. Les points de résonance, c’est-à-dire les points auxquels les fréquences ont entre elles un rapport rationnel, sont rares, comme sont rares les nombres rationnels par rapport aux nombres irrationnels. Dès lors, presque partout dans l’espace des phases, nous aurons des comportements périodiques de type habituel. Néanmoins, les points de résonance existent dans tout le volume fini de l’espace des phases. D’où le caractère effroyablement compliqué de l’image des systèmes dynamiques telle qu’elle nous a été révélée par la dynamique moderne initiée par Poincaré et poursuivie par les travaux de Kolmogoroff, Arnold et Moser. Si les systèmes dynamiques étaient intégrables, la dynamique ne pourrait nous livrer qu’une image statique du monde, image dont le mouvement du pendule ou de la planète sur sa trajectoire képlérienne constituerait le prototype. Cependant l’existence des résonances dans les systèmes dynamiques à plus de deux corps ne suffit pas pour transformer cette image et la rendre cohérente avec les processus évolutifs étudiés précédemment. Lorsque le volume reste petit, ce sont toujours les comportements périodiques qui dominent. (…) Cependant, pour les grands systèmes, la situation s’inverse. Les résonances s’accumulent dans l’espace des phases, elles se produisent désormais non plus en tout point rationnel, mais en tout point réel. (…) Dès lors, les comportements non périodiques dominent, comme c’est le cas dans les systèmes chaotiques. (…) Dans le cas d’un système de sphères dures en collision, Sinaï a pu démontrer l’identité entre comportement cinétique et chaotique, et définir la relation entre une grandeur cinétique comme le temps de relaxation (temps moyen entre deux collisions) et le temps de Lyapounov qui caractérise l’horizon temporel des systèmes chaotiques. (…) Or, l’atome en interaction avec son champ constitue un « grand système quantique » auquel, nous l’avons démontré, le théorème de Poincaré peut être étendu. (…) La « catastrophe » de Poincaré se répète dans ce cas : contrairement à ce que présupposait la représentation quantique usuelle, les systèmes caractérisés par l’existence de telles résonances ne peuvent être décrits en termes de superposition de fonctions propres de l’opérateur hamiltonien, c’est-à-dire d’invariants du mouvement. Les systèmes quantiques caractérisés par des temps de vie moyens, ou par des comportements correspondants à des « collisions », constituent donc la forme quantique des systèmes dynamiques au comportement chaotique (…) L’abandon du modèle des systèmes intégrables a des conséquences aussi radicales en mécanique quantique qu’en mécanique classique. Dans ce dernier cas, il impliquait l’abandon de la notion de point et de loi d’évolution réversible qui lui correspond. Dans le second, il implique l’abandon de la fonction d’onde et de son évolution réversible dans l’espace de Hilbert. Dans les deux cas, cet abandon a la même signification : il nous permet de déchiffrer le message de l’entropie. (…) La collision, transfert de quantité de mouvement et d’énergie cinétique entre deux particules, constitue, du point de vue dynamique, un exemple de résonance. Or, c’est l’existence des points de résonance qui, on le sait depuis Poincaré, empêche de définir la plupart des systèmes dynamiques comme intégrables. La théorie cinétique, qui correspond au cas d’un grand système dynamique ayant des points de résonance « presque partout » dans l’espace des phases , marque donc la transformation de la notion de résonance : celle-ci cesse d’être un obstacle à la description en termes de trajectoires déterministes et prédictibles, pour devenir un nouveau principe de description, intrinsèquement irréversible et probabiliste. C’est cette notion de résonance que nous avons retrouvée au cœur de la mécanique quantique, puisque c’est elle qu’utilisa Dirac pour expliquer les événements qui ouvrent un accès expérimental à l’atome, l’émission et l’absorption de photons d’énergie spécifique, dont le spectre constitue la véritable signature de chaque type d’atome. (…) Le temps de vie, qui caractérise de manière intrinsèque un niveau excité, dépend, dans le formalisme actuel de la mécanique quantique, d’une approximation et perd son sens si le calcul est poussé plus loin. Dès lors, la mécanique quantique a dû reconnaître l’événement sans pouvoir lui donner de sens objectif. C’est pourquoi elle a pu paraître mettre en question la réalité même du monde observable qu’elle devait rendre intelligible. (…) Pour expliquer les transitions électroniques spontanées qui confèrent à tout état excité un temps de vie fini, Dirac avait dû faire l’hypothèse d’un champ induit par l’atome et entrant en résonance avec lui. Le système fini que représente l’atome isolé n’est donc qu’une abstraction. L’atome en interaction avec son champ est, lui, un « grand système quantique », et c’est à son niveau que se produit la « catastrophe de Poincaré ». L’atome en interaction avec le champ qu’il induit ne constitue pas, en effet, un système intégrable et ne peut donc pas plus être représenté par l’évolution de fonction d’onde qu’un système classique caractérisé par des points de résonance ne peut être caractérisé par une trajectoire. C’est là la faille que recélait l’édifice impressionnant de la mécanique quantique. (…) Il est significatif que, partout, nous ayons rencontré la notion de « brisement de symétrie ». Cette notion implique une référence apparemment indépassable à la symétrie affirmée par les lois fondamentales qui constituent l’héritage de la physique. Et, en effet, dans un premier temps, ce sont ces lois qui ont guidé notre recherche. (…) La description à symétrie temporelle brisée permet de comprendre la symétrie elle-même comme relative à la particularité des objets autrefois privilégiés par la physique, c’est-à-dire de situer leur particularité au sein d’une théorie plus générale. »

Structures dissipatives loin de l’équilibre

Ilya Prigogine

« Loin de l’équilibre, les processus irréversibles sont source de cohérence. L’apparition de cette activité cohérente de la matière – des « structures dissipatives » - nous impose un nouveau regard, une nouvelle manière de nous situer par rapport au système que nous définissons et manipulons. Alors qu’à l’équilibre et près de l’équilibre, le comportement du système est, pour des temps suffisamment longs, entièrement déterminé par les conditions aux limites, nous devrons désormais lui reconnaître une certaine autonomie qui permet de parler des structures loin de l’équilibre comme de phénomènes d’ « auto-organisation ». (…) Un système physico-chimique peut donc devenir sensible, loin de l’équilibre, à des facteurs négligeables près de l’équilibre. (…) La notion de « sensibilité » lie ce que les physiciens avaient l’habitude de séparer : la définition du système et son activité. (…) C’est l’activité intrinsèque du système qui détermine comment nous devons décrire son rapport à l’environnement, qui engendre donc le type d’intelligibilité qui sera pertinente pour comprendre ses histoires possibles. (…) On retrouve la notion de sensibilité associée à celle d’instabilité, puisqu’il s’agit, dans ce cas, de la sensibilité du système à lui-même, aux fluctuations de sa propre activité. (…) Nous pouvons décrire un système à l’équilibre à partir des seules valeurs moyennes des grandeurs qui le caractérisent, parce que l’état d’équilibre est stable par rapport aux incessantes fluctuations qui perturbent ces valeurs, parce que ces fluctuations sont vouées à la régression. (…) Le fait que tel ou tel événement puisse « prendre sens », cesser d’être un simple bruit dans le tumulte insensé de l’activité microscopique, introduit en physique cet élément narratif dont nous avons dit qu’il était indispensable à une véritable conception de l’évolution. (…) ces questions ne renvoient ne renvoient pas à une ignorance contingente et surmontable, mais définissent la singularité des points de bifurcation. En ces points, le comportement du système devient instable et peut évoluer vers plusieurs régimes de fonctionnement stables. En de tels points, une « meilleure connaissance » ne nous permettrait pas de déduire ce qui arrivera, de substituer la certitude aux probabilités. (…) La physique des phénomènes loin de l’équilibre a démontré le rôle constructif des phénomènes irréversibles. Nous pouvons désormais affirmer que le message de l’entropie n’a pas pour objet les limites de nos connaissances, ou des impératifs pratiques. (…) Il définit les contraintes intrinsèques à partir desquelles se renouvellent le sens et la portée des questions que ce monde nous autorise à poser. (…) Nous avons surtout souligné les dimensions négatives du chaos dynamique, la nécessité qu’il implique d’abandonner les notions de trajectoire et de déterminisme. Mais l’étude des systèmes chaotiques est également une ouverture ; elle crée la nécessité de construire de nouveaux concepts, de nouveaux langages théoriques. Le langage classique de la dynamique implique les notions de points et de trajectoires, et, jusqu’à présent, nous-mêmes y avons eu recours alors même que nous montrions l’idéalisation – dans ce cas illégitime – dont elles procèdent. Le problème est maintenant de transformer ce langage, de sorte qu’il intègre de manière rigoureuse et cohérente les contraintes que nous venons de reconnaître. Il ne suffit pas, en effet, d’exprimer le caractère fini de la définition d’un système dynamique en décrivant l’état initial de ce système par une région de l’espace des phases, et non par un point. Car une telle région, soumise à l’évolution que définit la dynamique classique, aura beau se fragmenter au cours du temps, elle conservera son volume dans l’espace des phases. C’est ce qu’exprime un théorème général de la dynamique, le théorème de Liouville. Toutes les tentatives de construire une fonction entropie, décrivant l’évolution d’un ensemble de trajectoires dans l’espace des phases, se sont heurtées au théorème de Liouville, au fait que l’évolution d’un tel ensemble ne peut être décrite par une fonction qui croîtrait au cours du temps. Or, un argument simple permet de montrer l’incompatibilité, dans le cas d’un système chaotique, entre le théorème de Liouville et la contrainte selon laquelle toute description définit le « pouvoir de résolution » de nos descriptions ; il existera toujours une distance r telle que nous ne pourrons faire de différence entre des points plus proches l’un de l’autre (…) La nouvelle description des systèmes dynamiques chaotiques substitue au point un ensemble correspondant à un fragment de fibre contractante. Il s’agit d’une description non locale, qui tient compte de la contrainte d’indiscernabilité que nous avons définie. Mais cette description n’est pas relative à notre ignorance. Elle donne un sens intrinsèque au caractère fini de nos descriptions : dans le cas où le système n’est pas chaotique, où l’exposant de Lyapounov est de valeur nulle, nous retrouvons la représentation classique, ponctuelle, et les limites mises à la précision de nos mesures n’affectent plus la représentation du système dynamique. Cette nouvelle représentation brise également la symétrie temporelle. (…) Là où une seule équation d’évolution permettait de calculer l’évolution vers le passé ou vers le futur de points eux-mêmes indifférents à cette distinction, nous avons maintenant deux équations d’évolution différentes. L’une décrirait l’évolution d’un système vers un équilibre situé dans le futur, l’autre décrirait l’évolution d’un système vers un équilibre situé dans le passé. L’un des grands problèmes de l’interprétation probabiliste de l’évolution vers l’équilibre était que la représentation probabiliste ne donne pas sens à la distinction entre passé et futur. (…) La nouvelle description dynamique que nous avons construite incorpore, en revanche, la flèche du temps (…) Les comportements dynamiques chaotiques permettent de construire ce pont, que Boltzmann n’avait pu créer, entre la dynamique et le monde des processus irréversibles. La nouvelle représentation de l’objet dynamique, non locale et à symétrie temporelle brisée, n’est pas une description approximative, plus pauvre que la représentation classique. Elle définit au contraire cette représentation classique comme relative à un cas particulier. (…) Nous savons aujourd’hui que ces derniers (les systèmes non-chaotiques), qui dominèrent si longtemps l’imagination des physiciens, forment en fait une classe très particulière. (…) C’est en 1892, avec la découverte d’un théorème fondamental par Poincaré ( la loi des trois corps), que se brisa l’image homogène du comportement dynamique : la plupart des systèmes dynamiques, à commencer par le simple système « à trois corps » ne sont pas intégrables. Comment comprendre cet énoncé ? Depuis les travaux de Hamilton, on sait qu’un même système dynamique peut être représenté de différentes manières équivalentes par une transformation dite canonique (ou unitaire) (…) L’hamiltonien du système est la grandeur qui détermine son évolution temporelle. Parmi toutes les transformations unitaires, il en existe une qui permet d’aboutir à une représentation privilégiée du système. C’est celle qui fait de l’énergie, c’est-à-dire de l’hamiltonien, une fonction des seuls moments, et non plus des positions. Dans une telle représentation, les mouvements des différentes particules du système sont décrits comme s’ils ne dépendaient plus des positions relatives des particules, c’est-à-dire comme si elles n’étaient plus en interaction. (…) Les mouvements possibles de tels systèmes ont donc la simplicité des mouvements libres. (…) Or, en 1892, Poincaré montra qu’en général il est impossible de définir la transformation unitaire qui ferait des « actions » des invariants du système. La plupart des systèmes dynamiques n’admettent pas d’invariants en dehors de l’énergie et de la quantité de mouvement, et dès lors ne sont pas intégrables. La raison de l’impossibilité de définir les invariants du mouvement qui correspondent à la représentation d’un système dynamique intégrable tient à un mécanisme de résonance. (…) Le mécanisme de résonance peut être caractérisé comme un transfert d’énergie entre deux mouvements périodiques couplés dont les fréquences sont entre elles dans un rapport simple. Ce sont ces phénomènes de résonance – mais, cette fois, entre les différents degrés de liberté qui caractérisent un même système dynamique – qui empêchent que ce système soit mis sous une forme intégrable. La résonance la plus simple entre les fréquences se produit quand ces fréquences sont égales, mais elle se produit aussi à chaque fois que les fréquences sont commensurables, c’est-à-dire chaque fois qu’elles ont entre elles un rapport rationnel. Le problème se complique du fait que de manière générale les fréquences ne sont pas constantes. (…) Ce qui fait que, dans l’espace des phases d’un système dynamique, il y aura des points caractérisés par une résonance, alors que d’autres ne le seront pas. L’existence des points de résonance interdit en général la représentation en termes de variables cycliques, c’est-à-dire une décomposition du mouvement en mouvements périodiques indépendants. Les points de résonance, c’est-à-dire les points auxquels les fréquences ont entre elles un rapport rationnel, sont rares, comme sont rares les nombres rationnels par rapport aux nombres irrationnels. Dès lors, presque partout dans l’espace des phases, nous aurons des comportements périodiques de type habituel. Néanmoins, les points de résonance existent dans tout le volume fini de l’espace des phases. D’où le caractère effroyablement compliqué de l’image des systèmes dynamiques telle qu’elle nous a été révélée par la dynamique moderne initiée par Poincaré et poursuivie par les travaux de Kolmogoroff, Arnold et Moser. Si les systèmes dynamiques étaient intégrables, la dynamique ne pourrait nous livrer qu’une image statique du monde, image dont le mouvement du pendule ou de la planète sur sa trajectoire képlérienne constituerait le prototype. Cependant l’existence des résonances dans les systèmes dynamiques à plus de deux corps ne suffit pas pour transformer cette image et la rendre cohérente avec les processus évolutifs étudiés précédemment. Lorsque le volume reste petit, ce sont toujours les comportements périodiques qui dominent. (…) Cependant, pour les grands systèmes, la situation s’inverse. Les résonances s’accumulent dans l’espace des phases, elles se produisent désormais non plus en tout point rationnel, mais en tout point réel. (…) Dès lors, les comportements non périodiques dominent, comme c’est le cas dans les systèmes chaotiques. (…) Dans le cas d’un système de sphères dures en collision, Sinaï a pu démontrer l’identité entre comportement cinétique et chaotique, et définir la relation entre une grandeur cinétique comme le temps de relaxation (temps moyen entre deux collisions) et le temps de Lyapounov qui caractérise l’horizon temporel des systèmes chaotiques. (…) Or, l’atome en interaction avec son champ constitue un « grand système quantique » auquel, nous l’avons démontré, le théorème de Poincaré peut être étendu. (…) La « catastrophe » de Poincaré se répète dans ce cas : contrairement à ce que présupposait la représentation quantique usuelle, les systèmes caractérisés par l’existence de telles résonances ne peuvent être décrits en termes de superposition de fonctions propres de l’opérateur hamiltonien, c’est-à-dire d’invariants du mouvement. Les systèmes quantiques caractérisés par des temps de vie moyens, ou par des comportements correspondants à des « collisions », constituent donc la forme quantique des systèmes dynamiques au comportement chaotique (…) L’abandon du modèle des systèmes intégrables a des conséquences aussi radicales en mécanique quantique qu’en mécanique classique. Dans ce dernier cas, il impliquait l’abandon de la notion de point et de loi d’évolution réversible qui lui correspond. Dans le second, il implique l’abandon de la fonction d’onde et de son évolution réversible dans l’espace de Hilbert. Dans les deux cas, cet abandon a la même signification : il nous permet de déchiffrer le message de l’entropie. (…) La collision, transfert de quantité de mouvement et d’énergie cinétique entre deux particules, constitue, du point de vue dynamique, un exemple de résonance. Or, c’est l’existence des points de résonance qui, on le sait depuis Poincaré, empêche de définir la plupart des systèmes dynamiques comme intégrables. La théorie cinétique, qui correspond au cas d’un grand système dynamique ayant des points de résonance « presque partout » dans l’espace des phases , marque donc la transformation de la notion de résonance : celle-ci cesse d’être un obstacle à la description en termes de trajectoires déterministes et prédictibles, pour devenir un nouveau principe de description, intrinsèquement irréversible et probabiliste. C’est cette notion de résonance que nous avons retrouvée au cœur de la mécanique quantique, puisque c’est elle qu’utilisa Dirac pour expliquer les événements qui ouvrent un accès expérimental à l’atome, l’émission et l’absorption de photons d’énergie spécifique, dont le spectre constitue la véritable signature de chaque type d’atome. (…) Le temps de vie, qui caractérise de manière intrinsèque un niveau excité, dépend, dans le formalisme actuel de la mécanique quantique, d’une approximation et perd son sens si le calcul est poussé plus loin. Dès lors, la mécanique quantique a dû reconnaître l’événement sans pouvoir lui donner de sens objectif. C’est pourquoi elle a pu paraître mettre en question la réalité même du monde observable qu’elle devait rendre intelligible. (…) Pour expliquer les transitions électroniques spontanées qui confèrent à tout état excité un temps de vie fini, Dirac avait dû faire l’hypothèse d’un champ induit par l’atome et entrant en résonance avec lui. Le système fini que représente l’atome isolé n’est donc qu’une abstraction. L’atome en interaction avec son champ est, lui, un « grand système quantique », et c’est à son niveau que se produit la « catastrophe de Poincaré ». L’atome en interaction avec le champ qu’il induit ne constitue pas, en effet, un système intégrable et ne peut donc pas plus être représenté par l’évolution de fonction d’onde qu’un système classique caractérisé par des points de résonance ne peut être caractérisé par une trajectoire. C’est là la faille que recélait l’édifice impressionnant de la mécanique quantique. (…) Il est significatif que, partout, nous ayons rencontré la notion de « brisement de symétrie ». Cette notion implique une référence apparemment indépassable à la symétrie affirmée par les lois fondamentales qui constituent l’héritage de la physique. Et, en effet, dans un premier temps, ce sont ces lois qui ont guidé notre recherche. (…) La description à symétrie temporelle brisée permet de comprendre la symétrie elle-même comme relative à la particularité des objets autrefois privilégiés par la physique, c’est-à-dire de situer leur particularité au sein d’une théorie plus générale. »

Extrait de « Le temps et l’éternité » d’Ilya Prigogine et Isabelle Stengers

Encore sur les idées d’Ilya Prigogine

Autobiography, in english

La fin des certitudes

Temps à devenir

Is Future Given

L’ordre par fluctuations

Ainsi parle Ilya Prigogine (film) D’autres films sur Ilya Prigogine

Un commentaire sur la pensée d’Ilya Prigogine

The end of certainty

Chaos, the new science

Chaotic Dynamics and Transport in Fluids and Plasmas

Las leyes del caos

6 Messages de forum

  • Les idées d’Ilya Prigogine 8 décembre 2009 17:46, par Robert Paris

    Lu sur internet :

    Les structures dissipatives

    Introduisons deux gaz dans des contenants fermés reliés par un conduit. Ces gaz se mélangeront, comme l’eau versée dans un récipient finit par se stabiliser. Alors que la science classique voyait dans ces phénomènes le signe d’une évolution vers le désordre , Prigogine observe qu’en amenant certains systèmes chimiques loin de l’équilibre (en les chauffant), apparaissent des configurations inédites qui se maintiennent tant que le système est agité. Ce sont les « structures dissipatives », ainsi dénommées parce qu’elles consomment, ou « dissipent », l’énergie reçue. Les cas les plus spectaculaires rapportés par Prigogine sont l’instabilité de Bénard, une couche liquide chauffée qui finit par former des tourbillons générant des cellules régulières, et les oscillateurs chimiques, des systèmes qui, loin de l’équilibre, présentent des comportements rythmiques. Pour aider à imaginer ces structures dissipatives, Prigogine propose l’analogie de la ville. Comme la ville, en effet, la cellule et le comportement rythmique forment des structures caractéristiques. Et autant l’existence de la ville dépend de ses interactions - pour la main-d’œuvre, la nourriture, les matières premières, etc. - avec les banlieues et les campagnes environnantes, autant celle de la cellule et du comportement rythmique est liée à la modification du milieu ambiant.

    Le rôle constructif du temps

    En quoi les structures dissipatives sont-elles remarquables ? Ne constituent-elles pas des formes d’organisation omniprésentes dans la nature, comme le montrent, outre l’exemple de la ville, ceux de l’étoile, de la cellule ou du cerveau ? Sans doute sont-elles légion, mais leur caractère irréversible oblige à reconnaître un fait unanimement rejeté par la science classique, le rôle constructif du temps. En effet, alors que la physique newtonienne étudie des systèmes réversibles, ou « remontables » dans le temps, et considère comme purement subjective l’expérience de la durée , les phénomènes dissipatifs, eux, mettent à jour la dimension créative du temps en nous dévoilant une matière en train de s’organiser et dont aucune loi déterministe ne permet de rendre compte.

    Un nouveau mode d’intelligibilité scientifique

    Encore faut-il montrer comment est possible une science assumant ce rôle créateur du temps, c’est-à-dire capable d’expliquer les phénomènes d’auto-organisation, l’aléatoire et le chaotique. Prigogine pense pouvoir construire cette science en substituant à l’idéal de certitude de la physique classique un nouveau mode d’intelligibilité scientifique fondé sur la notion de probabilité.

    Répondre à ce message

  • Les idées d’Ilya Prigogine 14 mars 2010 15:03, par Robert Paris

    "La meilleure compréhension des instabilités des systèmes écologiques et l’étude des perspectives d’avenir de notre planète sont évidemment des sujets prioritaires. Nous devons aller au-delà de l’idée de conservation, nous savons que notre planète a connu un optimum climatique voici une dizaine de milliers d’années, lorsque le Sahara abritait une civilisation florissante. Rien n’interdit de penser à un retour à de telles situations. Cette vision nouvelle de la nature change aussi la manière dont nous comprenons notre insertion dans cette nature (...). La science classique semblait devoir conduire au désenchantement, voire à l’aliénation (...). Mais la conclusion essentielle que je voudrais tirer de mes travaux, c’est que le XXe siècle apporte l’espoir d’une unité culturelle, d’une vision non-réductrice, plus globale. Les sciences ne reflètent pas l’identité statique d’une raison à laquelle il faudrait se soumettre ou résister,- elles participent à la création du sens au même titre que l’ensemble des pratiques humaines (...). L’un des enseignements fondamentaux que nous propose la science de notre siècle est que le temps n’est pas donné. Le temps est construction".

    Ilya Prigogine

    Répondre à ce message

  • Les idées d’Ilya Prigogine 6 février 2011 21:58, par Rodolfo Garcia Samano

    Tres beau cite web

    Répondre à ce message

    • Les idées d’Ilya Prigogine 7 février 2011 08:55, par Robert Paris

      Cher lecteur,

      ne manques pas de nous communiquer ton avis sur les textes afin qu’on en discute...

      Répondre à ce message

      • Les idées d’Ilya Prigogine 18 février 2011 17:38, par Bernard

        Quel merveilleux concept que celle du temps organisateur
        Pourquoi chercher un dieu créateur quand on voit la matière s’auto organiser sous nos yeux
        et le chaos créer l’harmonie(les vagues sur une plage) ..mais aussi la précision des vagues( comme disait Jean Cocteau)nées du chao du vent..né du chaosd’autres chose

        Répondre à ce message

  • Les idées d’Ilya Prigogine 21 septembre 2015 11:17

    Il manque son athéisme, qui est pourtant flagrant dans la lecture de ’’Le monde s’est-il créé tout seul’’. Je ne dois pas être le seul à l’avoir remarqué et je m’étonne qu’il ne soit tenu aucun compte de cette absence. Ceci n’est pas à l’honneur des médias.

    Répondre à ce message

Répondre à cet article

SPIP | squelette | | Plan du site | Suivre la vie du site RSS 2.0