Accueil > 01 - Livre Un : PHILOSOPHIE > Des contradictions dynamiques > Les contradictions dialectiques de l’individu et du groupe

Les contradictions dialectiques de l’individu et du groupe

samedi 14 juillet 2018, par Bianco

Les contradictions dialectiques de l’individu et du groupe

Individu et groupe signifient l’homme et la société, l’être vivant et l’espèce, la molécule et le fluide, la particule et la molécule, le grain de sable et le tas de sable, la faille et la croûte terrestre, etc. Le passage d’une échelle a l’autre est toujours une discontinuité, une rupture, avec des lois toutes nouvelles qui apparaissent.

Les lois qui existent au niveau des groupes comprenant un grand nombre d’individus n’existent pas au niveau individuel, ne découlent pas de lois qui existeraient à ce niveau, qu’il s’agisse de lois thermodynamiques, de lois de la dynamique des fluides, de lois des matériaux, de lois quantiques, de lois des fissions nucléaires, de lois des séismes, de lois d’évolution des espèces, de lois de la lutte des classes, etc.

Comment émergent les lois qui ont cours dans les grands groupes d’individus et tout particulièrement comment apparaissent dans ces groupes des ruptures brutales à grande échelle ?

Les grands groupes d’individus obéissent à des lois statistiques mais les individus ne suivent pas de telles lois. Comment peut-on concilier ces deux propositions contradictoires ? On ne le peut pas !!! C’est vrai en physique comme en chimie, en biologie comme en génétique, pour l’évolution des populations comme pour le développement de l’individu.

Ce qui est relatif à un grand groupe de gènes ne l’est pas pour un gène ou un petit nombre de gènes. Ce qui concerne les grands groupes de molécules ne concerne pas une ou un petit nombre de molécules.

Pourtant les groupes ne sont que des rassemblements d’individus ? !!! Pas tout à fait ! Il faut y rajouter leurs interactions… Les grands groupes supposent donc un grand nombre d’interactions et ne sont donc pas seulement une somme d’individus.

Qu’y a-t-il de différent entre un individu et un groupe ? Quelle propriété est vraie ici et fausse là ? Quel paramètre est valable à un niveau et pas à un autre. Oh, il y en a un très grand nombre. En fait, presque toutes !!!

Chacun croit connaître la notion de température d’un corps physique, mais ce concept n’a de sens que pour un grand nombre de molécules. Ce sont justement leurs interactions que cela mesure. Pour une seule molécule ou un petit nombre de molécules, la notion de température (ou la notion de pression) n’a pas de sens.

Pour les êtres humains sociaux, la notion d’appartenance de classe n’a qu’un caractère statistique. On ne peut pas parler du comportement social des possesseurs de capitaux, sans le considérer pour un nombre conséquent de gens, car un seul capitaliste peut tout à fait agir à rebours de ce que sa classe fait.

Si on examine le destinées cellulaires au sein d’un corps, il est parfaitement possible à une seule cellule vivante ou à un petit nombre d’elles d’agir a contrario de ce qui est le comportement général mais c’est impossible pour un grand nombre de cellules. Ainsi, une cellule de sang peut s’égarer au sein d’un muscle mais pas un très grand nombre de cellules : elles recevraient rapidement un message d’apoptose.

De même, dans la fabrication des macromolécules du vivant, il peut tout à fait y avoir des erreurs de construction et des petits désagréments par ci par là, mais pas à grande échelle parce que les molécules HSP ou autres moyens de surveillance sont là pour y veiller et détruire les intrus.

Certains diront que les lois statistiques ne sont rien d’autre que des moyennisations de lois existant aux échelles individuelles, mais ce n’est pas exact. Ce n’est pas en prenant les individus capitalistes (ou prolétaires) et en effectuant des moyens qu’on obtient les lois sociales. Ce n’est pas en prenant des lois des molécules individuelles qu’on trouve la température d’un corps ou la pression d’un gaz.

Il y a un saut entre les deux mondes : celui des individus et celui des grands nombres d’individus. Ces deux mondes sont à la fois contradictoires et évidemment imbriqués, tout à fait dialectiquement opposés…

Individu et dynamique collective émergente, voilà un thème connu en Histoire et en Economie et nous allons voir qu’il se développe aussi de plus en plus en Sciences physiques.

Peut-on expliquer les grandes crises économiques (les krachs) et politiques (les révolutions) par le comportement des individus ?

Pour arriver aux fondements de la révolution française ou de la crise de 1929, on suivrait le maximum d’individus impliqués et on verrait ce qu’ils font personnellement et cela donnerait plus de précision à l’analyse ? Il y a belle lurette qu’historiens comme économistes savent que cela ne marche pas, que l’on a affaire à un événement global dans lequel l’action collective n’est pas la somme des actions individuelles, considérées comme indépendantes, puisque c’est justement l’interaction de ces individus qui émerge et produit une situation totalement et radicalement nouvelle.

En Physique, ce type de situation a été retrouvé dans certaines situations appelées « critiques », lors de « changements de phase » ou d’états stationnaires de déséquilibre. Per Bak a donné à ces situations le paradigme du « tas de sable ». Ce caractère collectif correspond à tous les phénomènes physiques que l’on qualifie de probabiliste et où l’ordre provient d’un désordre sous-jacent, des fluides à la physique quantique. Elle concerne tous les phénomènes dits « émergents » où l’ordre est brutalement apparu à un certain niveau d’interaction d’un grand nombre d’individus et que cet ordre n’avait pas d’origine visible dans chacun de ces individus.

En Biologie et en Evolution des espèces, c’est l’ « équilibre ponctué » de Stephen Jay Gould.

Lors des épisodes critiques, les comportements individuels convergent étonnamment et donnent des effets bien supérieurs au niveau individuel, des effets collectifs radicaux.

Le parallèle entre la situation critique, dans des domaines aussi différents des sciences, a souvent été relevé par tous les scientifiques de chaque domaine, de S.J. Gould à Per Bak, en passant par Laughlin.

On la trouve en Physique aussi bien dans la théorie des situations critique, dans la théorie de l’auto-organisation de la matière, dans la théorie des transitions de phase, dans la théorie du chaos déterministe, dans la théorie des fluides.

Dans tous ces cas, on retrouve des états particuliers où l’action des individus, de désordonnée, devient source d’un désordre qui crée un nouvel ordre.

Per Bak, dans « Quand la nature s’organise » :

« Lorsqu’ils ne savent pas calculer directement comment des phénomènes complexes surgissent à un niveau, en se fondant sur les mécanismes physiques œuvrant à un niveau plus profond, les scientifiques baissent les bras et les nomment « émergents ». Ces phénomènes apparaissent tout simplement de nulle part… En fait, la qualité, d’une certaine manière, émerge de la quantité. Toute la question est de savoir comment…

Les physiciens étaient déjà un peu accoutumés à traiter de vastes systèmes contenant un « grand nombre de corps », en particulier lorsque ces systèmes sont dans une situation d’équilibre stable. Un gaz d’atomes ou le sable d’une plage plate sont des exemples de grands systèmes à l’équilibre. Si l’on perturbe légèrement un système à l’équilibre, par exemple en poussant un grain de sable quelque part, rien d’important ne se produit. En général, les systèmes en équilibre ne présentent aucun des comportements intéressants auxquels nous nous sommes attachés plus haut, c’est-à-dire des catastrophes importantes, du bruit en 1/f ou des structures fractales.

Il nous faut cependant émettre une certaine réserve. Un système fermé en équilibre peut faire montre de comportements complexes caractérisés par des lois de puissance, mais uniquement dans des circonstances très spéciales. De spectaculaires progrès ont été accomplis dans notre compréhension des systèmes lors d’une transition de phase, c’est-à-dire à un moment où le système passe d’un état désordonné à un état ordonné, comme c’est le cas, par exemple, quand on fait varier la température. A ce point critique précis qui sépare exactement les deux phases, on peut observer des comportements complexes caractérisés par de l’invariance d’échelle et par l’existence de domaines de toutes tailles. Mais il faut ajuster la température très précisément pour pouvoir atteindre ce point critique et obtenir ces comportements complexes. Comme, en dehors du laboratoire, personne n’est là pour ajuster les paramètres à leurs valeurs en ce point critique très spécial, cette hypothèse n’éclaire en rien la fréquence des apparitions de la complexité dans la nature.

Il était plus ou moins tacitement admis autrefois que les grands systèmes, tels que ceux que l’on rencontre en biologie ou en économie, étaient en équilibre stable, tout comme les grains de sable d’une plage plane. La théorie économique qui a prévalu jusqu’alors, la théorie de l’équilibre général, suppose que des marchés parfaits, une rationalité parfaite, et ainsi de suite, conduisent les systèmes économiques vers des équilibres de Nash, dans lesquels aucun des agents ne peut améliorer sa situation par quelque action que ce soit. Dans cet état d’équilibre, de petites perturbations ou des chocs ne peuvent provoquer que des altérations mineures, ne modifiant que très légèrement l’état d’équilibre du système. La réponse du système est proportionnelle à la taille de l’impact : les systèmes en équilibre sont dits « linéaires ». La contingence n’y a pas de place et des événements mineurs ne peuvent jamais avoir de conséquences dramatiques. De fait, il ne peut se produire de fluctuations importantes dans les systèmes en équilibre que si un grand nombre d’événements aléatoires « tirent » par accident dans la même direction, ce qui est extrêmement peu probable. Par conséquent, les théories à l’équilibre ne peuvent expliquer la plupart des phénomènes que l’on observe, comme par exemple les types de fluctuations des cours de Bourse.

Aucune théorie de l’équilibre général n’a jamais été explicitement formulée en biologie, mais l’image qui prévaut est aussi fréquemment celle d’une nature « en équilibre ». La nature est vue comme quelque chose qui peut, en principe, se conserver et cette idée inspire les écologistes et les partisans de la conservation de l’environnement. Cela n’a rien d’étonnant : étant donné que, au cours d’une vie humaine, le monde naturel change très peu, les concepts de l’équilibre semblent pouvoir s’y appliquer de manière tout à fait naturelle ou intuitive. Néanmoins, si la nature est en équilibre, comment en est-on arrivé là ? Comment peut-il y avoir évolution si toutes les choses sont en équilibre ? Les systèmes en équilibre ne vont, par définition, nulle part…. En fait, l’idée d’une nature en équilibre est implicitement liée à une image anthropocentrique du monde : notre monde naturel est le « bon ».

Comme l’ont fait remarquer Gould et Eldridge, un équilibre apparent n’est qu’un moment de tranquillité, une stase, entre deux poussées intermittentes d’activité et de changement pendant lesquelles de nombreuses espèces s’éteignent alors que d’autres émergent. Le taux d’évolution des espèces prises individuellement, que l’on peut mesurer, par exemple, par leur modification de taille, varie par poussées épisodiques. Ce phénomène est baptisé « équilibre ponctué ». Le concept d’équilibre ponctué semble être au cœur de la dynamique des systèmes complexes, car on ne rencontre jamais de poussées importantes et intermittentes dans les systèmes en équilibre alors qu’elles sont très fréquentes en histoire, en biologie et en économie.

On voit donc, d’une part, que l’on ne peut expliquer aucun des phénomènes décrits plus haut dans une vision à l’équilibre et que, d’autre part, il n’existe aucune théorie générale pour les systèmes hors d’équilibre…

Les grands événements catastrophiques découlent de la même dynamique qui produit les événements quotidiens ordinaires. Cette observation va à l’encontre de l’opinion courante qui, comme nous l’avons vue, recherche des raisons particulières aux grands cataclysmes (par exemple, la chute d’une météorite entraînant l’extinction des dinosaures). Et même s’il se produit beaucoup plus de petits événements que de grandes catastrophes, ce sont finalement ces dernières qui induisent la plupart des changements du système. En cela, la criticalité auto-organisée peut être vue comme la justification théorique du catastrophisme…

Il est difficile de trouver une dynamique plus différente de la dynamique tranquille d’une plage plane que celle de l’état critique hors d’équilibre…

Dans l’état stationnaire critique, un seul grain de sable peut provoquer une avalanche qui met en jeu le tas tout entier et une petite modification de la configuration peut transformer un événement insignifiant en catastrophe…

On ne peut comprendre de manière isolée les morceaux d’un système critique. La dynamique observée localement reflète l’appartenance de chaque morceau au tas de sable total. Si vous êtes assis sur une plage plane plutôt que sur un tas de sable, les règles qui régissent le mouvement des grains sont exactement les mêmes, elles obéissent aux mêmes lois de la physique, mais l’historique du système joue ici un rôle. Le sable est le même mais la dynamique est différente, car la propriété qu’a le sable de pouvoir évoluer lentement est liée à sa capacité à se souvenir de son histoire. Le sable peut conserver une mémoire : on peut écrire des lettres dans du sable qui seront lisibles longtemps après. Cela est impossible dans un système en équilibre telle qu’une assiette remplie d’eau.

Dans l’état critique, l’unité fonctionnelle est le tas de sable tout entier et non les grains individuels. Une approche réductionniste n’aurait donc aucun sens car les unités locales n’existent sous leur forme actuelle, caractérisées par exemple par la pente locale, que parce qu’elles sont parties intégrantes d’un tout. Etudier les grains individuels sous le microscope ne vous serait d’aucune utilité pour comprendre ce qui se passe dans le tas de sable complet. Rien dans les grains individuels n’évoque les propriétés émergentes du tas.

Le tas de sable évolue d’une configuration à l’autre non pas de manière graduelle, mais au moyen d’avalanches catastrophiques. La plupart des éboulements proviennent d’ailleurs des grandes avalanches à cause de la statistique en loi de puissance. Les petites avalanches, qui sont les plus fréquentes, n’y contribuent pas beaucoup. L’évolution du tas de sable s’effectue par le biais de révolutions, comme l’histoire dans la vision de Karl Marx. C’est précisément parce que ces systèmes dynamiques sont suspendus dans l’état critique que tout arrive à travers des révolutions et non graduellement. De fait, la criticalité auto-organisée est une méthode inventée par la nature pour effectuer des transformations énormes sur des échelles de temps très courtes…

La métaphore du tas de sable a eu des répercussions qui ont dépassé de loin la seule compréhension des phénomènes complexes et le monde de la physique car elle contient tout – comportement coopératif de nombreuses parties, équilibre intermittent, contingence, imprévisibilité, destin. C’est une nouvelle façon de voir le monde…

Les idées de Robert B. Laughlin : l’émergence contre le réductionnisme

« Le tout (un solide, un nuage, un organisme) mène sa vie de manière autonome. Les règles qui le régissent ne dépendent pas de celles qui régissent ses constituants. Elles traduisent un autre niveau d’organisation. Elles témoignent du phénomène le plus mystérieux et donc le plus fascinant de la nature : l’émergence". »

Robert B. Laughlin, La Recherche, 07/2005

« Nous pouvons prouver, dans des cas simples, que l’organisation peut acquérir un sens et une vie bien à elle, et commencer à transcender les éléments dont elle est faite. »

Robert Laughlin

Robert B. Laughlin, dans « Un univers différent » :

« La fiabilité des rapports de cause à effet dans le monde naturel nous apprend quelque chose sur nous-mêmes, car elle est due à des principes d’organisation, pas à des règles au niveau microscopique. Autrement dit, les lois de la nature qui sont importantes pour nous émergent par un processus collectif d’auto-organisation (…) Contrairement à ce que l’on pensait, ce n’est pas les lois qui produisent les principes d’organisation, mais l’inverse. Cela nécessite une réflexion sur les concepts, sur la philosophie. Mais c’est terrible : la science s’est éloignée du reste de la vie intellectuelle, alors qu’elle n’avait pas du tout commencé ainsi. (…) Nous pouvons prouver, dans des cas simples, que l’organisation peut acquérir un sens et une vie bien à elle, et commencer à transcender les éléments dont elle est faite. « Le tout n’est pas la somme de ses parties » n’est pas seulement une idée, mais aussi un phénomène physique : voilà le message que nous adresse la science physique. La nature n’est pas uniquement régie par une règle fondamentale microscopique, mais aussi par de puissants principes généraux d’organisation. Si certains de ces principes sont connus, l’immense majorité ne l’est pas. (…) Les éléments fondamentaux de ce message sont formulés dans les très nombreux écrits d’Ilya Prigogine, et avec plus d’originalité encore, dans un célèbre essai de P.W. Anderson publié il y a plus de trente ans sous le titre « Plus signifie différent ». (…) Je suis de plus en plus persuadé que TOUTES les lois physiques que nous connaissons sont d’origine collective. La distinction entre lois fondamentales et lois qui en découlent est un mythe, de même que l’idée de maîtriser l’univers par les seules mathématiques. La loi physique ne peut pas être anticipée par la pensée pure, il faut la découvrir expérimentalement, car on ne parvient à contrôler la nature que lorsque la nature le permet, à travers un principe d’organisation. On pourrait baptiser cette thèse « la fin du réductionnisme » (réductionnisme = divisons en composantes de plus en plus petites et nous finirons forcément par comprendre). (…) Pour défendre ma position, il me faudra avancer franchement quelques idées choquantes : la matérialité du vide de l’espace-temps, l’hypothèse selon laquelle la relativité n’est pas fondamentale, la nature collective de la possibilité même du calcul informatique, les barrières épistémologiques du savoir théorique, les entraves du même ordre à la falsification de l’expérience, et le caractère mythologique d’importantes composantes de la physique théorique moderne. (…) Le monde est riche en régularités complexes et en relations de causalité quantifiables, et c’est grâce à elles que nous pouvons comprendre les phénomènes et exploiter la nature à nos propres fins. Mais la découverte de ces relations est regrettablement inattendue. (…) La thèse selon laquelle toutes les lois de la nature sont connues n’est qu’une composante de ce bluff. (…) La solution de la contradiction, c’est le phénomène de l’émergence. (…) L’émergence, c’est un principe d’organisation. Il est clair que les sociétés humaines, par exemple, ont des règles d’organisation qui dépassent l’individu. Une compagnie automobile ne va pas cesser d’exister si l’un de ses ingénieurs est écrasé par un camion. Mais le monde inanimé aussi a des règles d’organisation, et elles aussi expliquent beaucoup de choses qui sont importantes pour nous, dont la plupart des lois physiques de macroniveau dont nous nous servons dans notre vie quotidienne. Des réalités banales comme la cohésion de l’eau ou la rigidité de l’acier sont des exemples simples, mais il y en a bien d’autres, innombrables. (...) De même, l’aptitude de certains métaux à expulser totalement les champs magnétiques quand on les refroidit à température ultrabasse nous intéresse vivement parce que les atomes dont ils sont constitués ne peuvent pas le faire. (...) Puisque les principes d’organisation - ou plus exactement leurs conséquences - peuvent être des lois, celles-ci peuvent elles-mêmes s’organiser en lois nouvelles, et ces dernières en lois encore plus neuves, etc. Les lois du mouvement des électrons engendrent les lois de la thermodynamique et de la chimie, qui engendrent les lois de la rigidité et de la plasticité, qui engendrent les lois des sciences de l’ingénieur. (...) Seule l’expérience peut trancher entre des phénomènes qu’on croyait universels et ceux qui ne le sont pas. (...) Le tout petit groupe d’expériences qui sont d’une extrême exactitude a en physique, pour cette raison, une importance considérablement supérieure à sa taille. (...) Ces expériences très spéciales, il y en a dix ou vingt selon la façon dont on les compte, la plupart ne sont familières qu’aux experts. Il y a la vitesse de la lumière dans le vide, que l’on connaît à présent à une précision supérieure à un dix millième de milliardième. Il y a la constante de Rydberg, le nombre qui définit la quantification des longueurs d’onde de la lumière émise par les gaz atomiques dilués et responsables de la fiabilité stupéfiante des horloges atomiques : on la connaît au cent millième de milliardième près. Autre exemple : la constante de Josephson, le nombre qui indique le rapport entre la tension qu’on applique à un type précis de "sandwich" métallique et la fréquence des ondes radio qu’il émet : on la connaît à un degré d’exactitude d’un cent millionième. Ou encore la résistance de Von Klitzing, le nombre qui indique le rapport entre le courant électrique qu’on fait passer à travers un semi-conducteur de conception spéciale et la tension induite perpendiculairement au moyen d’un aimant : on la connaît à un degré d’exactitude d’un dix milliardième. Paradoxalement, l’existence de ces expériences très reproductibles nous inspire deux points de vue incompatibles sur ce qui est fondamental. Selon le premier cette exactitude nous fait toucher du doigt certains des éléments primitifs les plus simples dont est fait notre monde complexe et incertain. Nous disons que la vitesse de la lumière est constante parce qu’elle l’est vraiment et parce que la lumière n’est pas constituée de composants plus élémentaires. Avec ce mode de pensée, nous réduisons ces expériences précises à une poignée de constantes dites "fondamentales". L’autre point de vue, c’est que l’exactitude est un effet collectif qui se produit en raison de l’existence d’un principe d’organisation. Par exemple : le rapport entre la pression, le volume et la température d’un gaz comme l’air. Le nombre universel qui définit la loi des gaz parfaits est connu à une exactitude d’un millionième, mais d’énormes erreurs apparaissent quand on le mesure dans de trop petits échantillons de gaz et il cesse complètement d’être mesurable au niveau de quelques atomes. La raison de cette sensibilité à la taille, c’est que la température est une propriété statistique. L’exactitude collective est un concept que les non-scientifiques ont souvent du mal à comprendre, mais il n’est pas si difficile. On a de nombreux exemples familiers dans la vie quotidienne. Comme le comportement d’un gaz parfait, l’heure de pointe est une certitude collective. L’engorgement du trafic est un phénomène simple, fiable, qui naît de décisions complexes prises par un grand nombre d’individus qui vivent leur vie. Il n’est pas nécessaire de savoir ce qu’ils ont mangé au petit déjeuner, où ils travaillent combien ils ont d’enfants, comment ils s’appellent, etc, pour prévoir qu’à huit heures et quart, ça va être l’enfer. Un bel exemple d’effet collectif déguisé en en effet réductionniste est la quantification des spectres atomiques. La lumière est émise par des gaz atomiques dilués, avec des longueurs d’onde spéciales si insensibles aux influences extérieures qu’on peut s’en servir pour fabriquer des horloges précises au cent millième de milliardième. Mais ces longueurs d’onde ont un décalage détectable au dix millionième qui n’aurait pas dû exister dans un monde idéal ne contenant rien d’autre que l’atome. (…) Autrement dit, l’espace apparemment vide ne l’est pas du tout, il est plein de « quelque chose ». Le mouvement sympathique de ce « quelque chose » quand la matière passe change légèrement les propriétés de celle-ci, exactement de la même façon que le mouvement sympathique des électrons et des atomes dans une vitre de fenêtre modifie les propriétés de la lumière qui la traverse, et provoque sa réfraction. (…) Donc, même la constance du spectre atomique a en réalité des origines collectives – le phénomène collectif, en l’occurrence, étant l’effet de l’univers entier. Autre cas de « collectivisme », bien plus immédiat et troublant : la détermination de a charge de l’électron et de la constante de Planck par des mesures macroscopiques. La charge de l’électron est l’unité indivisible de l’électricité. La constante de Planck est la relation universelle entre le moment et la longueur qui définit la nature ondulatoire de la matière. Il s’agit de deux concepts résolument réductionnistes et, pour déterminer leur valeur, on recourt traditionnellement à de gigantesques machines (...). Or, il s’avère que la valeur la plus précise ne vient pas de ces machines, mais simplement d’une combinaison des constantes de Josephson et de Van Klitzing, dont la mesure n’exige rien de plus compliqué qu’un cryoréfrigérateur et un voltmètre. Cette découverte a été une immense surprise, car les échantillons sur lesquels on mesure les effets Josephson et Von Klitzing sont extrêmement imparfaits : ils regorgent d’impuretés chimiques, d’atomes déplacés et de structures atomiques complexes comme les frontières de grains et les morphologies de surface, autant de facteurs qui auraient dû perturber les mesures au niveau d’exactitude rapporté. Le fait même qu’ils ne le font pas PROUVE que de puissants principes d’organisation sont à l’œuvre. L’une des raisons pour lesquelles les physiciens parlent si rarement de la nature collective des mesures des constantes fondamentales, c’est qu’elle a des implications vraiment troublantes. En effet, puisque notre connaissance du monde physique repose sur la certitude expérimentale, il est logique d’associer la vérité la plus forte à la mesure la plus sûre. Il faut donc en conclure qu’un effet collectif est plus vrai que les règles microscopiques dont il serait censé dépendre… Dans le cas de la température, quantité qui n’a jamais eu de définition réductionniste (une seule molécule, un seul atome, une seule particule ou un trop petit nombre d’entre eux ne définit aucune température), cette conclusion est facile à comprendre et à accepter. (…) Mais, pour la charge de l’électron, c’est une autre affaire. Nous avons pris l’habitude de la penser comme un élément de base, un « cube de construction » de la nature, qui n’exigerait aucun contexte collectif pour avoir un sens. Les expériences en question réfutent cette affirmation, assurément. Elles révèlent que la charge de l’électron n’a de sens qu’au sein d’un contexte collectif : soit le vide de l’espace qui modifie cette charge de la même façon qu’il modifie les longueurs d’onde des atomes, soit une matière dont les propres effets préviennent ceux du vide. Ce rôle préventif de la matière signifie nécessairement que les principes organisationnels à l’œuvre sont les mêmes dans son cas et dans celui du vide, sinon les effets tiendraient du miracle. L’énigme de la charge de l’électron, en fait, n’est pas unique. TOUTES les constantes fondamentales exigent un contexte environnemental pour faire sens. Dans la pratique, la distinction entre quantités réductionnistes et quantités « émergentistes » en physique n’existe pas. (…) La loi physique universelle est l’iceberg dont la constante physique est la pointe émergée. (…) Comme pour les mesures universelles exactes nous avons tendance à distinguer lois d’origine microscopique et lois d’origine collective, tout en les qualifiant de « fondamentales » dans les deux cas. Et, comme pour les constantes, la différence entre ces deux catégories s’évanouit lorsqu’on regarde les expériences de près. Au fil des ans, tandis que s’allongeaient la liste des succès des lois de Newton, on a commencé à en faire un usage spéculatif. (…) Exemple : la théorie cinétique des gaz postule que le gaz est composé d’atomes qui obéissent aux lois de Newton, avec des forces répulsives à faible portée qui les amènent à se caramboler les uns les autres comme des boules de billard. Elle calcule alors que ces atomes mythiques ont une forte tendance à être enchevêtrés par leurs collisions dans des dispositions aléatoires. (…) Mais ce raisonnement a un vice évident : le comportement qui sert à mettre à l’épreuve l’hypothèse est peut-être un phénomène collectif universel. Si c’est le cas, la mesure est fondamentalement insensible aux suppositions microscopiques, telle l’existence des atomes, et ne peut donc absolument pas les vérifier. (…) Les lois de Newton, en fait, sont fausses à l’échelle des atomes. Au début du vingtième siècle, on a découvert que les atomes, les molécules et les particules subatomiques sont décrits par les lois de la mécanique quantique – règles si différentes de celles de Newton que les scientifiques ont dû faire de gros efforts pour trouver les mots susceptibles de les formuler convenablement. (…) Donc il s’avère que les légendaires lois de Newton sont émergentes. Elles n’ont rien de fondamental, mais résultent de l’agrégation de la matière quantique en fluides et en solides macroscopiques – un phénomène organisationnel collectif. (…) J’ai été éclairé pour la première fois sur la nature émergente des lois de Newton en lisant le célèbre article de P.W. Anderson « More is different » (Plus, c’est autre chose). Anderson avait compris (…) que le comportement supraconducteur nous révèle, par son exactitude, que la réalité quotidienne est un phénomène d’organisation collective. Les états de la matière – dont les plus connus sont le liquide, le gazeux et le solide – dont des phénomènes organisationnels. Beaucoup sont surpris de l’apprendre puisqu’ils paraissent si fondamentaux et familiers, mais c’est la pure vérité. (…) Si l’organisation d’un solide cristallin – l’arrangement ordonné des atomes en réseau – faisait faux bond, la rigidité s’évanouirait, car sous cette structure il n’y a aucun actif physique. (…) Paradoxalement, l’extrême fiabilité des phénomènes liés aux états de la matière fait d’eux le pire cauchemar des réductionnistes (…). Un phénomène exact tel que la rigidité ne peut pas du tout dépendre des détails. De plus, si certains aspects des états de la matière sont universels, donc faciles à prévoir, d’autres, comme l’état que l’on a dans telles ou telles conditions, ne le sont pas. L’eau est un cas particulièrement embarrassant. La glace de l’eau ordinaire présente, au dernier décompte (le nombre continue d’augmenter avec les nouvelles découvertes), onze états cristallins distincts, dont aucun n’a été correctement prédit à partir des principes premiers. (…) Les états sont un cas d’émergence élémentaire et bien étudié, qui démontre de façon convaincante que la nature a des murs d’échelle : les règles microscopiques peuvent être parfaitement vraies mais sans aucune pertinence pour les phénomènes macroscopiques car ce que nous mesurons leur est insensible ou au contraire trop sensible. Bizarrement, c’est parfois les deux à la fois. Par exemple, il est actuellement trop difficile de calculer à partir de rien quel état cristallin de la glace va se former à une température et sous une pression données, mais il n’y a aucun besoin de calculer les propriétés macroscopiques d’un état donné, parce qu’elle sont entièrement génériques. (…) Il y a quantité d’autres exemples quotidiens de l’exactitude créée par les états. (…) L’exemple le plus simple d’exactitude émergente est la régularité des réseaux cristallins, l’effet qui, en dernière analyse, assure la rigidité des solides. L’ordre atomique des cristaux peut être parfait à des échelles d’une longueur époustouflante - dans de très bons échantillons, jusqu’à cent millions d’espacement interatomiques. (…) L’aspect le plus stupéfiant du réseau cristallin, c’est qu’il reste exact quand la température monte. (…) Même dans de bons cristaux, chaque atome est toujours en train de bouger , donc toujours légèrement décalé par rapport à son emplacement idéal dans le réseau à quelque moment qu’on l’observe – c’est la signification physique de la chaleur. La preuve que ce mouvement existe, c’est qu’une fraction des rayons X diffusés sur un échantillon est renvoyée avec un léger changement de longueur d’onde (…). Mais, surprise, cet effet ne brouille pas les angles de déviation précis des rayons X. (…) C’est que la localisation d’un atome continue de prédire la localisation d’un autre – avec un peu d’incertitude – arbitrairement loin dans la structure. Les erreurs de position ne s’accumulent pas. (…) Les positions de réseau d’un solide ont manifestement un sens exact même quand les atomes ne s’y trouvent pas exactement. L’exactitude du « registre » du réseau sur longue distance explique la soudaineté de la fonte. L’aptitude d’un atome à prédire la position d’un autre arbitrairement loin ne peut pas être partielle, pas plus qu’une femme ne peut être partiellement enceinte. Quand cette prédictibilité est là, la simple logique nous dit que les autres propriétés qu’on associé normalement aux solides, telles la forme et l’élasticité, doivent l’être aussi. Elles ne peuvent donc être perdues que sur le mode de la « catastrophe ». Il y a malheureusement, des malentendus constants quant à l’importance de cette exactitude dans la nature de l’état solide. La plupart des substances ne sont pas parfaitement régulières – même les métaux réels, qui doivent à des imperfections structurelles et chimiques nombre de leurs propriétés utiles à l’ingénieur. (…) Une fois que l’on sait ce qu’il faut chercher, il devient facile de démontrer la nature organisationnelle d’états autres que le solide. On repère sans ambiguïté un état collectif de la matière lorsqu’un ou plusieurs comportements sont exacts dans un vaste agrégat mais inexacts, ou inexistants, dans un petit. Puisque le comportement est exact, il ne peut pas changer progressivement lorsqu’on fait varier des conditions extérieures comme la pression ou la température : il ne peut changer qu’abruptement, dans une transition d’état. Une signature claire et nette du phénomène organisationnel, c’est donc une transition d’état brutale. Mais la transition elle-même n’est qu’un symptôme. L’important n’est pas la transition, c’est l’exactitude émergente qui la nécessite. Les transitions de la glace, fonte et sublimation, signalent la destruction de l’ordre cristallin et son remplacement par un autre ensemble de comportements exacts collectivement baptisé « hydrodynamique ». (…) Comme les lois de la rigidité dans les solides, celles de l’hydrodynamique deviennent toujours plus exactes quand on les mesure à une plus grande échelle de longueur et de temps, et s’évanouissent à la limite opposée.Un examen attentif révèle que le nombre d’atomes est nécessairement trop grand, car le dispositif ne fonctionnerait pas s’il était petit. Détecter la désintégration radioactive d’un atome au moyen d’un autre atome, par exemple, n’a pas de sens, puisque cela reviendrait à substituer un minuscule objet non mesurable à un autre. (…) Il y a quelque chose dans le concept humain de mesure qui exige que l’appareil soit grand. (…) Tous les détecteurs quantiques sont faits de solides, donc tous exploitent cette caractéristique de l’état solide qu’est la brisure de symétrie, effet qui ne se produit que dans la limite de la grande dimension. Une observation, pour se qualifier comme telle selon la définition humaine traditionnelle, ne doit pas modifiée par l’acte d’observer. (…) Von Klitzing a découvert quelque chose qui n’aurait pas dû exister – ce qui nous rappelle brutalement que notre compréhension du monde st limitée, que nos préjugés ne sont pas des lois (…) – une mesure qui devenait anormalement stable sur toute une gamme d’intensités du champ magnétique. (…) La découverte de cette constance inattendue, personne ne l’avait prédite. (…) Lorsqu’on approche un aimant d’un fil électrique où passe un courant, une tension perpendiculaire à la direction du courant apparaît. Elle fait parce que les électrons qui passent dans le conducteur sont déviés par l’aimant, exactement comme ils le seraient à l’air libre. Ils s’accumulent donc d’un seul côté du fil, jusqu’au moment où la tension de réaction qu’ils génèrent équilibre exactement la déviation magnétique. On appelle ce phénomène l’effet Hall. (…) Aux températures ordinaires, (…) le rapport entre la résistance de Hall et la densité est en ligne droite. Mais à des températures très basses, ce n’est plus une ligne droite mais une ligne qui frétille. Dans le cas du type particulier de semi-conducteurs qu’étudiait Von Klitzing – des transistors à effet de champ, ces frétillements se muent en un escalier aux marches extrêmement aplaties quand on baisse la température. (…) Von Klitzing a pris conscience du fait que la valeur de la résistance de Hall était une combinaison de constantes fondamentales – la valeur indivisible de la charge électrique e, la constante de Planck h et la vitesse de la lumière c, autant d’éléments que nous concevons comme les composantes de base de l’univers. (…) Nous savions tous que les échantillons de Von Klitzing étaient imparfaits, donc nous nous attendions à des variations. Lorsqu’on fabrique des semi-conducteurs, il y a toujours des différences incontrôlables – défauts structurels du réseau cristallin, dopants incorporés de façon aléatoire, oxydes amorphes à la surface, bords irréguliers laissés par la lithographie optique, petits bouts de métal éparpillés sur la surface par des fers à souder déficients quand on fixe les fils électriques, etc. (…) L’effet Hall quantique, en fait, est un magnifique exemple de perfection émergeant de l’imperfection. L’indice crucial qui le montre, c’est que l’exactitude de la quantification – c’est-à-dire l’effet lui-même – disparaît si l’échantillon est trop réduit. Les phénomènes collectifs sont courants dans la nature et occupent aussi une place centrale dans la physique moderne, donc, de ce point de vue, ce qui se passe ici n’est ni sans précédent ni difficile à comprendre. Mais l’exactitude extrême de l’effet de von Klitzing rend sa nature collective incontestable, et son importance particulière est là. (…) Si l’effet Hall quantique a levé le rideau sur l’ère de l’émergence, la découverte de l’effet Hall quantique fractionnaire a été l’ouverture de l’opéra. (…) Dan Tsui et Horst Strömer l’ont découvert par accident en cherchant des preuves de cristallisation de l’électron. (…) L’effet Hall quantique fractionnaire révèle que des quanta apparemment invisibles – en l’occurrence la charge de l’électron e – peuvent être fragmentés dans le cadre de l’auto-organisation d’états. Autrement dit, les éléments fondamentaux ne sont pas nécessairement fondamentaux. (…) L’observation des plateaux très précisément quantifiés de l’effet Hall quantique fractionnaire prouvait l’existence de nouveaux états de la matière où des excitations élémentaires – des particules – étaient porteuses d’une fraction exacte de e. (…) La grande question que pose implicitement la découvert de Von Klitzing n’est pas : « La loi physique existe-t-elle ? » mais « Qu’est-ce que la loi physique, d’où vient-elle et quels sont ses effets ? » Du point de vue réductionniste, la loi physique est l’impulsion causale de l’univers, elle vient de nulle part et tout est son effet. Du point de vue émergentiste, la loi physique est une règle de comportement collectif, elle est une conséquence de règles de comportement plus primitives à l’étage en dessous (…). La vraie physique est toujours inductive, aucun phénomène organisationnel collectif – même aussi élémentaire que la cristallisation et le magnétisme – n’a jamais été déduit (…). La constance des effets Meissner et Josephson en est une preuve expérimentale : un principe d’organisation est à l’œuvre dans les supraconducteurs, celui que nous assimilons aujourd’hui à la multiplicité de Schrieffer et que nous appelons la « brisure de symétrie du superfluide ». (…) Le combat sur la théorie de la supraconductivité a été l’un des plus longs et des plus âpres de l’histoire de la science, essentiellement parce que le problème central était conceptuel. (…) C’est triste à dire, mais la machinerie de la science n’est pas conçue pour traiter les concepts, mais seulement les faits et les technologies. »

Lire sur l’émergence

Lire sur l’auto-organisation de la matière

Lire sur les transitions de phase

Lire sur les révolutions de la matière

Lire sur l’histoire de la matière

L’auto-organisation ou l’ordre spontanément issu du désordre

L’équilibre ponctué de révolutions, dans le domaine de l’évolution des espèces

Révolutions du vivant

Messages

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.