Accueil > 02 - Livre Deux : SCIENCES > Atome : lois de la Physique ou rétroaction de la matière/lumière et du (...) > Qu’est-ce que la physique quantique ?

Qu’est-ce que la physique quantique ?

mercredi 24 février 2010, par Robert Paris

Max Planck, inventeur des quanta avec Einstein, écrit dans "Initiations à la physique de la nature des lois physique" :

« La physique, considérée par la génération précédente comme une des plus vieilles et des plus solidement assises parmi les connaissances humaines, est entrée dans une période d’agitation révolutionnaire qui promet d’être une des plus intéressantes de son histoire. (…) Le temps où la philosophie et les sciences positives se considéraient comme étrangères l’une à l’autre et se regardaient mutuellement avec méfiance doivent être considérés comme révolus. (…) L’hypothèse des quanta est venue d’une façon tout à fait inattendue bouleverser toute cette belle harmonie et porter le trouble dans une conception de l’univers qui semblait presque idéalement parfaite. Si nous cherchons à caractériser en deux mots l’idée directrice qui est à la base de cette hypothèse, nous dirons qu’elle consiste dans l’introduction d’une nouvelle constante universelle : le quantum élémentaire. (…) Cette notion se réduit en définitive à poser en principe l’équivalence d’une énergie et d’une fréquence vibratoire : E = h x v. Or cette équivalence n’a aucun sens du point de vue de la théorie classique. (…) Le calcul montre que, à toute valeur des constantes de l’énergie choisies arbitrairement, il ne correspond pas une onde finie, mais seulement certaines de ces valeurs dites valeurs propres de l’énergie. De ces valeurs discontinues de l’énergie, le postulat quantique permet de déduire des valeurs, également discontinues, de la période vibratoire. »

Gilles Cohen-Tannoudji expose l’importance de cette révolution dans "Les constantes universelles" :

"On dit souvent que la constante de Planck a fait apparaître du discontinu dans la matière ; en quoi elle aurait subitement et durablement dérouté les physiciens. En réalité, le discontinu que découvre le physicien allemand affecte non la matière mais les interactions, les forces. Et voilà la surprise la plus considérable ! Car enfin, même si elle suscitait au début de ce siècle encore bien des débats, l’hypothèse atomique, qui n’est rien d’autre que la discontinuité de la matière, ne présentait pas un caractère de nouveauté radicale ; elle était déjà sous-jacente à la thermodynamique, et l’on vient de rappeler comment elle avait déjà guidé bien des physiciens parmi les plus éminents et permis d’obtenir des résultats remarquables.

Mais une discontinuité logée dans ce que nous appelons aujourd’hui les interactions, c’est-à-dire dans les forces, voilà qui apparaissait beaucoup plus difficile à admettre et qui provoqua une véritable "crise" de la pensée physique ! (...) On découvrait la nécessité d’introduire le discontinu dans une "interaction". Il s’agit là non d’un concept, mais de ce que j’appellerais "une catégorie" qui désigne "à vide", tout ce qui concourt à la formation d’une structure, à son évolution, à sa stabilité ou à sa disparition. (...)

Selon la physique classique, l’émission et l’absorption de lumière par la matière s’effectuent de façon absolument continue. La quantité d’énergie lumineuse doit donc s’écouler, tel un fluide, continûment. Or, Planck s’aperçut que le rayonnement émis par une enceinte fermée (...) s’effectue de manière discontinue, par valeurs "discrètes", par "quanta". (...) Il s’agissait d’une révolution si radicale dans la pensée physique que Planck a d’abord reculé devant ses conséquences, et qu’il a fallu toute l’audace du jeune Albert Einstein pour interpréter h comme introduisant du discontinu dans les interactions. "

La formulation de la physique quantique en 1918 était la suivante :

"Un système atomique ne peut exister de façon permanente que dans une certaine série d’états correspondant à une série discontinue de valeurs de son énergie, et par conséquent toute modification de l’énergie du système, en particulier l’émission et l’absorption d’un rayonnement électromagnétique, doit se produire par une transition complète entre deux états de ce genre. Ces états sont appelés les "états stationnaires" du système.

Le rayonnement absorbé ou émis au cours d’une transition entre deux états stationnaires a une seule fréquence donnée par la relation fréquence égale saut d’énergie divisé par la constante de Planck h."

Niels Bohr dans « Physique atomique et connaissance humaine » :

« Le point de départ fut ici ce qu’on appelle le postulat quantique, selon lequel tout changement dans l’énergie d’un atome est le résultat d’une transition complète entre deux états stationnaires. En admettant en outre que toute réaction radiative atomique fait intervenir l’émission ou l’absorption d’un seul quantum de lumière, les valeurs de l’énergie des états stationnaires purent être déterminés à partir du spectre. »

La notion de quanta (des grains en nombre entier qui ne sont pas des grains d’énergie mais des grains d’action - l’action étant le produit d’une énergie et d’un temps est du même type qu’un moment cinétique de rotation) est un des fondements de cette physique qui suppose donc que le discontinu et le discret soient des caractéristiques de la nature de la matière.

Cela a de nombreuses conséquences extrêmement étonnantes pour qui se contente d’observer la matière à notre échelle. Cet étonnement a pour noms le mouvement par bonds, le flou quantique, l’impossibilité de mesurer en même temps certaines quantités, l’intrication (ou non-localité)quantique, certains effets comme l’effet tunnel, l’onde de matière et le corpuscule de lumière (c’est-à-dire la dualité de la matière/lumière), etc...

Notre ancien bon sens sur la matière fondé sur son apparence à notre échelle est complètement bouleversé. Les notions scientifiques anciennes également. Plus question par exemple de trajectoire continue. plus question d’une position et d’une vitesse à chaque instant... etc

DES FILMS DE L’UNIVERSITÉ DE TOUS LES SAVOIRS :

La physique quantique, le film

Qu’est-ce que la théorie quantique, le film

Tests et aspects de la physique quantique, le film

Louis de Broglie, dans « La physique nouvelle et les quanta » :

« Sans quanta, il n’y aurait ni lumière ni matière et, s’il est permis de paraphraser un texte évangélique, on peut dire que rien de ce qui a été fait n’a été fait sans eux. On conçoit donc quelle inflexion essentielle a subi le cours du développement de notre science humaine le jour où les quanta, subrepticement, s’y sont introduits. Ce jour-là, le vaste et grandiose édifice de la physique classique s’est retrouvé ébranlé jusque dans ses fondements, sans, d’ailleurs, qu’on s’en soit rendu tout d’abord bien compte. (…) Fidèle à l’idéal cartésien, la physique classique nous montrait l’univers comme analogue à un immense mécanisme susceptible d’être décrit avec une entière précision par la localisation de ses parties dans l’espace et leur modification au cours du temps, mécanisme dont l’évolution pouvait en principe être prévue avec une rigoureuse exactitude quand on possédait un certain nombre de données sur son état initial. Mais une telle conception reposait sur certaines hypothèses implicites que l’on admettait presque sans s’en apercevoir. Une de ces hypothèses était que le cadre de l’espace et du temps dans lequel nous cherchons presque instinctivement à localiser toutes nos sensations est un cadre parfaitement rigide et déterminé où chaque événement physique peut, en principe, être rigoureusement localisé indépendamment de tous les processus dynamiques qui s’y déroulent. Dès lors, toutes les évolutions du monde physique sont nécessairement représentées par des modifications des états locaux de l’espace au cours du temps, et c’est pourquoi dans la science classique les grandeurs dynamiques, telles que l’énergie et la quantité de mouvement, apparaissent comme des grandeurs dérivées construites à l’aide du concept de vitesse, la cinématique servant ainsi de base à la dynamique. Tout autre est le point de vue de la physique quantique. L’existence du quantum d’action, sur lequel nous aurons si souvent à revenir dans le cours de cet ouvrage, implique en effet une sorte d’incompatibilité entre le point de vue de la localisation dans l’espace et dans le temps et le point de vue de l’évolution dynamique ; chacun de ces points de vue est susceptible d’être utilisé pour la description du monde réel, mais il n’est pas possible de les adopter simultanément dans toute leur rigueur. La localisation exacte dans l’espace et dans le temps est une sorte d’idéalisation statique qui exclut toute évolution et tout dynamisme ; l’idée d’état de mouvement prise dans toute sa pureté est par contre une idéalisation dynamique qui est en principe contradictoire avec les concepts de position et d’instant. La description du monde physique dans les théories quantiques ne peut se faire qu’en utilisant plus ou moins l’une ou l’autre de ces deux images contradictoires. (…) Il est néanmoins parfaitement légitime de se servir de la cinématique quand on étudie des phénomènes à grande échelle ; mais pour les phénomènes à l’échelle atomique où les quanta jouent un rôle prépondérant, on peut dire que la cinématique, définie comme l’étude du mouvement faite indépendamment de toute considération dynamique, perd complètement sa signification. (…) La mécanique et la physique classiques ont été édifiées pour rendre compte des phénomènes qui se jouent à notre échelle et elles sont aussi valables pour les échelles supérieures, les échelles astronomiques. Mais, si l’on descend à l’échelle atomique, l’existence des quanta vient limiter leur validité. Pourquoi en est-il ainsi ? Parce que la valeur du quantum d’action mesurée par la fameuse constante de Planck est extraordinairement petite par rapport à nos unité usuelles, c’est-à-dire par rapport aux grandeurs qui interviennent à notre échelle. (…)

Les équations de la dynamique classique du point matériel expriment que le produit de la masse du point matériel par l’une quelconque des composantes rectangulaires de son accélération est égale à la composante correspondante de la force. (…) Ce résultat exprime que la dynamique classique du point matériel est entièrement en accord avec le postulat du déterminisme physique, postulat selon lequel l’état futur du monde matériel doit être entièrement prévisible quand on possède un certain nombre de données sur son état présent.
Une autre remarque est intéressante à faire ici. Le point matériel étant supposé ponctuel, sa trajectoire est une ligne qui n’explore dans l’espace à trois dimensions qu’un continu à une dimension. (…) Il n’explore le champ de force que le long de sa trajectoire. (…) En mécanique classique, les accidents topologiques qui peuvent exister dans l’espace à des distances finies de la trajectoire d’un point matériel ne peuvent aucunement influer sur son mouvement. Plaçons, par exemple, sur la trajectoire d’un point matériel, un écran percé d’un trou. Si la trajectoire passe vers le centre du trou, elle ne sera aucunement perturbée par l’accident topologique que constitue la présence de l’écran. (…) Il est inconcevable, en mécanique classique, que le mouvement du point matériel traversant le trou en question dépende du fait qu’il y ait ou pas d’autres trous dans l’écran. L’on comprend tout de suite l’importance de ces remarques pour une interprétation corpusculaire de l’expérience des trous de Young et l’on pressent que la mécanique ondulatoire doit apporter de nouveau sur ce point. (…) Les ondulations lumineuses traversant sans difficulté les espaces vides, ce n’est pas la matière qui les transmet. Quel est donc le support de ces ondes, quel est le milieu dont la vibration constitue la vibration lumineuse ? Telle est la question qui se posait aux protagonistes de la théorie des ondulations. (…) L’éther envisagé comme un milieu élastique doit être un milieu infiniment plus rigide que l’acier car il ne peut transmettre que des vibrations transversales et cependant ce milieu si rigide n’exerce aucun frottement sur les corps qui le traversent et ne freine aucunement le mouvement des planètes. (…) Après avoir montré que le rotationnel du champ magnétique est égal à la densité du courant électrique, donnant ainsi naissance à l’électromagnétisme, (…) Maxwell, après avoir écrit les lois générales des phénomènes électriques, s’aperçut de la possibilité de considérer la lumière comme une perturbation électromagnétique. Par là, il a fait rentrer toute la science de l’optique à l’intérieur des cadres de l’électromagnétisme, réunissant ainsi deux domaines qui semblaient entièrement distincts. (…) La théorie électromagnétique de Maxwell fournissait des équations représentant exactement à notre échelle la liaison entre les champs électromagnétiques mesurables d’une part, les charges et les courants électriques d’autre part. Obtenues en réunissant en un seul système formel le résultat des expériences macroscopiques, leur valeur était incontestable dans ce domaine. Mais pour décrire le détail des phénomènes électriques au sein de la matière et à l’intérieur des atomes, pour prévoir les rayonnements émis ou absorbés par les particules matérielles ultimes, il fallait extrapoler les équations de Maxwell et leur donner une forme applicable à l’étude des phénomènes de l’échelle atomique et corpusculaire. C’est ce que fit, avec plus de hardiesse qu’il ne peut paraître au premier abord, un des grands pionniers de la physique théorique moderne, H.A. Lorentz.

Lorentz prit comme point de départ l’idée d’introduire dans les équations de l’électromagnétisme la structure discontinue de l’électricité. (…) En opérant des moyennes sur les phénomènes microscopiques élémentaires, on peut repasser des équations de Lorentz aux équations de Maxwell. (…) La théorie des électrons, édifiée sur les bases que nous venons d’esquisser, a conduit à d’importants succès pour la prévision d’un grand nombre de phénomènes. Elle a d’abord permis de retrouver l’interprétation des lois de la dispersion. Elle a ensuite, et cela a été sans doute son plus important succès, permis de prévoir d’une façon exacte l’effet Zeeman normal, c’est-à-dire la façon dont les raies spectrales émises par un atome sont affectées dans le cas le plus simple par la présence d’un champ magnétique uniforme. (…) La théorie des électrons a aussi paru apporter la solution d’un problème capital : l’origine de l’émission des rayonnements par la matière. D’après les équations de Lorentz, un électron animé d’un mouvement rectiligne et uniforme transporte avec lui globalement son champ électromagnétique et, par suite, il n’y a dans ce cas aucune émission d’énergie dans l’espace environnant. Mais si le mouvement d’un électron comporte une accélération, on peut démontrer qu’il y a émission d’une onde électromagnétique et l’énergie ainsi perdue à chaque instant par l’électron est proportionnelle au carré de son accélération. (…) Si l’on veut interpréter le rayonnement des atomes par le mouvement des électrons intra-atomiques, il faut supposer qu’à l’état normal les électrons intérieurs à l’atome sont immobiles ; sans quoi, obligés de se mouvoir à l’intérieur du très petit domaine de l’atome, ils seraient forcément animés de mouvements très accélérés et émettraient constamment de l’énergie sous forme de rayonnement, ce qui serait contraire à l’idée même de stabilité de l’atome. (…)
L’origine de la théorie des quanta est dans les recherches faites vers 1900 par M. Planck sur la théorie du rayonnement noir. (…) Si l’on considère une enceinte maintenue à température uniforme, les corps maintenus dans cette enceinte émettent et absorbent du rayonnement et il finit par s’établir un état d’équilibre (…) Kirchoff a montré que cet état d’équilibre est unique et correspond à une composition spectrale parfaitement déterminée du rayonnement enfermé dans l’enceinte. De plus, la composition de ce rayonnement dépend uniquement de la température de l’enceinte. (…) Il est souvent appelé du nom assez incorrect de « rayonnement noir » correspondant à cette température. (…) M. Planck avait commencé par reprendre l’étude de la question en imaginant que la matière est formée d’oscillateurs électroniques, c’est-à-dire d’électrons susceptibles d’osciller autour d’une position d’équilibre sous l’action d’une force proportionnelle à l’élongation. (…) M. Planck put apercevoir que l’inexactitude de la loi de Rayleigh provient du rôle trop grand que jouent, dans l’image classique des échanges d’énergie entre oscillateurs et rayonnement, les oscillateurs de haute fréquence. (…) M. Planck a eu alors l’idée géniale qu’il fallait introduire dans la théorie un élément nouveau, entièrement étranger aux conceptions classiques, qui viendrait restreindre le rôle des oscillateurs de haute fréquence, et il a posé le fameux postulat suivant : « La matière ne peut émettre l’énergie radiante que par quantités finies proportionnelles à la fréquence. » Le facteur de proportionnalité est une constante universelle, ayant les dimensions d’une action mécanique. C’est la célèbre constante h de Planck. Mettant en jeu cette hypothèse d’aspect paradoxal, Planck a repris la théorie de l’équilibre thermique et trouvé une nouvelle loi de répartition spectrale du rayonnement noir à laquelle son nom est resté attaché. (…)

Peu à peu, l’importance fondamentale de l’idée de Planck apparut. Les théoriciens s’aperçurent que la discontinuité traduite par l’hypothèse des quanta est incompatible avec les idées générales qui servaient jusqu’alors de bases à la physique et exigeait une révision complète de ces idées. (…) Pour trouver une forme générale de sa théorie, Planck a dû renoncer à l’hypothèse primitive des quanta d’énergie et lui substituer l’hypothèse des quanta d’action (produit d’une énergie par un temps ou d’une quantité de mouvement par une longueur) »

L’énigmatique électron ne serait-il pas finalement une structure émergente issue du vide quantique et fractale ?

L’électron n’a pas une position fixe : sa charge tremble, sa masse saute d’un point à un autre, son nuage de polarisation interagit avec le voisinage.... Cela définit diverses "dimensions" de l’électron. S’il est capté, il est ponctuel. Sa masse est ponctuelle. Sa charge est ponctuelle. S’il interagit, il est considéré par l’autre objet comme une zone de dimension non nulle. les divers es dimensions ont entre elles un rapport égal à la constante de structure fine alpha. Voilà les résultats de la physique quantique sur la "particule élémentaire".

Qu’est-ce que l’atome, l’élémentaire, l’ « insécable » ? Un nuage de points à de nombreuses échelles !

SITE Matière et Révolution : www.matierevolution.fr

Pourquoi ce site mêle révolution, sciences, philosophie et politique ?


Pourquoi parler de révolution en sciences ?

La nature en révolution

un historique du combat d’idées de la physique quantique

Un version vivante de la physique quantique

Physique quantique et philosophie

Extraits de « Sciences et dialectiques de la nature » (ouvrage collectif – La Dispute)

« La portée vraiment universelle de la découverte de Planck et Einstein (celle des quanta) lui vient de ce que le caractère discontinu n’affecte pas seulement le rayonnement le rayonnement électromagnétique mais encore l’ensemble des interactions : dans tout l’univers, il n’y a pas d’interaction qui ne mette en jeu une action au moins égale à la constante de Planck h. (…) L’irruption du discontinu dans l’action nous contraint à renoncer définitivement à une description causale et déterministe des processus mettant en jeu des actions du même ordre de grandeur que le quantum d’action. L’absorption ou l’émission d’un photon par un atome qui change de niveau d’énergie, la désintégration spontanée d’un noyau radioactif ou d’une particule instable, une réaction particulaire provoquée dans une expérience auprès d’un accélérateur sont des processus que nous devons renoncer à décrire individuellement de manière déterministe. Il nous faut les intégrer à des ensembles statistiques descriptibles en termes de probabilités. (…) Comme l’a dit Léon Rosenfeld, « probabilité ne veut pas dire hasard sans règle, mais juste l’inverse : ce qu’il y a de réglé dans le hasard. Une loi statistique est avant tout une loi, l’expression d’une régularité, un instrument de prévision. »

article « Le réel, à l’horizon de la dialectique » de Gilles Cohen-Tannoudji

« S’il fallait caractériser l’idée principale de la théorie des quanta, nous dirions : il est nécessaire de supposer que certaines quantités physiques, regardées jusqu’à présent comme continues, sont composées de quanta élémentaires » rapporte Einstein dans « L’évolution des idées en physique ».

« Le quantum d’action progresse dans le vide en franchissant des ’’pas’’. (...) Or cette règle a quelque chose de simple : seuls sont ’’permis’’ les sauts dans lesquels un électron de l’atome voit son nombre quantique changer d’une unité. (...) Lorsque l’atome émet (ou absorbe) un quantum d’action, le quantum emporte (ou apporte) avec lui, de par son spin, une unité d’action de rotation. »

Le physicien Jean-Claude Auffray
dans « L’atome »

Lochak, Diner et Fargue dans « L’objet quantique » :
« La théorie des quanta s’est développée simultanément de deux manières différentes. La première consiste à mettre en avant l’existence d’états discontinus dans le monde microphysique et de transitions entre ces états. La seconde consiste plutôt à mettre en avant le fait que les propriétés corpusculaires et ondulatoires (…) se trouvent mêlées l’une à l’autre dans tous les domaines. Les deux façons s’imbriquent donc étroitement. (…) Planck introduisit dans la physique un élément de discontinuité, là où la continuité semblait devoir régner. D’après lui, un atome ne pouvait absorber petit à petit, continûment, de l’énergie lumineuse : il ne pouvait le faire que par paquets, par quanta, dont la valeur extrêmement petite, mais quand même finie, était déterminée par une constante qu’il désigna par h : la célèbre constante de Planck. (…) L’hypothèse des quanta voulait dire cette chose étrange que le mouvement des atomes n’évolue pas continûment mais par bonds discontinus : comme si une fusée ne pouvait s’élever progressivement au dessus de la terre vers n’importe quelle orbite et ne pouvait atteindre que certaines orbites particulières en sautant brusquement de l’une à l’autre. »

Werner Heisenberg – Sur le principe d’incertitude :

« Faisons donc connaissance avec l’une des caractéristiques fondamentales de celle-ci : le principe d’incertitude.
Position et vitesse d’une particule
Imaginons que nous avons à donner une description complète d’un électron, c’est-à-dire à déterminer des grandeurs comme sa position ou sa vitesse. A première vue, cela ne pose pas de problème et nous devons pouvoir mesurer ces quantités avec une précision illimitée. C’est ce que la physique classique prévoit, mais l’avis de la mécanique quantique est différent. Selon elle, toute description d’un phénomène physique doit prendre en compte l’acte d’observation. Ainsi, nous ne pouvons pas nous contenter de dire qu’il n’y a aucune difficulté dans la mesure, mais, au contraire, il nous faut étudier avec soin la façon dont nous allons effectuer celle-ci.
Essayons donc de mesurer simultanément la position et la vitesse de l’électron. Le moyen le plus simple est d’utiliser un rayon lumineux. Nous ne sommes pas limités à la lumière visible, nous pouvons avoir recours à toute la gamme des ondes électromagnétiques, depuis le domaine radio jusqu’aux rayons gamma. Commençons avec un faisceau radio, de longueur d’onde un mètre par exemple. Le problème qui se pose est que nous ne pouvons déterminer la position de l’électron qu’avec une précision de l’ordre de la longueur d’onde. Ainsi, avec notre rayonnement radio, nous ne pouvons déterminer la position qu’à un mètre près.
Pour augmenter la précision, la solution est simple. Passons de l’autre côté du spectre électromagnétique et utilisons des rayons gamma. Les longueurs d’onde sont maintenant très petites et la position de l’électron peut être mesurée avec une grande précision, par exemple un millionième de milliardième de mètre. Mais un nouveau problème se pose. Les photons qui composent le rayonnement gamma sont très énergétiques. Leur rencontre avec l’électron est violente et le choc perturbe le mouvement de la particule, donc sa vitesse. En conséquence, une grande incertitude affecte maintenant notre détermination de cette dernière. Pour ne pas perturber la particule et pouvoir mesurer avec précision sa vitesse, il faut avoir recours à un rayonnement peu énergétique, donc aux ondes radio. Et nous nous retrouvons finalement dans le cas précédent, avec une grande incertitude sur la position. »

« Stabilité de la matière

La théorie quantique eut parmi ses premiers objectifs de comprendre la stabilité des édifices atomiques. En effet, un « électron classique » (non-quantique) pourrait orbiter à une distance arbitraire d’un « noyau classique ». Rayonnant de l’énergie électromagnétique, il pourrait se rapprocher indéfiniment du noyau, perdant dans cette chute une quantité d’énergie … infinie ! La théorie quantique, en corrélant l’extension spatiale d’un électron à son énergie cinétique (inégalités d’Heisenberg), interdit une telle catastrophe et assure l’existence d’atomes stables, dont l’énergie ne peut descendre en dessous d’un certain plancher absolu (niveau fondamental). Mais Pauli fit remarquer, dès les années 1925, que cette stabilité individuelle des atomes, si elle est nécessaire, ne suffit en rien à assurer la stabilité de la matière. (…) Si le principe de Pauli n’intervenait pas pour tenir les électrons à distance mutuelle, la matière serait incomparablement plus concentrée, d’autant plus que la quantité en serait plus grande. (…) Ajoutons enfin que le rôle du principe de Pauli ne se borne pas à assurer l’existence de la matière, mais conditionne toutes ses propriétés électroniques détaillées, en particulier la conductivité ou la semi-conductivité des matériaux qu’utilise la technologie électronique. »

Jean-Marc Lévy-Leblond dans « La quantique à grande échelle », article de l’ouvrage collectif « Le monde quantique »

« L’approche philosophique et culturelle des problèmes de la mécanique quantique devait tout naturellement privilégier les discussions sur le déterminisme… Alors qu’au fil des années 1930, Bohr tend à minimiser de plus en plus le côté contradictoire, paradoxale, de la complémentarité des aspects ondulatoire et corpusculaire, Louis de Broglie, au contraire, le souligne de plus en plus. Il parle de contradiction, d’exclusion, de conflit, mais rarement de complémentarité. Le conflit se généralise peu à peu pour devenir le conflit de la cinématique et de la dynamique. De Broglie l’illustre en réactualisant le paradoxe de Zénon : « Dans le macroscopique, Zénon paraît avoir tort, poussant trop loin les exigences d’une critique trop aïguë, mais dans le microscopique, à l’échelle des atomes, sa perspicacité triomphe et la flèche, si elle est animée d’un mouvement bien défini, ne peut être en aucun point de sa trajectoire. Or, c’est le microscopique qui est la réalité profonde, car il sous-tend le macroscopique. »


Louis de Broglie
 : « A tout élément matériel de masse m est associée une onde do nt la longueur d’onde lambda est égale à h divisé par le produit de la masse m et de la vitesse v de cette masse. »

QUANTIQUE ET CLASSIQUE

« L’existence du quantum d’action (…) implique une sorte d’incompatibilité entre le point de vue de la localisation dans l’espace et dans le temps et le point de vue de l’évolution dynamique (…) La localisation exacte dans l’espace et le temps est une sorte d’idéalisation statique qui exclut toute évolution et toute dynamique. (…) Dans la mécanique classique, il était permis d’étudier pour eux-mêmes les déplacements dans l’espace et de définir ainsi les vitesses, les accélérations sans s’occuper de la façon dont sont matériellement réalisés ces déplacements : de cette étude abstraite des mouvements, on s’élevait ensuite à la dynamique en introduisant quelques principes physiques nouveaux. Dans la mécanique quantique, une semblable division de l’exposé n’est plus en principe admissible puisque la localisation spacio-temporelle qui est à la base de la cinématique est acceptable seulement dans une mesure qui dépend des conditions dynamiques du mouvement. Nous verrons plus loin pourquoi il est néanmoins parfaitement légitime de se servir de la cinématique quand on étudie des phénomènes à grande échelle ; mais pour les phénomènes de l’échelle atomique où les quanta jouent un rôle prépondérant, on peut dire que la cinématique, définie comme l’étude du mouvement faite indépendamment de toute considération dynamique, perd complètement sa signification.
Une autre hypothèse implicite sous-jacente à la physique classique est la possibilité de rendre négligeable par des précautions appropriées la perturbation qu’exerce sur le cours des phénomènes naturels le savant qui, pour les étudier avec précision, les observe et les mesure. (… ) Il résulte en effet, de l’existence du quantum d’action, ainsi que l’ont montré les fines et profondes analyses de Mrs Heisenberg et Bohr, que toute tentative pour mesurer une grandeur caractéristique d’un système donné a pour effet de perturber d’une façon inconnue d’autres grandeurs attachées à ce système. D’une manière plus précise, toute mesure d’une grandeur qui permet de préciser la localisation d’un système dans l’espace et dans le temps a pour effet de perturber d’une façon inconnue une grandeur conjuguée de la première qui sert à spécifier l’état dynamique du système. En particulier, il est impossible de mesurer en même temps avec précision deux grandeurs conjuguées. On comprend alors dans quel sens on peut dire que l’existence du quantum d’action rend incompatible la localisation spatio-temporelle des parties d’un système et l’attribution à ce système d’un état dynamique bien défini puisque, pour localiser les parties du système, il faut connaître exactement une série de grandeurs dont la connaissance exclut celle des grandeurs conjuguées. Relatives à l’état dynamique, et inversement. (…) Le lien entre les résultats successifs des mesures, qui traduisent pour le physicien l’aspect quantitatif des phénomènes, n’est plus un lien causal conforme au schéma déterministe classique, mais bien un lien de probabilité, seul compatible avec les incertitudes qui dérivent, comme nous l’avons expliqué plus haut, de l’existence même du quantum d’action. Et c’est là une modification essentielle de notre conception des lois physiques, modification dont on est loin, croyons-nous, d’avoir encore nettement aperçu toutes les conséquences philosophiques. (…) Dans le nouvelle physique quantique, sous la forme que lui a imprimée le développement de la mécanique ondulatoire, les idées de corpuscules et d’ondes, de localisation dans l’espace et le temps et d’états dynamiques bien définis sont « complémentaires » ; il entend par là que la description complète des phénomènes observables exige que l’on emploie tour à tour ces conceptions, mais qu’en un sens ces conceptions sont néanmoins inconciliables, les images qu’elles fournissent n’étant jamais simultanément applicables d’une façon complète à la description de la réalité. Par exemple, un grand nombre de faits observés en physique atomique ne peuvent se traduire simplement qu’en invoquant l’idée de corpuscules de sorte que l’emploi de cette idée peut être considéré comme indispensable au physicien ; de même l’idée des ondes est également indispensable pour la description d’un grand nombre de phénomènes. Si l’une de ces deux idées était rigoureusement adaptée à la réalité, elle exclurait complètement l’autre, mais il se trouve qu’en fait, elles sont toutes les deux utiles dans une certaine mesure pour la description des phénomènes et que, malgré leur caractère contradictoire, elles doivent être alternativement employées suivant les cas. Il en est de même des idées de localisation dans l’espace et le temps et d’état dynamique bien déterminé : elles sont aussi « complémentaires » comme les idées de corpuscules et d’ondes auxquelles, elles sont d’ailleurs, nous le verrons, étroitement rattachées. On peut se demander comment ces images contradictoires n’arrivent jamais à se heurter de front parce qu’il est impossible de déterminer simultanément tous les détails qui permettraient de préciser entièrement ces deux images et cette impossibilité qui est exprimée en langage analytique par les relations d’incertitude d’Heisenberg repose en définitive sur l’existence du quantum d’action. (…) Ainsi, on peut dire que les corpuscules existent puisqu’un grand nombre de phénomènes peuvent être interprétés en invoquant leur existence. Néanmoins, dans d’autres phénomènes, l’aspect corpusculaire est plus ou moins voilé et c’est un aspect ondulatoire qui se manifeste. (…) Il est inconcevable en mécanique classique que le mouvement du point matériel traversant un trou dépende du fait qu’il y ait ou pas d’autres trous dans l’écran à distance finie du premier (expérience des fentes de Young). »

De Broglie dans « La physique nouvelle et les quanta »

Le quanta est la base de toute particule, de toute interaction et de tout mouvement. Le quanta ne peut exister qu’en nombre entier : un, deux, trois, etc... C’est dire que la physique quantique a mené à une conception discontinue du monde.

Mais ce n’est pas tout. Là où la physique classique envisageait la particule comme un état déterminé et fixe, la physique quantique a dû développer la notion de superposition d’états. Cette superposition s’est appelée fonction d’onde. Il ne s’agissait plus d’ondes au sens classique. L’un des problèmes que cela posait était celui appelé "réduction du paquet d’ondes" puisque la superposition d’états était brutalement supprimée en cas de mesure (ou d’interaction), ce passage de la superposition à un seul état restant mystérieux et inconcevable comme un miracle, ce qui est inacceptable. Tout d’abord, cela suppose qu’une dynamique serait une somme de stationnarité. Ensuite, cela n’explique ni le passage d’un état à un autre ni ne donne une interprétation à la superposition. Du coup, la physique a dû reconcevoir sa thèse en adoptant un point de vue dynamique qui remettait en cause l’ancien point de vue philosophique.

L’infiniment petit se comporte très différemment de l’environnement macroscopique auquel nous sommes habitués. Quelques différences fondamentales qui séparent ces deux mondes sont par exemples :
• la quantification : Un certain nombre d’observables, par exemple l’énergie émise par un atome lors d’une transition entre états excités, sont quantifiés, c’est-à-dire qu’ils ne peuvent prendre leur valeur que dans un ensemble discret de résultats. A contrario, la mécanique classique prédit le plus souvent que ces observables peuvent prendre continûment n’importe quelle valeur.
• la dualité onde-particule : La notion d’onde et de particule qui sont séparées en mécanique classique deviennent deux facettes d’un même phénomène, décrit de manière mathématique par sa fonction d’onde. En particulier, l’expérience prouve que la lumière peut se comporter comme des particules (photons, mis en évidence par l’effet photoélectrique) ou comme une onde (rayonnement produisant des interférences) selon le contexte expérimental, les électrons et autres particules pouvant également se comporter de manière ondulatoire.
• le principe d’incertitude de Heisenberg : Une incertitude fondamentale empêche la mesure exacte simultanée de deux grandeurs conjuguées. Il est notamment impossible d’obtenir une grande précision sur la mesure de la vitesse d’une particule sans obtenir une précision médiocre sur sa position, et vice versa. Cette incertitude est structurelle et ne dépend pas du soin que l’expérimentateur prend à ne pas « déranger » le système ; elle constitue une limite à la précision de tout instrument de mesure.
• le principe d’une nature qui joue aux dés : Si l’évolution d’un système est bel et bien déterministe (par exemple, la fonction d’onde régie par l’équation de Schrödinger), la mesure d’une observable d’un système dans un état donné connu peut donner aléatoirement une valeur prise dans un ensemble de résultats possibles.
• l’observation influe sur le système observé : Au cours de la mesure d’une observable, un système quantique voit son état modifié. Ce phénomène, appelé réduction du paquet d’onde, est inhérent à la mesure et ne dépend pas du soin que l’expérimentateur prend à ne pas « déranger » le système.
• la non-localité ou intrication : Des systèmes peuvent être intriqués de sorte qu’une interaction en un endroit du système a une répercussion immédiate en d’autres endroits. # Ce phénomène contredit en apparence la relativité restreinte pour laquelle il existe une vitesse limite à la propagation de toute information, la vitesse de la lumière ; toutefois, la non-localité ne permet pas de transférer de l’information.
• la contrafactualité : Des évènements qui auraient pu se produire, mais qui ne se sont pas produits, influent sur les résultats de l’expérience.

En site extérieur :

Physique quantique

Les vibrations dans la matière, elles aussi, sont quantifiées


MOTS CLEFS :

dialectique
discontinuité
physique quantiquerelativité
chaos déterministeatome
système dynamiquestructures dissipatives
non-linéaritéquanta
émergence
inhibition
boucle de rétroactionrupture de symétrie
le temps -
contradictions
crise
transition de phasecriticalité - attracteur étrangerésonance
auto-organisationvide - révolution permanente - Zénon d’Elée - Antiquité -
Blanqui -
Lénine -
TrotskyRosa Luxemburg
Prigogine -
Barta -
Gould - marxisme - Marx - la révolution - l’anarchisme - le stalinisme - Socrate



THE MATTER AND THE REVOLUTION (site in english)

MATERIAL Y REVOLUCION (sitio en español)

Sommaire du site en français

Pourquoi ce site mêle révolution, sciences, philosophie et politique ?

Pourquoi parler de révolution en sciences ?

Qu’est-ce que l’intrication quantique ?

L’intrication est un état quantique (voir aussi fonction d’onde) décrivant deux systèmes classiques (ou plus) non factorisables en un produit d’états correspondant à chaque système classique.

Deux systèmes ou deux particules peuvent être intriqués dès qu’il existe une interaction entre eux. En conséquence, les états intriqués sont la règle plutôt que l’exception. Une mesure effectuée sur l’une des particules changera son état quantique selon le postulat quantique de la mesure. Du fait de l’intrication, cette mesure aura un effet instantané sur l’état de l’autre particule, même si la ligne d’univers qui relie les deux évènements "mesure 1" et "mesure 2" de l’espace-temps est une courbe de genre espace ! Par suite, le fait que la mécanique quantique tolère l’existence d’états intriqués, états ayant effectivement été observés en laboratoire et dont le comportement est en accord avec celui prévu par la mécanique quantique (voir l’expérience d’Aspect), implique que la mécanique quantique est une théorie physique non-locale. Néanmoins, il est incorrect d’assimiler ce changement d’état à une transmission d’information plus rapide que la vitesse de la lumière (et donc une violation de la théorie de la relativité). La raison est que le résultat de la mesure relatif à la première particule est toujours aléatoire, dans le cas des états intriqués comme dans le cas des états non-intriqués. Il est donc impossible de « transmettre » quelqu’information que ce soit, puisque la modification de l’état de l’autre particule, pour immédiate qu’elle soit, conduit à un résultat de la mesure relatif à la seconde particule qui est toujours aussi aléatoire que celui relatif à la première particule. Les corrélations entre les mesures des deux particules, bien que très réelles et mises en évidence dans de nombreux laboratoires de par le monde, resteront indétectables tant que les résultats des mesures ne seront pas comparés, ce qui implique nécessairement un échange d’information classique, respectueux de la Relativité (voir aussi le Paradoxe EPR).

La téléportation quantique fait usage de l’intrication pour assurer le transfert de l’état quantique d’un système physique vers un autre système physique. Ce processus est le seul moyen connu de transférer parfaitement l’information quantique. Il ne peut dépasser la vitesse de la lumière et est également « désincarné », en ce sens qu’il n’y a pas de transfert de matière (contrairement à la téléportation fictive de Star Trek).

Cet état ne doit pas être confondu avec l’état de superposition. Un même objet quantique peut avoir deux (ou plus) états superposés. Par exemple un même photon peut être dans l’état "polarité longitudinale" et "polarité transversale" simultanément. Le chat de Schrödinger est simultanément dans l’état "mort" et "vivant". Un photon qui passe une lame semi-réfléchissante est dans l’état superposé "photon transmis" et "photon réfléchi". C’est uniquement lors de l’acte de mesure que l’objet quantique possédera un état déterminé.

Dans le formalisme de la physique quantique, un état d’intrication de plusieurs objets quantique est représenté par un produit tensoriel des vecteurs d’état de chaque objet quantique. Un état de superposition ne concerne qu’un seul objet quantique (qui peut être une intrication), et est représentée par une combinaison linéaire des différentes possibilités d’états de celui-ci.

La nature en révolution

LE MOTEUR DE RECHERCHE EST EN HAUT, A DROITE DE LA PHOTO DE GALAXIE


La relativité générale est une théorie de la gravitation selon les résultats de la relativité restreinte, et implique la courbure de l’Espace-Temps. Elle s’applique aux objets près de fortes concentration de masse. On vit dans un système de référence défini par quatre coordonnées : les trois coordonnées spatiales du lieu, et une coordonnée de temps.
La relativité générale introduit la Matière-Espace-Temps, la matière se déplaçant dans un espace temps de courbure variable. La relativité générale donné a donné naissance à la théorie du big bang.

LES PRINCIPES FONDAMENTAUX DE LA PHYSIQUE QUANTIQUE

L’étude du domaine microscopique va bouleverser les concepts de la physique classique. Les lois de Newton, applicables aux objets de grande taille, ne s’appliquent pas dans le domaine subatomique Lorsqu’on se penche sur l’infiniment petit, il n’y a pas de monde physique objectif qui évolue de façon indépendante de nous. Le hasard remplace le principe de causalité. On ne peut connaître en même temps, la position et la vitesse d’un objet quantique. Ce dernier peut être une chose et son contraire.
Développée vers 1920-1930 par Max Born et Werner Heisenberg, la physique quantique est une théorie probabiliste qui heurte le sens commun. De plus. les phénomènes quantiques ne peuvent être représentés visuellement. Mais la théorie est toujours vérifiée par l’expérimentation qui vient la valider. La physique quantique ne donne pas une vision de la " réalité en soi " mais décrit des phénomènes avec exactitude.

1/ Les quanta : la notion de discontinuité

En 1900, Max Planck, fondateur de la physique quantique, avance l’idée des quanta. Contrairement à ce que soutient la physique classique pour laquelle les échanges d’énergies se font régulièrement et graduellement, dans le monde subatomique, il y a une discontinuité des échanges d’énergie entre matière et rayonnement. Ces échanges s’effectuent par paquets d’énergie, par quanta. Cette discontinuité se retrouve au coeur de l’atome puisque, les électrons occupent des orbites spécifiques et passent de l’une à l’autre sans aucune orbite intermédiaire.
Les particules subatomiques ne sont pas des grains de matière solide mais des quanta, des paquets d’énergie en perpétuelle transformation. La matière nous apparaît comme stable et solide alors qu’en fait les particules forment des systèmes dynamiques qui subissent perpétuellement des transformations ou transmutations avec des phénomènes de création et d’annihilation, et ce flux dynamique est créateur d’énergie. La matière est en fait constituée d’espace vide traversé par quelques particules.

2/ La dualité onde - corpuscule : la double appartenance des particules quantiques

En 1923, Louis de Broglie associe une onde à tout corpuscule. Jusqu’alors, selon une logique apparente, une entité sub-atomique devrait être soit un corpuscule, soit une onde. En fait, pour la physique quantique, une particule est à la fois corpuscule et onde, mais il apparait qu’elle n’est ni corpuscule ni onde !
Selon la manière dont nous l’observons, elle apparaît soit comme particule, soit comme une onde. Comme Einstein l’avait montré en 1905 pour la lumière, la matière est aussi une coexistence d’ondes et de particules. L’apparence de la matière dépend de nous, elle nous apparaît tantôt comme des ondes, tantôt comme des particules. Cette apparence dépend de la facon dont nous observons la matière. Les ondes électromagnétiques peuvent se comporter comme des corpuscules. A tout corpuscule est associé une onde. La matière s’est dématérialisée, s’est " déchosifié "

3/ Le principe d’incertitude, ou d’indétermination

Un objet quantique est défini par une probabilité de présence. La connaissance de la réalité est impossible car la connaissance d’un paramètre exclut nécessairement la connaissance d’un autre paramètre. Le réel est connaissable seulement dans certaines de ses structures. Il y a des limites à la connaissance du réel, le réel est voilé. Le dévoilement du réel est impossible. Le réel en soi existe, indépendamment de l’homme, mais la science ne peut en fournir une connaissance complète. On ne peut connaître simultanément, et avec la même précision, la position et la vitesse d’une particule (principe d’incertitude d’Heisenberg énoncé en 1927). On ne peut que prédire une probabilité d’existence. Toute mesure modifie la grandeur mesurée. L’observation n’est pas neutre, contrairement à ce qui ce passe dans le monde macroscopique. On ne peut prédire le moment où un atome va se désintégrer. Le hasard règne sur le monde microscopique. Le monde quantique n’est pas représentable visuellement. L’électron ne tourne pas autour du noyau et on ne peut se représenter une trajectoire pour les particules. La physique quantique attribue à une particule une probabilité de présence en un endroit donné et à un temps voulu. Il est impossible de fournir un modèle de la réalité qui représenterait les événements eux-mêmes et non leur probabilité de présence. Cependant, cette représentation prédit correctement les micro phénomènes. La physique quantique décrit l’interaction de l’observateur avec le monde mais le réel n’est pas accessible.

4/ La complémentarité particule - antiparticule

A tout événement correspond un anti-événement. A toute particule correspond une antiparticule. Une antiparticule a la même masse, le même spin que sa particule correspondante, mais elle a une charge électrique opposée. Tout contact d’une particule avec son double, de la matière avec l’antimatière se traduit par une annihilation, une disparition des deux, une dématérialisation, avec une libération d’énergie (transformation de la masse en énergie et émission d’un rayonnement de photons gamma, analogue à la lumière).

5/ Le principe de non séparabilité

La physique classique étudie des objets séparés et indépendants. Elle suppose l’existence d’objets extérieurs que l’on peut étudier indépendamment. Dans le monde microscopique, à l’encontre du principe de causalité locale et de séparabilité, il existe des connexions non locales et inexplicables entre des éléments qui se révèlent tous interdépendants même s’ils sont séparés par de grandes distances : il y a violation du principe de séparabilité et on ne peut parler séparément de chacune des particules. Ces connexions, ces variables cachées non locales, sont situées hors de notre espace-temps, dans un autre niveau de réalité, mais elles ont une influence dans notre monde.
Il faut faire la distinction entre le réel voilé qui ne sera jamais accessible par la science, (même si on peut en avoir une certaine idée et en faire l’expérience car il existe un lien entre ce réel voilé et notre monde d’existence) et la réalité empirique, le monde des apparences que décrit et analyse la science.
L’univers est une totalité inter reliée dans les moindres de ses éléments, et cette totalité s’oppose à la description du monde en entités séparés et indépendantes.

Pour nous écrire, cliquez sur Répondre à cet article


Dans « Regards sur la matière », le physicien Etienne Klein rapporte le changement de point de vue qu’a représenté cette nouvelle physique : « Les calculs de Planck montrent que les échanges d’énergie électromagnétique sont portés par des grains, alors qu’on les croyait continus. Voilà la vraie révolution, qui ébranle la conviction que les physiciens avaient depuis Newton, selon laquelle on peut faire tendre une force vers zéro. (...) Max Planck fut extrêmement perturbé par sa propre conclusion. Il mit des années à accepter qu’il pouvait s’agir de quelque chose de plus profond qu’un simple artefact mathématique. C’est « dans le désespoir » (Max Planck, Physikalche Abhandlungen) qu’il vécut la perte – qui allait suivre – des instruments anciens de la raison et leur remplacement par des idées neuves. Sa constante injectait de la discontinuité dans des processus qui avaient toujours été perçus comme étant fondamentalement continus. (...) Planck fut aussi choqué que si on lui avait dit, par exemple, que la température d’un radiateur pouvait passer de dix à vingt degrés sans passer par aucune température intermédiaire ! Pourtant, il fallut bien se rendre à l’évidence (qui n’en était pas un) : le concept de continuité n’est pas un absolu. C’est à Planck que revient le mérite d’avoir porté le premier « une-deux » contre la continuité. (...) En 1905, Einstein conclut le « une-deux » de Planck par un uppercut décisif : il attribue au rayonnement lui-même, et non plus seulement aux seuls échanges d’énergie, une structure corpusculaire. Le rayonnement, essentiellement discontinu, est, d’après lui, formé d’un ensemble de corpuscules transportant chacun un quantum d’énergie. (...) Comment décrire le déroulement du processus d’émission (d’un photon par atome qui saute d’un état à un autre) si le champ rayonné sait d’avance ce que sera l’état final de l’atome ? A cette question, Bohr répondra qu’il faut renoncer à décrire le processus d’émission comme une histoire qui se déroule continûment dans le temps : il s’agit plutôt d’un bond, d’un « saut quantique », qu’il faut prendre comme un tout, sans chercher à l’analyser en étapes successives. »
Dans « Physique quantique et représentation du monde », le physicien Erwin Schrödinger résumait ainsi le bouleversement conceptuel de la physique quantique : « En partant de nos expériences à grande échelle, les physiciens en étaient arrivés (...) à formuler le postulat de la continuité de la description. C’est ce postulat de la continuité qui apparaît ne pas pouvoir être satisfait ! (...) C’est cette habitude de penser que nous devons rejeter. (...) En 1913, Bohr fut amené à supposer que l’atome passe brusquement d’un état à l’autre, et que, au cours d’une telle transition, il émet un train d’ondes lumineuses (...) Les faits observés ne peuvent donc pas être mis en accord avec une description continue dans l’espace et le temps. (...) Nos difficultés actuelles en physique sont liées aux difficultés conceptuelles bien connues qui s’attachent à l’idée du continu. (...) Si l’on considère le développement de la physique au cours du dernier demi-siècle, on a l’impression que la vision discontinue de la nature nous a été imposée en grande partie contre notre volonté. Nous paraissons être entièrement satisfaits du continu. Max Planck fut sérieusement effrayé par l’idée d’un échange discontinu qu’il avait introduite (1900) pour expliquer la distribution de l’énergie dans le rayonnement du corps noir. Il fit de grands efforts pour affaiblir son hypothèse et pour l’éliminer dans la mesure du possible mais ce fut vain. Vingt-cinq ans plus tard, les inventeurs de la mécanique ondulatoire entretinrent pendant un certain temps avec la plus grande ardeur l’espoir d’avoir préparé la voie à un retour de la description classique continue, mais de nouveau cet espoir fut déçu. La nature elle-même semblait rejeter une description continue (...). »

L’astrophysicien Laurent Nottale répond ainsi dans « La complexité, vertiges et promesses » : « Le calcul différentiel consiste à prendre la limite d’un petit intervalle de temps, d’espace ou d’autres variables et à les faire tendre vers zéro. Dans le calcul différentiel, on présuppose que cette limite du zéro existe. Or, en physique, rien n’indique que cela soit vrai. Au contraire, à chaque fois que l’on a essayé de voir ce qui se passait à des échelles plus petites, on a toujours trouvé des choses nouvelles ; on n’a jamais découvert un domaine où les choses deviendraient plus simples. Quand on définit une vitesse, une dérivée, on présuppose que cela va se simplifier lorsqu’on se dirigera vers les petites échelles. Or, ce n’est pas le cas. (...) On a longtemps cru que la méthode ordinaire de calcul différentiel devait réaliser en physique l’idée de Descartes. On allait décomposer l’objet à étudier en des parties très petites pour faire en sorte que chacune de ces parties tende vers zéro. L’espoir était de rendre simple l’objet considéré à partir de ses éléments extrêmement simples et où rien ne bougeait ; il n’y avait plus ensuite qu’à intégrer sur tout l’objet de manière à obtenir ses propriétés globales. Dans la réalité, ça ne marche pas ainsi, car, quand on observe les sous-parties de plus en plus petites d’un objet, on voit apparaître des choses constamment nouvelles. On peut très bien avoir des objets plus compliqués vers les petites échelles que vers les grandes, ce qui prouve que l’identification « naïve » de la méthode cartésienne au calcul différentiel ne marche pas. Un objet, comme l’électron, vu classiquement comme un simple point, devient compliqué vers les petites échelles : il émet des photons, les réabsorbe, ces photons deviennent eux-mêmes des paires électrons-positons, etc… A l’intérieur de l’électron, il y a une espèce de foisonnement de particules virtuelles qu’on ne voit pas à grande échelle. (...) Un électron est objet élémentaire qui contient toutes les particules élémentaires existantes. (...) Donc, on ne va pas se contenter d’observer des déplacements dans l’espace et le temps comme dans la physique ordinaire, on va également observer les déplacements dans les changements d’échelle (...). »

Dans son article intitulé « Expérience et Méthode » de l’ouvrage collectif « La philosophie des sciences aujourd’hui », Antoine Danchin, mathématicien devenu généticien, remarque à ce sujet : « On sait qu’il est habituel de représenter les points d’un segment par des nombres qu’on appelle les nombres réels. Et il est habituel de considérer que la structure de l’ensemble de ces nombres est identique à la structure réelle des choses. Les formes géométriques seront donc dérivées des particularités de cet ensemble et l’étude du continu sous-jacent au réel (matériel) se fait au moyen de ces réels (mathématiques) (...). La très belle théorie des catastrophes est un exemple particulier où l’étude du continu et de ses déformations amène Thom à faire toutes sortes de projections sur notre monde et à affirmer (...) qu’il existe des « formes » arbitraires dont la force attractive s’impose au réel et explique les formes que nous observons dans la réalité du monde. (...) » Et il explique que ce passage du continu au discontinu –mathématique- , la « catastrophe », suppose un ensemble des nombres réels qui soit continu. Il rappelle alors comment a été construit cet ensemble des nombres dits « réels » : « Après les entiers naturels, on a construit un ensemble beaucoup plus continu, celui des nombres rationnels. Il a fallu rapidement compléter cet ensemble, encore trop discontinu, pour en faire l’ensemble des réels. Là, chaque point d’un segment semble être représenté. Le nombre de ces points est infini mais d’un infini beaucoup plus « grand » que celui des nombres rationnels (...) Mais je suis d’accord avec Thom pour privilégier le continu – il me semble que cet ensemble des réels est encore trop discontinu et bien incomplet - . Chaque point y est en certain sens isolé, et manque d’une certaine « épaisseur » qui le relierait immanquablement à ses voisins : c’est ce qui explique deux paradoxes issus de la mathématique du continu (utilisant les nombre réels), à savoir l’apparition de « singularités » dans certaines circonstances, et surtout l’improbabilité de traiter directement d’intégrales comme celle de la mesure de Dirac (...). C’était aussi, me semble-t-il l’intuition de Leibniz lorsqu’il parlait des infiniment petits : il y aura un nouveau corps (« surréels » ?) qui rendra sérieusement compte de la réalité continue des choses, dans l’avenir mathématique… »

« Ces définitions, irréprochables, nous l’avons dit, au point de vue, mathématique, ne sauraient satisfaire le philosophe. Elles remplacent l’objet à définir et la notion intuitive de cet objet par une construction faite avec des matériaux plus simples ; on voit bien alors qu’on peut effectivement faire cette construction avec ces matériaux, mais on voit en même temps qu’on pourrait en faire tout aussi bien beaucoup d’autres ; ce qu’elle ne laisse pas voir c’est la raison profonde pour laquelle on a assemblé ces matériaux de cette façon et non pas d’une autre. Je ne veux pas dire que cette « arithmétisation » des mathématiques soit une mauvaise chose, je dis qu’elle n’est pas tout. Je fonderai la détermination du nombre des dimensions sur la notion de coupure. » écrit le mathématicien-physicien Henri Poincaré dans « Dernières pensées ».

L’astrophysicien Laurent Nottale expose, dans « La complexité, vertiges et promesses » : « La nature même de l’espace-temps est changée car elle contient en réalité ces changements d’échelle d’une manière intrinsèque et irréductible à l’espace-temps ordinaire qui est, lui, dans la vision physico-mathématique, un ensemble de points. (...) En réalité, cette vision dans laquelle on représente le monde sous forme de points prétend faire des mesures avec une précision infiniment grande – à chaque petit intervalle spatial correspond un petit intervalle de temps. Or, c’est la mécanique quantique qui nous dit qu’il faudrait une énergie infinie pour pouvoir faire une telle mesure. » On pourrait se dire que ceci n’est une limite que pour l’homme qui observe et mesure, mais cela est faux. Cette limite, notamment l’inégalité d’Heisenberg, est reliée au mécanisme fondamental de la matière et pas seulement à une mesure réalisée par l’homme (ou la machine produite par lui). Cela signifie qu’une précision très petite en espace nécessite un temps très grand et un temps très court nécessite une énergie très grande. Le point, défini avec une précision infinie, nécessite une énergie infinie ! La nature ne peut réaliser ses propres interactions, indépendantes de l’observateur, en dépensant sans cesse une telle énergie infinie. Elle opère nécessairement avec imprécision. C’est le mécanisme le plus économe en énergie. La convergence ne se produit qu’ensuite par émergence d’un ordre global issu du désordre des interactions variables, imprécises et imprédictibles. (…)Un point, cela n’existe pas ! D’ailleurs, cela se voit tout de suite. Si l’on dit qu’il y a un point sur une table, qu’entend-on par un point ? Quelque chose qui n’a aucune dimension. Il suffit de regarder avec une loupe pour découvrir une structure. On continue de grossir à la loupe puis on passe au microscope : à quel moment pourra-t-on voir enfin le point ? Jamais. Donc, physiquement, le point n’existe pas. (...) L’idée intéressante est que, chaque fois que l’on grossit, on voit quelque chose de nouveau. »

Atome : rétroaction de la matière/lumière et du vide (de la microphysique à l’astrophysique)

* 01- Les contradictions des quanta

* 02- La matière, émergence de structure au sein du vide

* 03- Matière et lumière dans le vide

* 04- Le vide, … pas si vide

* 05- Le vide destructeur/constructeur de la matière

* 06- La matière/lumière/vide : dialectique du positif et du négatif

* 07- La construction de l’espace-temps par la matière/lumière

* 08- Lumière et matière, des lois issues du vide

* 09- Matière noire, énergie noire : le chaînon manquant ?

* 10- Les bulles de vide et la matière

* 11- Où en est l’unification quantique/relativité

* 12- La symétrie brisée

* 13- Qu’est-ce que la rupture spontanée de symétrie ?

* 14- De l’astrophysique à la microphysique, ou la rétroaction d’échelle

* 15- Qu’est-ce que la gravitation ?

* 16- Big Bang ou pas Big Bang ?

* 17- Qu’est-ce que la relativité d’Einstein ?

* 18- Qu’est-ce que l’atome ?

* 19- Qu’est-ce que l’antimatière ?

* 20- Qu’est-ce que le vide ?

* 21- Qu’est-ce que le spin d’une particule ?

* 22- Qu’est-ce que l’irréversibilité ?

* 23- Qu’est-ce que la dualité onde-corpuscule

* 26- Le quanta ou la mort programmée du continu en physique

* 25- Lumière quantique

* 26- La discontinuité de la lumière

* 27- Qu’est-ce que la vitesse de la lumière c et est-elle indépassable ?

* 28- Les discontinuités révolutionnaires de la matière

* 30- Qu’est-ce qu’un système dynamique ?

* 31- Qu’est-ce qu’une transition de phase ?

* 32- Quelques notions de physique moderne

* 33- Qu’est-ce que le temps ?

* 34- Henri Poincaré et le temps

* 35- La physique de l’état granulaire

* 36- Aujourd’hui, qu’est-ce que la matière ?

* 37- Qu’est-ce que la rupture de symétrie (ou brisure spontanée de symétrie) ?

* 38- Des structures émergentes au lieu d’objets fixes

* 39- Conclusions provisoires sur la structure de la matière

* 40- L’idée du non-linéaire

MOTS CLEFS :

dialectique
discontinuitéfractales -
physique quantiquerelativité
chaos déterministeatome
système dynamiquestructures dissipativespercolationirréversibilité
non-linéaritéquanta
émergence
inhibition
boucle de rétroactionrupture de symétrie - turbulencemouvement brownien
le temps -
contradictions
crise
transition de phasecriticalité - attracteur étrangerésonancepsychanalyse -
auto-organisationvide - révolution permanente - Zénon d’Elée - Antiquité -
Blanqui -
Lénine -
TrotskyRosa Luxemburg
Prigogine -
Barta -
Gould - marxisme - Marx - la révolution - l’anarchisme - le stalinisme - Socrate - socialisme - religion

SITE :
MATIERE ET REVOLUTION

www.matierevolution.fr

P L A N
D U
S I T E

Messages

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.