English German Espagnol Portugese Chinese Japanese Arab Rusian Italian Norvegian Dutch Hebrew Polish Turkish Hindi
Accueil du site > 01 - Livre Un : PHILOSOPHIE > LIVRE UN - Chapitre 05 : La nature fait des sauts (ou le règne universel de (...) > Le quanta ou la mort programmée du continu en physique

Le quanta ou la mort programmée du continu en physique

mercredi 23 septembre 2009, par Robert Paris

La notion de molécule a déjà représenté la fin de la continuité de la matière, comme le relevait le chimiste August Kékulé : "Dans les réactions chimiques il existe une quantité qui y entre et qui en sort en plus petite proportion et jamais dans une fraction de cette proportion. Ces quantités sont les molécules définies chimiquement."

La notion de quanta avancée par Planck et Einstein a donné une tout autre signification à la discontinuité de la matière. Ce n’est pas la masse (ni l’énergie) qui contient un nombre entier de quantités élémentaires. C’est un produit de l’énergie et du temps qui est en un nombre entier de grains. Cette quantité s’appelle l’action. Que l’action soit quantitfiée signifie que ce n’est pas seulement la masse de matière qui est discontinue mais aussi les interactions. On n’est pas loin déjà à l’époque de considérer que la lumière (les grains appelés photons) mais aussi l’espace, le temps et le vide (les photons virtuels) sont eux aussi quantifiés, nouveau saut qualitatif que la physique quantique va devoir réaliser, abandonnant complètement le vieil idéal de continuité... "Contrairement à ce que l’on entend souvent dire, le discontinu que Planck découvre ici (avec les quanta) affecte non la matière, mais les interactions. (...) Les calculs de Planck montrent que les échanges d’énergie électromagnétique sont portés par des grains, alors qu’on les croyait continus. (...) Ce que Planck découvre, c’est que dans toute interaction il y a échange et, de plus, qu’il existe un échange minimum au-dessous duquel il n’y a plus d’interaction. (...) C’est à Planck que revient le mérite d’avoir porté le premier "une-deux" contre la continuité. En 1905, Einstein conclut le "une-deux" de Planck par un uppercut décisif : il attribue au rayonnement lui-même, et non plus seulement aux échanges d’énergie, une structure corpusculaire. Le rayonnement, essentiellement discontinu, est, d’après lui, formé d’une ensemble de corpuscules transportant chacun un quantum d’énergie. (...) Le rayonnement n’est pas émis d’une manière continue." écrit Etienne Klein dans "Regards sur la matière"

Etienne Klein et Bernard D’Espagnat rajoutaient dans "Regards sur la matière" : "Le quantum, nous le verrons, a une valeur minuscule, mais l’idée du quantum est devenue aussi incontournable qu’un mastodonte. C’est bien la preuve qu’on peut être à la fois fantomatique et esssentiel. Vérité des paradoxes, arguait déjà Zénon d’Elée."

Gilles Cohen-Tannoudji explique dans "Le temps et sa flèche" (ouvrage collectif dirigé par Etienne Klein et Michel Spiro :

"L’inégalité d’Heisenberg marque l’irruption du discontinu là où on ne l’attendait pas, dans les interactions. Alors que le discontinu était accepté dans la matière, puisque c’est essentiellement le fondement de l’hypothèse atomique, on pensait que les interactions relevaient complètement du continu. C’est effectivement la pensée du continu qui constitue le fondement de la théorie de la gravitation universelle de Newton, et la théorie de l’électromagnétisme de Maxwell est une théorie ondulatoire, et quoi de plus continu qu’une onde ou un champ ? Ni la relativité restreinte ni la relativité générale n’y changent rien : en physique classqiue, les interactions relèvent entièrement du continu. or le quantum d’action est fondamentalement un quantum d’interaction : il n’y a pas d’interaction que si est mise en jeu une action au moins égale au quantum d’action. Il faut donc admettre l’idée que, de même qu’il y a des particules élémentaires de matière, les fermions, il doit y avoir des particules élémentaires d’interaction. Et, de fait, il est avéré que les interactions fondamentales sont bien portées, véhiculées, transmises, par d’authentiques particules élémentaires, les bosons. le photon est le boson de l’interaction électromagnétique, les bosons W+, W- et Z° sont les bosons de l’interaction faible et les gluons les bosons de la chromodynamique quantique (l’interaction forte au niveau des quarks)."

La matière/lumière et les quanta

Expériences de physique quantique, le film

La physique quantique, le film

Henri Poincaré dans « Dernières pensées » :

« On ne se demande plus seulement si les équations différentielles de la Dynamique doivent être modifiées, mais si les lois du mouvement pourront encore être exprimées par des équations différentielles. Et ce serait là la révolution la plus profonde que la Philosophie Naturelle ait subie depuis Newton. Le clair génie de Newton avait bien vu (ou cru voir, nous commençons à nous le demander) que l’état d’un système mobile, ou plus généralement celui de l’univers, ne pouvait dépendre que de son état immédiatement antérieur, que toutes les variations dans la nature doivent se faire d’une manière continue. Certes, ce n’était pas lui qui avait inventé cette idée : elle se trouvait dans la pensée des anciens et des scolastiques, qui proclamaient l’adage : Natura non facit saltus ; mais elle y était étouffée par une foule de mauvaises herbes qui l’empêchaient de se développer et que les grands philosophes du XVIIe siècle ont fini par élaguer. Eh bien, c’est cette idée fondamentale qui est aujourd’hui en question ; on se demande s’il ne faut pas introduire dans les lois naturelles des discontinuités, non pas apparentes, mais essentielles (…)

CONCLUSIONS

On voit quel est l’état de la question ; les anciennes théories, qui semblaient rendre compte jusqu’ici de tous les phénomènes connus, se sont heurtées à un obstacle inattendu. Il a semblé qu’une modification s’imposait. Une hypothèse s’est d’abord présentée à l’esprit de M. Planck, mais tellement étrange qu’on était tenté de chercher tous les moyens de s’en affranchir ; ces moyens, on les a vainement cherchés jusqu’ici. Et cela n’empêche pas que la nouvelle théorie soulève une foule de difficultés, dont beaucoup sont réelles et ne sont pas de simples illusions dues à la paresse de notre esprit qui répugne à changer ses habitudes. Il est impossible pour le moment, de prévoir quelle sera l’issue finale ; trouvera-t-on une autre explication entièrement différente ? Ou bien, au contraire, les partisans de la nouvelle théorie parviendront-ils à écarter les obstacles empêchent de l’adopter sans réserve ? La discontinuité va-t-elle régner sur l’univers physique et son triomphe est-il définitif ? »

Louis de Broglie, dans « La physique nouvelle et les quanta » :

« Sans quanta, il n’y aurait ni lumière ni matière et, s’il est permis de paraphraser un texte évangélique, on peut dire que rien de ce qui a été fait n’a été fait dans eux. »

Le physicien Léon Léderman : « Si l’électron est un point, où se trouve la masse, où se trouve la charge ? Comment savons-nous que l’électron est un point ? Peut-on me rembourser ? »

L’électron n’a pas une position fixe : sa charge tremble, sa masse saute d’un point à un autre, son nuage de polarisation interagit avec le voisinage.... Cela définit diverses "dimensions" de l’électron. S’il est capté, il est ponctuel. Sa masse est ponctuelle. Sa charge est ponctuelle. S’il interagit, il est considéré par l’autre objet comme une zone de dimension non nulle. les divers es dimensions ont entre elles un rapport égal à la constante de structure fine alpha. Voilà les résultats de la physique quantique sur la "particule élémentaire".

Qu’est-ce que l’atome, l’élémentaire, l’ « insécable » ? Un nuage de points à de nombreuses échelles ! Ces points sont les particules électrisées, dites virtuelles, qui composent le vide. La propriété de masse de l’électron saute d’une particule virtuelle du nuage à une autre.

La lumière est constituée par deux (ou un nombre pair) particules virtuelles d’électricité opposées.

Le vide, avec ses divers niveaux hiérarchiques, est donc le constituant de base de l’univers matière/lumière.

Le caractère probabiliste de l’électron provient du fait qu’il n’est pas un seul objet mais un ensemble de niveaux emboîtés fondés sur l’agitation du vide.

La propriété de dualité de la particule élémentaire (se comportant à la fois comme un corpuscule et comme une onde) a été l’une des interrogations les plus difficiles de la physique quantique. L’onde et le corpuscule sont deux descriptions très opposées de la réalité et pourtant la matière comme la lumière se sont révélés être à la fois corpusculaires et ondulatoires. A la fois ne signifie pas que l’on peut effectuer en même temps une expérience qui donne les deux résultats. Par contre, dès que l’on effectue une expérience donnant un résultat du type onde, on obtient une onde. Et, à chaque fois que l’on effectue une expérience du type corpuscule, on obtient un corpuscule. De là a découlé une interprétation selon laquelle c’était l’observation par l’homme qui décidait de la nature du réel… En fait, la dualité provient du caractère fractal de la particule. Celle-ci existe à plusieurs échelles. Si l’on mesure à une échelle, on obtient un résultat à cette échelle. On perd, du coup, le résultat trouvé à une autre échelle. Si l’expérience effectue une mesure sur le nuage de polarisation, on obtient un résultat ondulatoire. Si on interagit avec le point matériel, on obtient un résultat corpusculaire qui prouve que l’électron est bien ponctuel et est bien un seul être. Mais cet être existe simultanément aux différents niveaux. Par contre, dès que le corpuscule est capté, dans un temps extrêmement court, le nuage disparaît. En effet, au niveau où se situent les particules virtuelles, la limite de vitesse de la lumière n’a plus cours. C’est la « réduction du paquet d’ondes » qui a tellement compliqué la vie des physiciens quantiques. On peut interpréter ainsi l’ensemble des propriétés, souvent apparemment étranges, de la particule dite élémentaire, l’électron. Les physiciens avaient, depuis longtemps, remarqué qu’il y avait un problème pour en comprendre la nature. Comme le relève Abraham Pais dans « Subtle is the lord », probablement la meilleure biographie d’Einstein, « Tout ce qui reste de ceci (des travaux de Abraham, Lorentz, Poincaré, Einstein,… sur l’auto-énergie de électron), c’est que nous ne comprenons toujours pas ce problème. » Certains physiciens théorisent même l’impossibilité de se le représenter Margenau (1961) : « Les électrons ne sont ni des particules, ni des ondes (…) Un électron est une abstraction, qui ne peut plus être décrite par une image intuitive correspondant à notre espérance de tous les jours mais déterminé au travers de formules mathématiques. » Mais, comme Einstein le disait à Wheeler : « Si je ne peux pas l’imaginer, je ne peux pas le comprendre. » Et Einstein affirmait : « Vous savez, il serait suffisant de réellement comprendre l’électron. » En 1991, la conférence internationale sur l’électron de Antigonish écrivait encore : « Nous sommes réunis ici pour discuter de nos connaissances actuelles sur l’électron. (…) Il est étrange de constater quelle masse énorme de technologie est fondée sur l’électron sans que nous soyons capable de comprendre cette particule. »

Ces remarques provenaient de nombreuses difficultés théoriques pour interpréter les phénomènes observés. L’interprétation qui en est donnée ici est celle du caractère fractal de l’électron. Elle explique notamment les sauts quantiques de la particule et de l’atome. Il y a un saut à chaque interaction entre niveaux de réalité de la particule. Le saut d’échelle explique le saut du phénomène. Par exemple, l’électron ne suit pas une trajectoire, mais saute d’une position à une autre. Cette discontinuité provient du fait que l’électron ne se déplace pas dans un espace continu, mais interagit avec les particules virtuelles du vide. Le « simple » déplacement est déjà le produit de ce caractère fractal. Il en va de même sur les interaction entre particules de matière, entre matière et lumière, et, plus généralement, entre matière et vide. Quant au caractère probabiliste de la particule, si étrange que son découvreur Einstein n’arrivait à l’accepter, il n’existerait pas si on était capable d’étudier simultanément la réalité à toutes les échelles. On a beaucoup disserté sur l’ « incertitude » inhérente à la physique quantique, limite prétendue des capacités de l’homme de connaître le monde ou même, disent certains, preuve que le réalisme matérialiste devrait être abandonné. En fait, c’est bien le caractère fractal du réel qui cause cette indétermination quand on mesure à une échelle. Ce que les physiciens ont remarqué, c’est qu’en mesurant ou raisonnant à une échelle, on ne doit pas chercher à dépasser une certaine précision. Sinon on n’améliore pas notre image, on la détériore mais ils se demandaient pourquoi. On a dit bien souvent que c’était contraire à notre expérience quotidienne et au bon sens. Je ne le crois pas. Quand on lit un texte, on se rapproche un peu pour lire correctement, mais si on se rapproche trop, on voit moins bien. Il y a une échelle favorable pour lire et on ne peut pas lire à la fois à toutes les échelles. De même, on ne peut pas avoir une carte à l’échelle qui permette à la fois d’indiquer plusieurs villes éloignées et les rues de ces villes. Il faut choisir. Est-ce que cela signifie que la carte choisit ce que sera la réalité ? Non, cela signifie seulement que la réalité existe à plusieurs échelles suffisamment différentes pour ne pas pouvoir être examinées simultanément. Le nuage de polarisation qui entoure l’électron est constitué d’éléments d’un monde inférieur qui est le monde des particules virtuelles caractérisées par deux propriétés liées entre elles : pas de masse et pas d’espace-temps tel que nous le connaissons à notre échelle macroscopique ni tel qu’il existe (localement) dans l’environnement d’une masse. Ces particules sont électrisées positivement ou négativement et s’ordonnent dynamiquement autour de l’électron par couches positives et négatives alternativement, écrantant ainsi le champ de la charge électrique à proximité de l’électron. Cela explique qu’aucune charge électrique ne peut s’approcher au point de toucher l’électron. Il y a toujours des couches de particules virtuelles entre deux particules « réelles ». Rappelons une fois de plus que les particules dites virtuelles sont tout aussi réelles que celles dites réelles mais sont situées à un autre niveau de réalité. Elles ne sont pas les seules puisqu’existent à un niveau encore inférieur le « virtuel de virtuel ». Ainsi deux particules virtuelles sont elles-mêmes entourées, à un niveau hiérarchique inférieur, de particules électrisées. Ces mondes ne sont pas seulement emboités. Les niveaux sont interactifs. Et même plus puisque chaque niveau émerge du niveau inférieur. Les particules « réelles » sont des structures portées par des particules virtuelles qui reçoivent un boson de Higgs. Lorsque la particule virtuelle devient porteuse de masse, elle construit autour d’elle un champ d’espace-temps, elle structure l’espace-temps désordonné du niveau virtuel. Le nuage de polarisation tourne du fait du magnétisme par l’action du mouvement de l’électron. C’est ce que l’on appelle le spin de l’électron. Mais les couches positives et négatives ne tournent pas de la même manière car l’électron est chargé négativement. Cela explique qu’il faille de tour pour revenir à la situation de départ, ce que l’on appelle un spin ½. La charge de l’électron est ponctuelle. Sa masse est ponctuelle. Pourtant, les expériences montrent également qu’elles ne sont jamais exactement au même endroit, d’où des propriétés de rotations internes de la structure électron. Cette différence provient du fait que le saut de l’électron ne produit pas la même réaction aux diverses échelles d’espace-temps. La masse bouge plus lentement que les bosons. Elle met plus de temps pour se déplacer. Elle va donc moins loin. Cela produit plusieurs mouvements différents. Le nuage de positions de la charge est beaucoup plus ample que celui de la masse : le rapport appelé « constante de structure fine » est le rapport d’échelle des différents mondes hiérarchiques emboîtés est donc aussi le rapport entre les temps ou les distances. C’est donc aussi le rapport entre les différents « rayons de l’électron ». Alors que la masse tremblote autour de sa position (propriété appelée « zitterbezegung »), la charge s’étend sur toute une zone.

Henri Poincaré écrit dans « Leçons sur le rayonnement thermique » : « L’hypothèse des quanta d’action consiste à supposer que ces domaines, tous égaux entre eux ne sont plus infiniment petits, mais finis et égaux à h, h étant une constante. »

Théorème de Joseph Liouville, rapporté par Jean-Paul Auffray dans « L’atome » : « La densité de points dans le voisinage d’un point donné dans l’extension de phase est constante dans le temps. »

Enoncé de Poincaré, dans « l’hypothèse des quanta » :

« L’énergie est égale au produit de la fréquence par l’élément d’action. (...) Le quantum d’action est une constante universelle, un véritable atome. (...) Un système physique n’est susceptible que d’un nombre fini d’états distincts ; et il saute d’un de ces états à l’autre sans passer par une série continue d’états intermédiaires. (...) l’ensemble des points représentatifs de l’état du système est une région (...) dans laquelle les points sont si serrés qu’ils nous donnent l’illusion de la continuité. (...) ces points représentatifs isolés ne doivent pas être distribués dans l’espace de façon quelconque (...) mais de telle sorte que le volume d’une portion quelconque de matière demeure constant. (...) L’état de la matière pondérable pourrait varier d’une manière discontinue, avec un nombre fini d’états possibles seulement. (...) L’univers sauterait donc brusquement d’un état à l’autre ; mais dans l’intervalle, il demeurerait immobile, les divers instants pendant lesquels il resterait dans le même état ne pourraient plus être discernés l’un de l’autre : nous arriverions ainsi à la variation discontinue du temps, à l’atome de temps. (...) Si plusieurs points représentatifs constituent un domaine élémentaire insécable dans l’extension en phase, alors les états du système que ces points représentent constituent nécessairement, eux aussi, un seul et même état. »

Jean-Paul Auffray dans « L’atome » : « Richard Feynman demandait à son fils : « Lorsqu’un atome fait une transition d’un état à un autre, il émet un photon. D’où vient le photon ? » (…) Dans la terminologie de Feynman, le quantum est un photon virtuel. »

Lochak, Diner et Fargue dans « L’objet quantique » :

« La théorie des quanta s’est développée simultanément de deux manières différentes. La première consiste à mettre en avant l’existence d’états discontinus dans le monde microphysique et de transitions entre ces états. La seconde consiste plutôt à mettre en avant le fait que les propriétés corpusculaires et ondulatoires (…) se trouvent mêlées l’une à l’autre dans tous les domaines. Les deux façons s’imbriquent donc étroitement. (…) Planck introduisit dans la physique un élément de discontinuité, là où la continuité semblait devoir régner. D’après lui, un atome ne pouvait absorber petit à petit, continûment, de l’énergie lumineuse : il ne pouvait le faire que par paquets, par quanta, dont la valeur extrêmement petite, mais quand même finie, était déterminée par une constante qu’il désigna par h : la célèbre constante de Planck. (…) L’hypothèse des quanta voulait dire cette chose étrange que le mouvement des atomes n’évolue pas continûment mais par bonds discontinus : comme si une fusée ne pouvait s’élever progressivement au dessus de la terre vers n’importe quelle orbite et ne pouvait atteindre que certaines orbites particulières en sautant brusquement de l’une à l’autre. »

Louis de Broglie, dans « La physique nouvelle et les quanta » :

« Sans quanta, il n’y aurait ni lumière ni matière et, s’il est permis de paraphraser un texte évangélique, on peut dire que rien de ce qui a été fait n’a été fait dans eux. On conçoit donc quelle inflexion essentielle a subi le cours du développement de notre science humaine le jour où les quanta, subrepticement, s’y sont introduits. Ce jour-là, le vaste et grandiose édifice de la physique classique s’est retrouvé ébranlé jusque dans ses fondements, sans, d’ailleurs, qu’on s’en soit rendu tout d’abord bien compte. (…) Fidèle à l’idéal cartésien, la physique classique nous montrait l’univers comme analogue à un immense mécanisme susceptible d’être décrit avec une entière précision par la localisation de ses parties dans l’espace et leur modification au cours du temps, mécanisme dont l’évolution pouvait en principe être prévue avec une rigoureuse exactitude quand on possédait un certain nombre de données sur son état initial. Mais une telle conception reposait sur certaines hypothèses implicites que l’on admettait presque sans s’en apercevoir. Une de ces hypothèses était que le cadre de l’espace et du temps dans lequel nous cherchons presque instinctivement à localiser toutes nos sensations est un cadre parfaitement rigide et déterminé où chaque événement physique peut, en principe, être rigoureusement localisé indépendamment de tous les processus dynamiques qui s’y déroulent. Dès lors, toutes les évolutions du monde physique sont nécessairement représentées par des modifications des états locaux de l’espace au cours du temps, et c’est pourquoi dans la science classique les grandeurs dynamiques, telles que l’énergie et la quantité de mouvement, apparaissent comme des grandeurs dérivées construites à l’aide du concept de vitesse, la cinématique servant ainsi de base à la dynamique. Tout autre est le point de vue de la physique quantique. L’existence du quantum d’action, sur lequel nous aurons si souvent à revenir dans le cours de cet ouvrage, implique en effet une sorte d’incompatibilité entre le point de vue de la localisation dans l’espace et dans le temps et le point de vue de l’évolution dynamique ; chacun de ces points de vue est susceptible d’être utilisé pour la description du monde réel, mais il n’est pas possible de les adopter simultanément dans toute leur rigueur. La localisation exacte dans l’espace et dans le temps est une sorte d’idéalisation statique qui exclut toute évolution et tout dynamisme ; l’idée d’état de mouvement prise dans toute sa pureté est par contre une idéalisation dynamique qui est en principe contradictoire avec les concepts de position et d’instant. La description du monde physique dans les théories quantiques ne peut se faire qu’en utilisant plus ou moins l’une ou l’autre de ces deux images contradictoires. (…) Il est néanmoins parfaitement légitime de se servir de la cinématique quand on étudie des phénomènes à grande échelle ; mais pour les phénomènes à l’échelle atomique où les quanta jouent un rôle prépondérant, on peut dire que la cinématique, définie comme l’étude du mouvement faite indépendamment de toute considération dynamique, perd complètement sa signification. (…) La mécanique et la physique classiques ont été édifiées pour rendre compte des phénomènes qui se jouent à notre échelle et elles sont aussi valables pour les échelles supérieures, les échelles astronomiques. Mais, si l’on descend à l’échelle atomique, l’existence des quanta vient limiter leur validité. Pourquoi en est-il ainsi ? Parce que la valeur du quantum d’action mesurée par la fameuse constante de Planck est extraordinairement petite par rapport à nos unité usuelles, c’est-à-dire par rapport aux grandeurs qui interviennent à notre échelle. (…)

Les équations de la dynamique classique du point matériel expriment que le produit de la masse du point matériel par l’une quelconque des composantes rectangulaires de son accélération est égale à la composante correspondante de la force. (…) Ce résultat exprime que la dynamique classique du point matériel est entièrement en accord avec le postulat du déterminisme physique, postulat selon lequel l’état futur du monde matériel doit être entièrement prévisible quand on possède un certain nombre de données sur son état présent. Une autre remarque est intéressante à faire ici. Le point matériel étant supposé ponctuel, sa trajectoire est une ligne qui n’explore dans l’espace à trois dimensions qu’un continu à une dimension. (…) Il n’explore le champ de force que le long de sa trajectoire. (…) En mécanique classique, les accidents topologiques qui peuvent exister dans l’espace à des distances finies de la trajectoire d’un point matériel ne peuvent aucunement influer sur son mouvement. Plaçons, par exemple, sur la trajectoire d’un point matériel, un écran percé d’un trou. Si la trajectoire passe vers le centre du trou, elle ne sera aucunement perturbée par l’accident topologique que constitue la présence de l’écran. (…) Il est inconcevable, en mécanique classique, que le mouvement du point matériel traversant le trou en question dépende du fait qu’il y ait ou pas d’autres trous dans l’écran. L’on comprend tout de suite l’importance de ces remarques pour une interprétation corpusculaire de l’expérience des trous de Young et l’on pressent que la mécanique ondulatoire doit apporter de nouveau sur ce point. (…) Les ondulations lumineuses traversant sans difficulté les espaces vides, ce n’est pas la matière qui les transmet. Quel est donc le support de ces ondes, quel est le milieu dont la vibration constitue la vibration lumineuse ? Telle est la question qui se posait aux protagonistes de la théorie des ondulations. (…) L’éther envisagé comme un milieu élastique doit être un milieu infiniment plus rigide que l’acier car il ne peut transmettre que des vibrations transversales et cependant ce milieu si rigide n’exerce aucun frottement sur les corps qui le traversent et ne freine aucunement le mouvement des planètes. (…) Après avoir montré que le rotationnel du champ magnétique est égal à la densité du courant électrique, donnant ainsi naissance à l’électromagnétisme, (…) Maxwell, après avoir écrit les lois générales des phénomènes électriques, s’aperçut de la possibilité de considérer la lumière comme une perturbation électromagnétique. Par là, il a fait rentrer toute la science de l’optique à l’intérieur des cadres de l’électromagnétisme, réunissant ainsi deux domaines qui semblaient entièrement distincts. (…) La théorie électromagnétique de Maxwell fournissait des équations représentant exactement à notre échelle la liaison entre les champs électromagnétiques mesurables d’une part, les charges et les courants électriques d’autre part. Obtenues en réunissant en un seul système formel le résultat des expériences macroscopiques, leur valeur était incontestable dans ce domaine. Mais pour décrire le détail des phénomènes électriques au sein de la matière et à l’intérieur des atomes, pour prévoir les rayonnements émis ou absorbés par les particules matérielles ultimes, il fallait extrapoler les équations de Maxwell et leur donner une forme applicable à l’étude des phénomènes de l’échelle atomique et corpusculaire. C’est ce que fit, avec plus de hardiesse qu’il ne peut paraître au premier abord, un des grands pionniers de la physique théorique moderne, H.A. Lorentz.

Lorentz prit comme point de départ l’idée d’introduire dans les équations de l’électromagnétisme la structure discontinue de l’électricité. (…) En opérant des moyennes sur les phénomènes microscopiques élémentaires, on peut repasser des équations de Lorentz aux équations de Maxwell. (…) La théorie des électrons, édifiée sur les bases que nous venons d’esquisser, a conduit à d’importants succès pour la prévision d’un grand nombre de phénomènes. Elle a d’abord permis de retrouver l’interprétation des lois de la dispersion. Elle a ensuite, et cela a été sans doute son plus important succès, permis de prévoir d’une façon exacte l’effet Zeeman normal, c’est-à-dire la façon dont les raies spectrales émises par un atome sont affectées dans le cas le plus simple par la présence d’un champ magnétique uniforme. (…) La théorie des électrons a aussi paru apporter la solution d’un problème capital : l’origine de l’émission des rayonnements par la matière. D’après les équations de Lorentz, un électron animé d’un mouvement rectiligne et uniforme transporte avec lui globalement son champ électromagnétique et, par suite, il n’y a dans ce cas aucune émission d’énergie dans l’espace environnant. Mais si le mouvement d’un électron comporte une accélération, on peut démontrer qu’il y a émission d’une onde électromagnétique et l’énergie ainsi perdue à chaque instant par l’électron est proportionnelle au carré de son accélération. (…) Si l’on veut interpréter le rayonnement des atomes par le mouvement des électrons intra-atomiques, il faut supposer qu’à l’état normal les électrons intérieurs à l’atome sont immobiles ; sans quoi, obligés de se mouvoir à l’intérieur du très petit domaine de l’atome, ils seraient forcément animés de mouvements très accélérés et émettraient constamment de l’énergie sous forme de rayonnement, ce qui serait contraire à l’idée même de stabilité de l’atome. (…)

L’origine de la théorie des quanta est dans les recherches faites vers 1900 par M. Planck sur la théorie du rayonnement noir. (…) Si l’on considère une enceinte maintenue à température uniforme, les corps maintenus dans cette enceinte émettent et absorbent du rayonnement et il finit par s’établir un état d’équilibre (…) Kirchoff a montré que cet état d’équilibre est unique et correspond à une composition spectrale parfaitement déterminée du rayonnement enfermé dans l’enceinte. De plus, la composition de ce rayonnement dépend uniquement de la température de l’enceinte. (…) Il est souvent appelé du nom assez incorrect de « rayonnement noir » correspondant à cette température. (…) M. Planck avait commencé par reprendre l’étude de la question en imaginant que la matière est formée d’oscillateurs électroniques, c’est-à-dire d’électrons susceptibles d’osciller autour d’une position d’équilibre sous l’action d’une force proportionnelle à l’élongation. (…) M. Planck put apercevoir que l’inexactitude de la loi de Rayleigh provient du rôle trop grand que jouent, dans l’image classique des échanges d’énergie entre oscillateurs et rayonnement, les oscillateurs de haute fréquence. (…) M. Planck a eu alors l’idée géniale qu’il fallait introduire dans la théorie un élément nouveau, entièrement étranger aux conceptions classiques, qui viendrait restreindre le rôle des oscillateurs de haute fréquence, et il a posé le fameux postulat suivant : « La matière ne peut émettre l’énergie radiante que par quantités finies proportionnelles à la fréquence. » Le facteur de proportionnalité est une constante universelle, ayant les dimensions d’une action mécanique. C’est la célèbre constante h de Planck. Mettant en jeu cette hypothèse d’aspect paradoxal, Planck a repris la théorie de l’équilibre thermique et trouvé une nouvelle loi de répartition spectrale du rayonnement noir à laquelle son nom est resté attaché. (…)

Peu à peu, l’importance fondamentale de l’idée de Planck apparut. Les théoriciens s’aperçurent que la discontinuité traduite par l’hypothèse des quanta est incompatible avec les idées générales qui servaient jusqu’alors de bases à la physique et exigeait une révision complète de ces idées. (…) Pour trouver une forme générale de sa théorie, Planck a dû renoncer à l’hypothèse primitive des quanta d’énergie et lui substituer l’hypothèse des quanta d’action (produit d’une énergie par un temps ou d’une quantité de mouvement par une longueur)

(...) Mais la méthode de quantification de Planck ne s’appliquait qu’aux mouvements pour la description desquels une seule variable suffit. (...) D’autre part, si la théorie électromagnétique sous la forme de Lorentz était réellement applicable aux particules élémentaires d’électricité, elle permettrait de calculer sans aucune ambiguïté les rayonnements émis par un atome du modèle planétaire de Rutherford-Bohr. (...) l’atome perdant constamment de l’énergie sous forme de radiation, ses électrons viendraient tous très rapidement tomber sur le noyau et la fréquence des rayonnements émis varierait constamment d’une façon continue. l’atome serait instable et il ne pourrait exister des raies spectrales à fréquences bien définies, conclusions absurdes. Pour éviter cette difficulté essentielle, M. Bohr a admis que l’atome dans ses états stationnaires ne rayonne pas, ce qui revient à nier la possibilité d’appliquer la théorie électromagnétique du rayonnement au mouvement orbital des électrons sur leurs trajectoires stables. (..) Bohr a résolu la question des fréquences des raies spectrales grâce à l’hypothèse que chaque transition entre états quantifiés s’accompagne de l’émission d’un quantum d’énergie radiante. (...) En d’autres termes, d’après la théorie quantique, l’émission des raies spectrales d’un corps simple est discontinue et procède par actes individuels isolés. »

Louis de Broglie, dans « Nouvelles perspectives en Microphysique »

« En 1927, je la considérais (l’onde pilote, dite « onde de Broglie ») comme une solution avec singularité des équations linéaires admises par la Mécanique ondulatoire pour l’onde Phi (onde dite « de probabilité de présence » par la physique quantique). Diverses considérations, et en particulier le rapprochement avec la théorie de la Relativité générale, m’ont fait penser que la véritable équation de propagation de l’onde de Broglie pourrait être non-linéaire comme celles que l’on rencontre dans la théorie de la gravitation d’Einstein, équation non-linéaire qui admettrait comme forme approximative l’équation linéaire de la Mécanique ondulatoire quand les valeurs de l’onde de Broglie seraient assez faibles. (…) Malheureusement ce changement de point de vue ne facilite pas la résolution des problèmes mathématiques qui se posent car, si l’étude des solutions à singularités des équations linéaires est souvent difficile, celle des solutions des équations non-linéaires est plus difficile encore. (…) Einstein a beaucoup insisté sur une propriété importante des équations non-linéaires. Si les équations d’un certain champ sont linéaires, on peut toujours trouver une solution à singularités de ces équations telle que la singularité ait un mouvement prescrit à l’avance. On pourra d’ailleurs ajouter à la solution à singularité une solution continue et cette adjonction n’aura aucune influence sur le mouvement de la singularité. Il n’en est plus du tout de même si les équations du champ sont non linéaires car on ne peut plus alors obtenir une solution en ajoutant plusieurs solutions : la non-linéarité crée une sorte de solidarité entre des solutions qui auraient été indépendantes si l’approximation linéaire avait été valable partout. Cette non linéarité explique que la singularité et l’onde de Broglie ne soient pas indépendantes comme elles le seraient s’il y avait linéarité et qu’elles restent en phase. (…) De plus, la non-linéarité, peu sensible dans le corps du train d’ondes, peut réapparaître sur leurs bords où les groupes de dérivées de l’onde de Broglie pourrait prendre de grandes valeurs ; il y a là aussi une circonstance qui peut s’opposer à l’étalement des trains d’ondes. Il apparaît donc qu’une théorie non linéaire des ondes de Broglie pourrait permettre d’obtenir des « groupes d’ondes sans étalement » représentant par exemple un corpuscule qui se déplacerait d’un mouvement rectiligne et uniforme sans perdre son onde (…) Nous avons vu que dans la théorie des ondes de Broglie, comme dans l’interprétation relativiste de la gravitation, la non-linéarité des équations de base doit jouer un rôle essentiel et seul pouvoir expliquer la solidarité de l’onde et du corpuscule. Nous sommes actuellement arrivés à l’image suivante. Un train d’ondes de Broglie, constituant un corpuscule au sens large du mot, serait une sorte d’unité étendue et organisée, un peu analogue à une « cellule » dans l’acception biologique du terme. Il comprendrait en effet essentiellement les trois parties suivantes : 1° une sorte de noyau, la région singulière, le corpuscule au sens étroit du mot, siège de phénomènes essentiellement non linéaires ; 2° une région environnante étendue, siège d’un phénomène sensiblement linéaire ; 3° une enveloppe constituant les bords des trains d’ondes où la non-linéarité jouerait peut-être à nouveau un rôle important. Or, ce me semble être l’intervention des phénomènes non linéaires qui donnerait à cette « cellule » son unité, sa solidarité et sa permanence. S’il est vrai que la non-linéarité soit la véritable clef de la Microphysique corpusculaire, on comprend aisément pourquoi la Physique quantique actuelle n’est pas parvenue à écrire le dualisme onde-corpuscule et a dû se contenter d’une description uniquement statistique et probabiliste des phénomènes de l’échelle atomique. Prenant a priori pour base des équations linéaires et ne sortant pas du domaine de l’analyse linéaire, la théorie actuelle fait disparaître les accidents locaux dus à la non-linéarité (tels que les régions singulières et éventuellement les bords abrupts de trains d’ondes), elle efface ainsi les structures corpusculaires et, incapable de saisir la véritable relation entre onde et corpuscule, elle ne peut plus aboutir qu’à des images continues à caractère statistique. (…) L’onde continue (…) ne comportant aucune région singulière (…) ne décrit pas vraiment la réalité physique. »

SITE : matière et révolution

www.matierevolution.fr

Sommaire du site

Pour nous écrire, cliquez sur Répondre à cet article

Sur la discontinuité, lire aussi sur le site :

La discontinuité, une question philosophique

Qu’est-ce que la continuité ?

La discontinuité, une vieille question

L’illusion du continu

Continuité du vivant ?

Le quanta, ou la mort programmée du continu en physique

Pourquoi la notion de continu fait de la résistance ?

La continuité, une propriété mathématique ?

Continuité et discontinuité sont incompatibles

Discontinuité de l’univers et structures hiérarchiques

La discontinuité de la vie : de la création d’espèces à la création de l’homme et à la création humaine

Les paradoxes de Zénon, preuve de la discontinuité dialectique

Psychisme et discontinuité


"La manifestation des phénomènes énergétiques, s’effectuant par sauts ou paliers, est essentiellement discontinue".

Max Planck

Le gradualisme a reçu des chocs majeurs, en évolutionnisme avec la découverte des explosions de biodiversité des plans d’organisation comme à Burgess et à Ediacara, en structure de la matière avec la notion d’atome, d’agitation moléculaire et, en physique, avec la découverte par Faraday du nombre entier de lignes de flux du champ électrique traversant une surface, et surtout, avec, en microphysique, l’invention par Planck et Einstein des quanta – notion discontinue par excellence -, ainsi que l’étude des « transitions de phase » [1] en macrophysique permettant de sauter d’un état dans un autre et, enfin, le développement des connaissances sur la radioactivité naturelle montrant que les sauts de la matière microscopique ont des conséquences à notre échelle. Ces deux domaines des sciences (évolution de la vie et physique) qui étaient obligés de reconsidérer leur vision continue de l’univers allaient être suivis de nombreux autres. A chaque fois, il s’agissait de revenir à des nombres entiers d’unités, à des concepts discrets, à des phénomènes décrits comme des discontinuités. Les notions même d’espèce, d’ADN, de gène, de molécule, d’atome, de particule signalent de la même manière cette discontinuité fondamentale. On a une particule, un atome, une molécule, un nombre entier de ceux-ci. Sinon rien. Un quanta ou deux quanta, pas de terme intermédiaire. Un élément chimique ou un autre sans continuité entre eux. Réalisant le rêve des alchimistes, on sait aujourd’hui passer d’un élément à un autre de la classification de Mendeleïev, mais le passage est un saut : fusion ou fission nucléaire. Dans « La Recherche » de juillet 1970, Jacques Ruffié exposait « Le gène, élément discontinu ». La raison de fond de cette discontinuité est somme toute très simple : on n’a plus affaire qu’à des nombres entiers (de particules ou d’interaction). Ceux-ci ne peuvent décrire une réalité continue mais, au contraire, discrète. Ainsi, il n’y a pas toute une série d’étapes intermédiaires, très petites, qui précèdent l’émission radioactive brutale, l’explosion nucléaire ni le choc matière/antimatière qui sont tous des discontinuités. Il n’y en a pas non plus qui anticipent l’émission d’un photon par un atome ou par une particule de matière. Il en va de même lors de l’arrachage d’un électron à une molécule par un photon suffisamment énergétique (effet photoélectrique découvert et analysé par Einstein). Et, l’idée même de quanta de matière et de lumière a choqué par le caractère discontinu et non-linéaire de la causalité qu’ils découvraient. Citons par exemple le rapport d’Einstein au premier conseil de physique Solvay de 1911 : « Le résultat du paragraphe précédent peut se résumer ainsi : quand un corps échange de l’énergie par un mécanisme quasi périodique de fréquence µ, les propriétés statistiques du phénomène sont les mêmes que si l’énergie se déplaçait par quanta entiers de grandeur h fois µ. (...) Ces discontinuités qui rendent la théorie de Planck si difficiles à accepter semblent vraiment exister dans la nature. »

La principale découverte de la physique quantique en matière de discontinuité n’est pas le caractère discontinu de la matière ou de la lumière (les quanta). L’idée atomique la contenait déjà. C’est la découverte que les phénomènes fondamentaux de la matière sont fondés sur des sauts. Par exemple, l’électron saute brutalement d’un niveau à un autre de l’atome. S’il n’en était pas ainsi, l’électron rayonnerait de l’énergie et finirait pas chuter sur le noyau de l’atome. De nombreuses expériences comme l’émission de lumière par l’atome ou le choc de matière et de lumière ne peuvent s’expliquer que par un saut quantique. La discontinuité concerne non seulement la matière et la lumière mais aussi l’énergie et le mouvement. Ils sont tout aussi fondamentalement discontinus. Plus l’interaction concerne une importante quantité d’énergie, plus le caractère brutal et révolutionnaire du changement apparaît. Heisenberg rapporte ce dialogue dans « La partie et le tout, Le monde de la physique atomique » : Bohr : « Nous savons déjà depuis vingt-cinq ans ce que signifie la formule de Planck. Nous voyons les discontinuités, les bonds, dans les phénomènes atomiques de façon très directe, par exemple sur un écran à scintillation ou dans une chambre de Wilson. Nous voyons un éclair se manifestant brusquement sur l’écran, ou encore le passage brusque d’un électron à travers la chambre de Wilson. Vous ne pouvez pas tout simplement ignorer ces phénomènes discontinus et faire comme s’ils n’existaient pas. » Schrödinger : « Si ces damnés sauts quantiques devaient subsister, je regretterais de m’être jamais occupé de théorie quantique. »

Dans « Regards sur la matière », le physicien Etienne Klein rapporte le changement de point de vue qu’a représenté cette nouvelle physique : « Les calculs de Planck montrent que les échanges d’énergie électromagnétique sont portés par des grains, alors qu’on les croyait continus. Voilà la vraie révolution, qui ébranle la conviction que les physiciens avaient depuis Newton, selon laquelle on peut faire tendre une force vers zéro. (...) Max Planck fut extrêmement perturbé par sa propre conclusion. Il mit des années à accepter qu’il pouvait s’agir de quelque chose de plus profond qu’un simple artefact mathématique. C’est « dans le désespoir » (Max Planck, Physikalche Abhandlungen) qu’il vécut la perte – qui allait suivre – des instruments anciens de la raison et leur remplacement par des idées neuves. Sa constante injectait de la discontinuité dans des processus qui avaient toujours été perçus comme étant fondamentalement continus. (...) Planck fut aussi choqué que si on lui avait dit, par exemple, que la température d’un radiateur pouvait passer de dix à vingt degrés sans passer par aucune température intermédiaire ! Pourtant, il fallut bien se rendre à l’évidence (qui n’en était pas un) : le concept de continuité n’est pas un absolu. C’est à Planck que revient le mérite d’avoir porté le premier « une-deux » contre la continuité. (...) En 1905, Einstein conclut le « une-deux » de Planck par un uppercut décisif : il attribue au rayonnement lui-même, et non plus seulement aux seuls échanges d’énergie, une structure corpusculaire. Le rayonnement, essentiellement discontinu, est, d’après lui, formé d’un ensemble de corpuscules transportant chacun un quantum d’énergie. (...) Comment décrire le déroulement du processus d’émission (d’un photon par atome qui saute d’un état à un autre) si le champ rayonné sait d’avance ce que sera l’état final de l’atome ? A cette question, Bohr répondra qu’il faut renoncer à décrire le processus d’émission comme une histoire qui se déroule continûment dans le temps : il s’agit plutôt d’un bond, d’un « saut quantique », qu’il faut prendre comme un tout, sans chercher à l’analyser en étapes successives. »

L’exemple le plus connu d’intrusion brutale des concepts discontinus est bien la physique quantique. C’est même un problème de discontinuité qui lui a donné naissance : Planck avait constaté que la continuité était incompatible avec l’émission du corps noir, pourtant considérée jusque là comme un phénomène ondulatoire continu. « Les phénomènes du monde quantique ne sont pas continus mais abrupts. C’est pour cela qu’on les appelle « quantiques », d’un mot qui s’oppose à « continu ». Certains phénomènes ont lieu d’un coup, sans transition, comme par exemple l’émission d’un photon de lumière par l’atome. » expliquent les physiciens Georges Charpak et Roland Omnès dans « Soyez savants, devenez prophètes ». C’est l’existence de tels changements brutaux ayant lieu de façon discrète (unité par unité, sans fractionnement de l’unité), qui a amené la découverte des quanta. Les phénomènes quantiques, comme l’effet tunnel, l’effondrement du paquet d’ondes ou le saut quantique, sont inexplicables par une philosophie du continu.

Les physiciens Georges Lochak, Simon Diner et Daniel Fargue retracent ainsi dans « L’objet quantique » ce changement radical : « L’hypothèse des quanta voulait dire cette chose étrange que le mouvement des atomes n’évolue pas continûment mais par bonds discontinus : comme si une fusée ne pouvait s’élever progressivement au dessus de la Terre vers n’importe quelle orbite et ne pouvait atteindre que certaines orbites particulières en sautant brusquement de l’une à l’autre. (...) Einstein avait émis en 1905, à, partir des travaux de Planck, une hypothèse encore plus paradoxale que la sienne : il suppose que si les atomes absorbent et émettent l’énergie lumineuse par paquets, par quanta, c’est que ces quanta se trouvent déjà dans la lumière autrement dit les ondes lumineuses continues transportent leur énergie sous forme discontinue, concentrée dans des corpuscules de lumière, qu’on appelle photons. » Le quanta est la quantité minimale pour tout être physique du monde matière/lumière. Cela signifie que l’on ne peut passer que de un à deux, trois ou quatre … quanta. Il n’y a pas de quantité intermédiaire. Mais la physique quantique ne se contente pas de quantifier les objets, les particules et les ondes. Elle les mêle et, du coup, unifie l’univers par la discontinuité générale. Ainsi, elle permet de définir un temps minimum, le temps de Planck, et un espace minimum, la longueur de Planck. Il est impossible de rapprocher deux masses de moins de 10-33 cm et deux instants de moins de 10-43 secondes. La continuité de l’espace-temps n’est plus une image valable de l’univers. Le meilleur exposé du caractère novateur de cette nouvelle physique vient sans doute de son auteur. « Les postulats primitivement considérés comme la base évidente de toute théorie sérieuse furent remis en question plus tard (...) : le postulat de l’invariabilité des atomes, celui de l’indépendance réciproque du temps et de l’espace et celui de la continuité de toutes les actions dynamiques. » écrit le physicien Max Planck dans « Initiation à la physique ».

Avec la physique quantique, la discontinuité est devenue une propriété fondamentale de la matière. « L’hypothèse des quanta conduit à admettre qu’il y a dans la nature des phénomènes n’ayant pas lieu d’une manière continue mais brusquement et, pour ainsi dire, explosivement. » écrit le physicien Max Planck dans « Initiation à la physique ». « C’est pour essayer de retrouver la vérité sur des faits aussi simples mais fondamentaux que Planck introduisit dans la physique un élément de discontinuité là où la continuité semblait devoir régner. (...) L’hypothèse des quanta voulait dire cette chose étrange que le mouvement des atomes n’évolue pas continûment mais par bonds, et par bonds discontinus. » remarquent les physiciens Georges Lochak, Simon Diner et Daniel Fargue dans « L’objet quantique ». Autrefois, il y avait les corpuscules, existant un par un, de manière discontinue et les ondes, étendues et continues. En microphysique, que reste-t-il de ces images : rien. Les particules ne sont plus des objets exactement localisés et les ondes ne sont pas des ondes de type électromagnétique mais des ondes de probabilité de présence de la particule discrète. Résultat, le continu n’a plus de réalité physique. L’onde électromagnétique est elle aussi fondée sur des particules et des couples particules/antiparticules du vide, discontinus donc même si l’onde de probabilité rend floue leur point de présence. Partout on rencontre ces grains que l’on appelle discrets. L’expression ne réfère pas à leur timidité mais à leur caractère fondamentalement discontinu, existant seulement par unités entières, des grains. Il n’y a pas deux grains accolés. Ils ne peuvent même pas se toucher. Les états de ces grains sont également discrets. Cela signifie qu’un état ne suit pas exactement l’état voisin. Il y a un saut [2] entre les deux car les états intermédiaires sont impossibles. La révolution des quanta (ces grains discrets) touche aussi bien la matière que la lumière (sous le vocable duquel on entendra toujours l’ensemble des rayonnements électromagnétiques). La lumière se révèle elle-même constituée de nombres entiers de quanta. Ce sont des grains appelés les photons. Là encore le choc est fondamental. Finies les ondes continues ! On capte la lumière dans des appareils qui enregistrent les arrivées. Un grain puis un autre, etc… Même dans des expériences d’interférences, réputées caractéristiques de phénomènes ondulatoires continus, le physicien Feynman remarque que l’écran ne reçoit les photons qu’un par un. L’interférence n’est pas continue mais le produit collectif d’interactions individuelles. Alain Boutot souligne cet aspect granulaire et discret dévoilé par la physique quantique : « Dans le cadre de la physique quantique, les formes d’interaction ne se propagent pas sous forme d’ondes, mais par l’intermédiaire de particules qu’on appelle les « quanta de l’interaction ». Plus précisément, un système interagit avec un autre en échangeant avec lui une (ou plusieurs) particules d’un genre bien défini, variable selon le type de l’interaction. (...) Les photons sont ce que l’on appelle les quanta de l’interaction électromagnétique. (...) La fécondité du concept de quantum du champ électromagnétique a, en effet, incité les physiciens à supposer que toutes les interactions étaient véhiculées par des quanta appropriés. (...) C’est ainsi que le physicien japonais Yukawa a postulé en 1935 l’existence d’un quantum, le méson, qui serait responsable de l’interaction forte, et donc de la cohérence des nucléons. A la fin des années 1930, le physicien O Klein étendit le modèle de Yukawa aux interactions faibles. Il supposa que l’interaction faible, responsable des transitions béta, mettait en jeu des bosons lourds chargés W- et W+ qui étaient échangés par les particules en interaction. »

Avec la physique relativiste, on a appris qu’aucune interaction ne peut aller plus vite que la lumière et qu’il n’y a jamais de relation immédiate entre deux objets de type matière ou lumière. Il faut un temps d’interaction. La transmission instantanée d’information n’existe pas. Il y a toujours un décalage. L’interaction est donc discontinue, car il n’existe pas d’objet s’étendant dans tout l’espace. Le continu n’est qu’une illusion. Dans la nature, il ne peut y avoir une série de valeurs successives d’un paramètre décrivant une dynamique qui soient toutes les valeurs numériques successives. Une telle situation signifierait que le paramètre en question s’établirait par une action immédiate, sans aucune médiation, et ne nécessitant aucune énergie, ce qui est impossible. Du moment que l’établissement de la valeur du paramètre provient d’une interaction, il nécessite un temps et aussi un temps de relaxation, c’est-à-dire un temps pendant lequel cette action ne peut plus être réalisée. Quelle en est la cause ? La réalisation d’une valeur d’un paramètre est l’établissement d’un ordre, d’une cohérence. Cela nécessite l’établissement autour d’un désordre en vertu des échanges d’entropie. L’établissement d’un paramètre d’ordre ne peut donc être continu. La physique quantique n’a fait que redécouvrir à son échelle cette constatation qui existe en fait à toutes les échelles. La mesure en un point d’un quanta nécessite un temps inversement proportionnel à l’énergie dépensée. Le quanta est donc le produit d’un temps et d’une énergie. Plus on veut détecter un quanta dans un temps court, plus il faut d’énergie. C’est l’inégalité bien connue d’Heisenberg. Elle indique qu’à chaque niveau on ne peut descendre en dessous d’une valeur minimale sans changer d’univers. Si la première version de cette physique avait conclu à un univers flou, il semble bien que l’interprétation à retenir soit plutôt un univers hiérarchique, avec passage par interaction d’une échelle à une autre.

Cette inégalité, d’une importance considérable en physique quantique, indique le caractère fondamentalement discontinu de l’univers que le physicien Cohen-Tannoudji appelle espace-temps-matière. Par exemple, en exposant que le produit du temps et de l’énergie ne peut descendre en dessous d’un minimum, elle ne permet de définir que des intervalles de temps aussi petit que l’on veut mais jamais infiniment petits. Voilà de quoi détruire la notion de continuité du temps fondée sur des intervalles de plus en plus petits. Il est physiquement impossible de concevoir un temps continu. Et ce pour deux raisons. Premièrement, il n’y a pas d’intervalles de plus en plus petits en temps. Cela nécessiterait, inversement, des énergies de plus en plus grandes, du fait de l’inégalité d’Heisenberg. Il n’y a pas non plus de temps ponctuel car cela nécessiterait cette fois une énergie infinie. En fait, quand on veut diminuer le temps, il faut changer de niveau d’univers. Au dessus du temps de Planck, nous sommes dans l’univers de la matière/lumière. En dessous, nous sommes dans le vide quantique. Et dans ce dernier, nous trouvons, plusieurs niveaux également : virtuel, virtuel de virtuel, etc… La représentation linéaire de la droite du temps n’est donc plus valable, car elle laisse entendre que le petit intervalle est simplement une fraction du grand. En fait, il y a des seuils avec changement qualitatif. Quand on dépasse ces limites, on entre dans un autre monde qui est plus … grand en énergie. D’où le fait que le monde des interactions très rapides nous soit très peu perceptible alors qu’il nécessite des énergies énormes. Le bon sens laissait entendre que l‘on perçoit d’autant mieux les phénomènes les plus énergétiques. Il en résulte que l’on ne peut pas agrandir l’intervalle pour aller regarder ce qui se passe aux petites échelles du temps. Au lieu de l’agrandissement, nous sommes contraints à l’agraindissement, comme dans tout domaine discontinu. C’est le cas d’une photographie qui est imprimée dans un journal. On ne peut que choisir le grain mais, de toutes les manières, on n’aura qu’une image fondée sur des points. Et encore, des points qui ne sont pas ponctuels, pas précis et plutôt approximatifs, des espèces de nuages de points. Tel est le réel, à petite comme à grande échelle.

Le quanta n’est donc pas un objet comme on l’entendait, c’est-à-dire défini par une position, une énergie, une vitesse définis avec une précision infinie. Sa caractéristique est le multiple entier d’une quantité élémentaire d’action appelée l’action ou la constante de Planck. Cela semble facile mais c’est très dérangeant. Au lieu de se mouvoir d’un point à un autre, la nature saute d’un, de deux, de trois quanta. Au lieu de tourner gentiment sur lui-même à une certaine vitesse, le corpuscule tourne d’un quanta, de deux, de trois, par crans successifs. Comment concevoir un objet qui tournerait de la même quantité autour de n’importe quel axe et par à coups d’un nombre entier de fractions de tours [3] ? Toute quantité qui semble évoluer continûment doit être produite par des sauts discontinus de la quantité d’action par augmentation ou diminution d’un nombre entier de la même quantité d’action. L’univers n’est pas le mouvement d’objets fixes. Ces « objets » qu’on disait élémentaires et en mouvement [4] ne sont eux-mêmes que du mouvement [5]. Il ne peut y avoir échange entre onde et corpuscule, deux identités aussi différentes, que si elles sont composées d’un même élément et c’est le mouvement. Or tout mouvement est une rupture, un saut !

Dans « Physique quantique et représentation du monde », le physicien Erwin Schrödinger résumait ainsi le bouleversement conceptuel de la physique quantique : « En partant de nos expériences à grande échelle, les physiciens en étaient arrivés (...) à formuler le postulat de la continuité de la description. C’est ce postulat de la continuité qui apparaît ne pas pouvoir être satisfait ! (...) C’est cette habitude de penser que nous devons rejeter. (...) En 1913, Bohr fut amené à supposer que l’atome passe brusquement d’un état à l’autre, et que, au cours d’une telle transition, il émet un train d’ondes lumineuses (...) Les faits observés ne peuvent donc pas être mis en accord avec une description continue dans l’espace et le temps. (...) Nos difficultés actuelles en physique sont liées aux difficultés conceptuelles bien connues qui s’attachent à l’idée du continu. (...) Si l’on considère le développement de la physique au cours du dernier demi-siècle, on a l’impression que la vision discontinue de la nature nous a été imposée en grande partie contre notre volonté. Nous paraissons être entièrement satisfaits du continu. Max Planck fut sérieusement effrayé par l’idée d’un échange discontinu qu’il avait introduite (1900) pour expliquer la distribution de l’énergie dans le rayonnement du corps noir. Il fit de grands efforts pour affaiblir son hypothèse et pour l’éliminer dans la mesure du possible mais ce fut vain. Vingt-cinq ans plus tard, les inventeurs de la mécanique ondulatoire entretinrent pendant un certain temps avec la plus grande ardeur l’espoir d’avoir préparé la voie à un retour de la description classique continue, mais de nouveau cet espoir fut déçu. La nature elle-même semblait rejeter une description continue (...). »

Pourquoi cette réticence si grande et durable à accepter ce que montrait l’expérience : la discontinuité ? La raison de fond réside dans les préjugés sociaux. La continuité est reliée à celle de progrès social et de stabilité alors que celle de discontinuité est reliée à celle de crise et de révolution. Prenons à témoin un géographe et un historien. « Certains considèrent la discontinuité comme l’application à l’espace de la notion de crise. La discontinuité géographique présente en effet dans l’espace les mêmes propriétés que la crise dans le temps. Si l’on se place du point de vue d’un observateur qui se déplace dans l’espace, c’est une « catastrophe » qui se produit en un lieu de faiblesse sous l’effet d’un catalyseur. Son apparition résulte très souvent d’avantage de processus internes au système (discontinuités endogènes) que de perturbations extérieures (discontinuités exogènes) »explique le géographe Jean-Claude François dans « Discontinuités territoriales et mise en évidence de système spatiaux ». Quant à l’historien Eric J. Hobsbawm dans « L’âge des extrêmes », il affirme que « Au 19ème siècle, siècle d’amélioration et de progrès bourgeois, la continuité et le gradualisme avaient dominé les paradigmes. Quelque soit le mode de locomotion de la nature, il ne faisait aucune place au saut. Le changement géologique et l’évolution de la vie sur terre avaient progressé sans catastrophes, par infimes accroissements (incréments) (...) La science du 20ème siècle a élaboré une image du monde très différente. »

Malgré ces obstacles intellectuels, culturels et sociaux, il a bien fallu admettre que la nature est discontinue. L’étude de la microphysique a particulièrement représenté un changement dans le sens de la discontinuité et des sauts brutaux. En étudiant la matière à petite échelle de l’espace, on a constaté les particularités étonnantes du passage d’échelle. Le phénomène se produisant en un temps long n’est pas la somme de petits phénomènes se produisant dans des fractions courtes de ce temps long. Il n’y a pas, à l’échelon supérieur, addition des propriétés de l’échelon inférieur. Chaque échelon n’est pas non plus indépendant. L’interaction a lieu dans les deux sens et pourtant les deux niveaux obéissent à des lois différentes. A petite échelle, on remarque des sauts (les fameux « sauts quantiques ») que l’on ne constate pas à grande échelle (l’échelle dite macroscopique qui correspond au monde tel que nous le voyons). A notre échelle, nous constatons d’autres types de sauts, par exemple de l’atome à la molécule, de la planète à l’étoile… Il n’y a pas toute une série d’étapes de la planète à l’étoile. Les sauts ont lieu d’un état à un autre, d’une structure à une autre, d’une position à une autre, d’une loi à une autre. Aussi étonnant et dérangeant que cela puisse paraître, une particule ne passe pas d’une position à la position voisine en transitant par toutes les positions intermédiaires. La particule peut réapparaître en un point, … avant d’avoir disparu du point précédent ! L’écoulement linéaire du temps était une illusion. Si on examinait les choses de manière linéaire, additive, on pourrait croire qu’à un moment il y a eu deux particules… On ne peut comprendre ce qui se passe que si on renonce à la continuité spatio-temporelle. Cette remarque étonnante se retrouve quand on examine l’atome. Là non plus, il n’y a pas de position fixe de la particule. Un électron ne tourne pas autour du noyau atomique mais se situe en des points du nuage atomique, en sautant brutalement d’un point à un autre, dans un mouvement quasi instantané. Ces mouvements sont si rapides que la particule peut sembler en même temps en plusieurs points et que son état apparaît comme une superposition d’états. L’outil de description de ce type de réalité est bien le nuage de points et non le segment ou le point.

Toute la réalité (matière, énergie et vide) est constituée de grains discrets [6]. L’aspect ondulatoire (interférences par exemple) n’est pas dû à une onde continue mais à une probabilité de présence de corpuscules, donc de particules discrètes. La notion de trajectoire continue (entre deux points, il y en a toujours un autre tout proche) d’une particule est également abandonnée. La continuité est la grande vaincue de la physique quantique. Toute matière, tout mouvement n’est rien d’autre qu’une somme de bonds discontinus. L’énergie n’est elle-même que la manifestation des sauts de la matière. La plus importante nouveauté de la physique quantique [7] , la découverte de la quantité élémentaire d’action de Planck, h, quantité qui est un produit d’une énergie par un temps, expose que les sauts les plus importants ont lieu dans un temps court. Et cependant, le physicien va travailler avec des outils mathématiques continus que sont les champs qui sont étendus à tout l’espace et définis point par point. Le « Dossier de La Recherche » de mai 2006, « Les particules élémentaires », expose ainsi : « La matière macroscopique n’est-elle pas symbolisée par les physiciens comme un ensemble de points matériels, de lieux où se concentre la masse ? En électromagnétisme, les mouvements de ces points peuvent être décrits grâce au concept de champ introduit par Faraday au milieu du 19ème siècle. Structure infinie étendue à l’ensemble de l’espace et du temps, le champ est devenu au fil des années un concept fondamental pour comprendre la matière. Mais il pose un problème. Comment, en effet, concilier ce concept, fondé sur des équations qui reposent sur la continuité, et la notion de particule, par essence discontinue ? » écrivent Sylvie Gruszow et Gilles Cohen-Tannoudji. Il citent ensuite la théorie quantique des champs, cette dernière tentative d’accommoder continu et discontinu. Cependant, comme nous le verrons, le véritable produit de cette théorie est celle des fluctuations quantiques du vide qui s’avèrent constituées de deux entités discrètes, particule virtuelle et antiparticule virtuelle. Le champ a donc comme véritable fondement la particule virtuelle, par essence discontinue. Dans cette physique, il n’y a ni segment continu ni point précisément défini, mais des nuages de points. Toutes ces images ne sont pas des idéalisations de la réalité, contrairement à ce qui est souvent dit. Ce sont des images fausses, même si elles ont certainement leur efficacité dans des situations particulières pour des problèmes précis. En effet, il faudrait une énergie infinie pour définir précisément un point. Et il faudrait également une énergie infinie pour définir un segment. Cela supposerait que les extrémités soient définies avec une précision infinie. Enfin, cela supposerait que ces points soient exactement alignés de façon fixe. Une fois encore, cela nécessiterait une infinité d’énergie pour qu’un mécanisme produise une telle fixité. Deux particules-points matériels pourraient se déplacer l’une vers l’autre et se toucher, ce qui est physiquement impossible. Le fait que deux particules ne puissent s’approcher infiniment près, appelé le principe de Pauli, provient de l’existence de contradictions au sein de la particule. Deux points matériels électrisés devraient pouvoir entrer en contact, ce qui n’est pas le cas. La contradiction est liée à la polarisation du vide autour de la particule. Cela signifie que l’entourage le plus proche d’une particule positive est négative. On appelle ce phénomène l’écrantage de la charge de la particule. Quand on s’approche, une attraction électromagnétique se transforme donc en répulsion et la particule d’électricité opposée ne peut plus approcher. Voilà pourquoi l’explication physique des phénomènes peut être fondée sur une description contrairement à ce que pensait l’école de Copenhague mais c’est une explication dialectique par négations combinées. Autour de la particule, on trouve sa négation sous forme de particules fugitives du vide. L’apparence d’onde provient de ces mouvements et ces apparitions/disparitions de particules virtuelles du vide, qui fondent cette apparence ondulatoire. L’onde, elle-même, est donc un mouvement de grains d’un univers inférieur à celui de la matière-lumière : le vide quantique, avec ses divers niveaux (virtuel puis virtuel de virtuel, etc). Le phénomène apparemment le plus continu est fondé uniquement sur des discontinuités, sur des contradictions dialectiques et sur une dynamique au lieu d’objets fixes.

Pour la physique, la discontinuité est devenue une composante inévitable de toutes les actions dynamiques et de leur capacité de sauter d’une solution à une autre. « Un système physique n’est susceptible que d’un nombre fini d‘états distincts et il saute d’un de ces états à l’autre sans passer par une série continue d’états intermédiaires. » expose le physicien et mathématicien Henri Poincaré dans « Les méthodes nouvelles de la mécanique céleste ». Cette remarque, Poincaré l’a faite à propos de la mécanique des astres, à propos de la terre, du soleil et de la lune), mais il l’a élargi au problème des trois corps, démontrant que la loi de la gravitation ne suscitait pas une seule trajectoire solution mais toute une famille de trajectoires avec possibilité de sauter de l’une à l’autre. La physique de l’électrodynamique quantique a montré que l’existence d’une multiplicité de solutions avec des sauts d’une solution à une autre était universelle. Non seulement, l’électron saute d’une couche à une autre de l’atome mais, isolé, sa propriété de masse (portée par le boson de Higgs) saute d’une position à une autre de l’espace, ou plutôt d’une particule fugitive du vide à une autre. Il saute également d’un état à un autre. Le saut implique que la dynamique passe d’une position à une autre ou d’un état à un autre sans jamais passer par les positions ou les états intermédiaires. Cette remarque fondamentale – selon laquelle tout changement, et également tout mouvement, est une discontinuité et une transformation qualitative à un niveau de la réalité – est loin d’être acquise dans la philosophie des sciences et dans celle de la société. On trouve à cela plusieurs raisons. Le plus souvent, le saut n’est pas évident parce qu’il est trop rapide, beaucoup plus rapide que la dynamique dans laquelle il s’insert. La physique est partie des « évidences sensibles » et elle a mis du temps à s’en détacher, comme le remarque le physicien Max Planck dans « L’image du monde dans la physique moderne » [8]. Les sens ont des limites de temps de réaction et sont déterminées par des modes de fonctionnement du cerveau qui reconstitue le réel. L’apparence de continuité est le produit d’illusions d’optique (continuité apparente des lignes, des couleurs, des formes, des changements, …). Des phénomènes, présentant des effets cumulatifs de quantités aléatoires assez petites, ressemblent à s’y méprendre à de la continuité, s’ils sont observés sur une grande échelle. La physique quantique allait même remettre en question le continu un domaine où il régnait : en physique ondulatoire, celle qui englobait la lumière, l’électricité et le magnétisme. Là encore, les quanta allaient se révéler à l’œuvre, agissant seulement par quantités entières et donc par sauts ! Non seulement, le transport d’énergie par la lumière se révélait, comme l’électromagnétisme, fondé sur des grains – les photons-, mais il s’avérait que chaque grain subissait des changements brutaux. Comme l’explique David Ritz Finkelstein dans l’ouvrage collectif « Le vide » : « La physique quantique traite de choses, le photon par exemple, qui ne sont pas complètement descriptibles et qui subissent des transitions spontanées. » On ne soulignera jamais assez combien ce caractère spontané est important et étonnant si on raisonne dans l’ancienne conception figée de la particule. Si le photon n’avait pas une structure complexe et contradictoire, il ne pourrait subir des transitions spontanées. En effet, c’est parce que le photon a une structure interne qu’il peut changer d’état sans action externe.

Le physicien et philosophe Eftichios Bitsakis, dans « Physique et matérialisme », en donne la raison : « La grandeur caractéristique de la mécanique quantique, la constante de Planck h, détermine le caractère discontinu des phénomènes quantiques. (...) Dans la théorie quantique des champs, le mouvement ne peut pas être défini en dehors des transformations des particules. (...) C’est ainsi que, si un électron est dévié d’une direction de mouvement dans une direction différente, cet événement est décrit comme « destruction » de l’électron initial, et comme « création » d’un autre électron, qui se met dans la nouvelle direction. (...) La physique contemporaine a mis aussi en lumière un aspect du mouvement, pressenti par la pensée dialectique : la discontinuité. » Plus qu’une discontinuité dans la matière-objet, il a fallu admettre une discontinuité dans les transmissions entre matières. C’est une remise en cause encore plus profonde puisqu’on se représentait les transmissions comme des ondes continues. « On dit souvent que la constante de Planck a fait apparaître du discontinu dans la matière (...) En réalité, le discontinu que découvre le physicien allemand affecte non la matière mais les interactions (...) Mais une discontinuité dans ce que nous appelons aujourd’hui les interactions, voilà qui apparaissait beaucoup plus difficile à admettre et provoqua une véritable « crise » de la pensée physique.(...) on découvrait que dans toute interaction il y a échange et, de plus, il existe un échange minimum au-dessous duquel il n’y plus d’interaction, (...) un quantum d’interaction (...). » expose le physicien Gilles Cohen-Tannoudji dans « Les constantes universelles ». Bertrand Russell affirme que « la continuité du mouvement ne peut consister dans l’occupation par un corps de positions consécutives à des dates consécutives. » Planck a en effet démontré que l’on ne pouvait pas concevoir d’action, de distance ni d’intervalles de temps infiniment petits et même que, dans tous ces domaines, il y avait un minimum appelé quantum d’action, distance de Planck, et temps de Planck. Du coup, la discontinuité s’est introduite partout en physique. Plusieurs niveaux de structure sont apparus et les sauts ont lieu aussi bien d’un groupe à un autre que d’un état à un autre. En effet, à partir du moment où les interactions ne peuvent se faire que par paquets d’une quantité minimale et non progressivement, graduellement, il n’y a plus que des sauts. Comme l’explique Engels dans « Dialectique de la nature », on ne peut plus dire qu’il y a parfois des sauts [9] parce qu’il y en a tout le temps. Ce qui compte c’est seulement l’échelle du saut. Si elle est très petite, une série de sauts de petite taille apparaît comme une continuité.

La discontinuité semble, avec la physique quantique, avoir triomphé en sciences et pourtant cela n’est pas aussi simple. La physique relativiste, par exemple, continue d’employer des notions continues du temps et de l’espace. Du coup, elle prête à l’univers infiniment plus de d’espace, de temps et … moins d’énergie que la physique quantique. On sait que les deux physiques, quantique et relativiste, divergent extrêmement sur l’énergie de l’univers. Pour la physique relativiste, l’existence du continuum d’espace temps courbé nécessite une densité d’énergie de 2x10-29 g/cm3 de densité d’énergie totale (total de la masse gravitationnelle et des autres formes d’énergie). Pour la physique quantique, l’énergie du vide, à lui seul du fait des fluctuations d’énergie des particules virtuelles, donne déjà 10 92 g/cm3 de densité d’énergie de l’univers.

MOTS CLEFS :

dialectiquediscontinuitéfractales - physique quantiquerelativitéchaos déterministeatomesystème dynamiquestructures dissipativespercolationirréversibiliténon-linéaritéquantaémergenceinhibitionboucle de rétroactionrupture de symétrie - turbulencemouvement brownienle temps - contradictionscrisetransition de phasecriticalité - attracteur étrangerésonancepsychanalyse - auto-organisationvide - révolution permanente - Zénon d’Elée - Antiquité - Blanqui - Lénine - TrotskyRosa LuxemburgPrigogine - Barta - Gould - marxisme - Marx - la révolution - l’anarchisme - le stalinisme - Socrate - socialisme - religion

SITE : MATIERE ET REVOLUTION

www.matierevolution.fr

P L A N
D U
S I T E

Les phénomènes physiques sont discontinus de manière fondamentale et générale. Le temps, l’espace, la matière, l’énergie, les interactions sont tous des phénomènes discontinus. C’est seulement les relations mathématiques entre des valeurs moyennes (qui n’ont pas d’existence physique directe) examinées à une échelle largement supérieure au phénomène qui peuvent donner une apparence de continuité, de régularité ou de linéarité.

Par exemple, en physique quantique, on peut citer comme phénomènes fondamentaux qui sont discontinus, brutaux, qualitatifs et pas seulement quantitatifs et non graduels : les collisions entre particules donnant deux photons, les sauts quantiques de l’électron dans l’atome, les transformations entre proton et neutron, les changements de forme du nuage électronique de l’atome, les émissions et absorptions de photons par les particules, les sauts quantiques qui déplacent la particule de masse au sein du nuage virtuel, les transformations d’un photon en un couple particule et antiparticule et inversement, les transformations d’un gluon, d’un méson, d’un pion en quark et antiquark, les absorptions/émissions de gluons ou de couples quark/antiquark par le proton, les apparitions/disparitions de couples matière et antimatière au sein du vide quantique, les échanges de photons virtuels, de gluons virtuels entre particules de matière, le changement de couleur des quarks, les transformations des états des neutrinos, etc….

Les lois de la physique

Notes

[1] Transformations qui ne peuvent être décrites par des fonctions analytiques continues car l’énergie libre thermodynamique manifeste des discontinuités. On peut citer les transitions des états de la matière macroscopique, les transitions des structures microscopiques impliquées notamment dans l’histoire du cosmos (rupture de symétrie des interactions), le ferromagnétisme, la supraconductivité, la superfluidité, l’opalescence critique, la condensation quantique, les transitions bêta de l’interaction faible, les transitions dites virtuelles de Feynman de l’électromagnétisme, la matérialisation et dématérialisation de la particule dans le vide, etc … Le caractère commun de phénomènes aussi divers a été signalé, si bien que l’on parle à leur propos d’ « universalité » et qu’on a trouvé des moyens communs de les décrire, notamment la renormalisation et l’étude de la criticalité.

[2] Georges Lochak écrit ainsi dans « Vers une microphysique de l’irréversible » (revue du palais de la découverte) : « l’idée des quanta, autrement dit l’idée que l’énergie des systèmes microscopiques ne varie que par bonds instantanés (les transitions quantiques) au cours desquels les microsystèmes passent subitement d’un état stationnaire à un autre en échangeant entre eux des parcelles d’énergie. » Et Lochak cite Schrödinger qui « reprochait aux théories quantiques de ne s’intéresser qu’aux états stationnaires, dans lesquels disait-il, il ne se passait rien et d’être muette au sujet des autres, qui sont ceux où il se passe quelque chose. »

[3] En mécanique quantique, le moment cinétique n’a pas une direction quelconque, mais sa composante sur un axe donné ne peut prendre que certaines valeurs discrètes, également espacées. Voilà quelque chose de choquant et de singulier. » (Cours de physique de Richard Feynman – tome électromagnétisme).

[4] Engels écrivait ainsi dans « Anti-Dühring » : « La matière sans mouvement est aussi inconcevable que le mouvement sans matière. » et, dans « Socialisme scientifique et socialisme utopique » : « Parmi les propriétés innées de la matière, le mouvement est la première et la plus éminente. »

[5] La meilleure preuve n’est-elle pas que le choc de deux particules produit de nouvelles particules qui n’existaient pas auparavant. C’est du mouvement transformé en matière. On en trouve de nouveaux exemples dans les réactions nucléaires. C’est ce que signifie le rapport entre matière et mouvement de la formule fameuse d’Einstein E = mc².

[6] Le terme « discret » ne se réfère pas à une discrétion du grain mais au fait qu’il existe et agit de manière discontinue, grain par grain.

[7] Le produit de l’énergie et du temps est constante E x t = h

[8] « S’il est vrai que la structure du monde de la physique s’éloigne toujours plus du monde des sens pour se rapprocher du monde réel inconnaissable par principe, il est évident que l’image du monde proposée par la physique doit être purifiée dans une mesure croissante de ses éléments anthropomorphiques. (….) Dans l’acoustique, l’optique, la thermodynamique modernes, les impressions sensorielles sont tout simplement éliminées. » écrit Max Planck.

[9] « Quelque idée que l’on se fasse de la constitution de la matière, elle est articulée en une série de grands groupes bien délimités de masse relative, en sorte que les membres de chaque groupe ont entre eux, quant à la masse, des rapports finis déterminés (...). Le système stellaire visible, le système solaire, les masses terrestres, les molécules et les atomes, enfin les particules d’éther constituent chacun de ces groupes. (...) S’il n’y a pas de bonds dans la nature, c’est précisément parce que la nature ne se compose que de bonds. »

11 Messages de forum

  • Le quanta ou la mort programmée du continu en physique 22 juillet 2009 18:25, par S DE BKO

    Le quanta ou la mort programmée du continu en physique ?
    Peut-on parler de ce phénomène dans un autre domaine de la vie ?
    Que veut dire la mort programmée en physique ? La suicide ?
    L’afrique a-t- elle sa science ? La medicine traditionnelle ?

    Répondre à ce message

    • Le quanta ou la mort programmée du continu en physique 22 juillet 2009 18:31, par Robert Paris

      Tout à fait. Ton idée est lumineuse : on peut parler de la mort programmée du continu dans d’autres domaines que les quanta de la matière.

      Que signifie la mort programmée, c’est qu’une structure nait non pas pour exister de manière continue mais pour disparaitre.

      La cellule vivante nait avec une fonction interne fondamentale qui s’appelle l’apoptose et qui prévoit la mort programmée de la cellule.

      Une société nait avec en son sein des luttes de classes qui programment sa fin.

      Programmer ne veut pas dire qu’il s’agisse de l’informatique bien entendu ni qu’on sache quand cette structure va mourir. cela veut dire que rien n’est éternel et que les structures meurent du fait de causes internes. Les contradictions de cette structure existent dès sa naissance et ne vont atteindre leur niveau explosif qu’à un certain seuil.

      Robert Paris

      Répondre à ce message

    • Le quanta ou la mort programmée du continu en physique 22 juillet 2009 19:11, par Robert Paris

      L’Afrique a-t-elle sa science ? demande tu.

      Qui est-ce l’Afrique ?

      Est-ce un continent ? Est-ce des hommes ? Est-ce des classes ?

      Si c’est des hommes, ils ne sont pas Africains mais humains. Tous les hommes sont nés en Afrique.

      Si c’est des sociétés, elles sont fondées sur des luttes de classes et ces classes existent au niveau mondial et non seulement africain.

      L’Afrique a une histoire particulière ? Non, il y a eu des milliards d’histoire dans chaque coin d’Afrique. La civilisation du Mozambique n’existe pas en Ethiopie et inversement.

      La science est un produit de la conscience des hommes face à la nature. Cela a dépendu de leur expérience, de leur mode de vie, de leur type de société et donc cela beaucoup changé.

      Le monde d’aujourd’hui est un : c’est le capitalisme. Il s’est enrichi de l’exploitation de tous les peuples. Tous les peuples ont payé ses techniques, ses sciences.

      Donc l’Afrique a une science du monde.

      Cela ne veut pas dire qu’il n’est né aucune idée autre que la science actuelle.

      Il y a eu des civilisations en Afrique avant la France, l’Angleterre ou les USA.

      Mais les idées ne doivent pas revenir aux anciennes idées des anciennes époques.

      Ce retour vers le passé ne nous prépare pas à donner un avenir à l’humanité.

      Aujourd’hui, plus que jamais, aux quatre coins de la planète nous ne sommes pas dans les mêmes conditions de vie mais nous subissons la domination du même système.

      En termes d’idées la révolution que nous devons faire est la même.

      Ce sont les mêmes mensonges que l’on nous assène quand on est jeune des USA au Mali.

      C’est le mensonge de l’individualisme.

      Tu vas t’en sortir seul.

      Tu vas devenir riche.

      Tu vas fonder ton entreprise.

      Ne regarde pas ce qui est négatif.

      Soit positif.

      Et patati et patata

      Les idées dont les hommes d’aujourd’hui ont besoin sont SANS FRONTIERES

      Sinon ce sera des hommes qui se préparent à s’entremassacrer ....

      L’avenir de l’humanité est UN.

      Robert Paris

      Répondre à ce message

  • Le quanta ou la mort programmée du continu en physique 4 août 2009 16:11, par Robert Paris

    Quelques citations sur cette importante question :

    Dans « Regards sur la matière », le physicien Etienne Klein rapporte le changement de point de vue qu’a représenté cette nouvelle physique : « Les calculs de Planck montrent que les échanges d’énergie électromagnétique sont portés par des grains, alors qu’on les croyait continus. Voilà la vraie révolution, qui ébranle la conviction que les physiciens avaient depuis Newton, selon laquelle on peut faire tendre une force vers zéro. (...) Max Planck fut extrêmement perturbé par sa propre conclusion. Il mit des années à accepter qu’il pouvait s’agir de quelque chose de plus profond qu’un simple artefact mathématique. C’est « dans le désespoir » (Max Planck, Physikalche Abhandlungen) qu’il vécut la perte – qui allait suivre – des instruments anciens de la raison et leur remplacement par des idées neuves. Sa constante injectait de la discontinuité dans des processus qui avaient toujours été perçus comme étant fondamentalement continus. (...) Planck fut aussi choqué que si on lui avait dit, par exemple, que la température d’un radiateur pouvait passer de dix à vingt degrés sans passer par aucune température intermédiaire ! Pourtant, il fallut bien se rendre à l’évidence (qui n’en était pas un) : le concept de continuité n’est pas un absolu. C’est à Planck que revient le mérite d’avoir porté le premier « une-deux » contre la continuité. (...) En 1905, Einstein conclut le « une-deux » de Planck par un uppercut décisif : il attribue au rayonnement lui-même, et non plus seulement aux seuls échanges d’énergie, une structure corpusculaire. Le rayonnement, essentiellement discontinu, est, d’après lui, formé d’un ensemble de corpuscules transportant chacun un quantum d’énergie. (...) Comment décrire le déroulement du processus d’émission (d’un photon par atome qui saute d’un état à un autre) si le champ rayonné sait d’avance ce que sera l’état final de l’atome ? A cette question, Bohr répondra qu’il faut renoncer à décrire le processus d’émission comme une histoire qui se déroule continûment dans le temps : il s’agit plutôt d’un bond, d’un « saut quantique », qu’il faut prendre comme un tout, sans chercher à l’analyser en étapes successives. »
    Dans « Physique quantique et représentation du monde », le physicien Erwin Schrödinger résumait ainsi le bouleversement conceptuel de la physique quantique : « En partant de nos expériences à grande échelle, les physiciens en étaient arrivés (...) à formuler le postulat de la continuité de la description. C’est ce postulat de la continuité qui apparaît ne pas pouvoir être satisfait ! (...) C’est cette habitude de penser que nous devons rejeter. (...) En 1913, Bohr fut amené à supposer que l’atome passe brusquement d’un état à l’autre, et que, au cours d’une telle transition, il émet un train d’ondes lumineuses (...) Les faits observés ne peuvent donc pas être mis en accord avec une description continue dans l’espace et le temps. (...) Nos difficultés actuelles en physique sont liées aux difficultés conceptuelles bien connues qui s’attachent à l’idée du continu. (...) Si l’on considère le développement de la physique au cours du dernier demi-siècle, on a l’impression que la vision discontinue de la nature nous a été imposée en grande partie contre notre volonté. Nous paraissons être entièrement satisfaits du continu. Max Planck fut sérieusement effrayé par l’idée d’un échange discontinu qu’il avait introduite (1900) pour expliquer la distribution de l’énergie dans le rayonnement du corps noir. Il fit de grands efforts pour affaiblir son hypothèse et pour l’éliminer dans la mesure du possible mais ce fut vain. Vingt-cinq ans plus tard, les inventeurs de la mécanique ondulatoire entretinrent pendant un certain temps avec la plus grande ardeur l’espoir d’avoir préparé la voie à un retour de la description classique continue, mais de nouveau cet espoir fut déçu. La nature elle-même semblait rejeter une description continue (...). »

    L’astrophysicien Laurent Nottale répond ainsi dans « La complexité, vertiges et promesses » : « Le calcul différentiel consiste à prendre la limite d’un petit intervalle de temps, d’espace ou d’autres variables et à les faire tendre vers zéro. Dans le calcul différentiel, on présuppose que cette limite du zéro existe. Or, en physique, rien n’indique que cela soit vrai. Au contraire, à chaque fois que l’on a essayé de voir ce qui se passait à des échelles plus petites, on a toujours trouvé des choses nouvelles ; on n’a jamais découvert un domaine où les choses deviendraient plus simples. Quand on définit une vitesse, une dérivée, on présuppose que cela va se simplifier lorsqu’on se dirigera vers les petites échelles. Or, ce n’est pas le cas. (...) On a longtemps cru que la méthode ordinaire de calcul différentiel devait réaliser en physique l’idée de Descartes. On allait décomposer l’objet à étudier en des parties très petites pour faire en sorte que chacune de ces parties tende vers zéro. L’espoir était de rendre simple l’objet considéré à partir de ses éléments extrêmement simples et où rien ne bougeait ; il n’y avait plus ensuite qu’à intégrer sur tout l’objet de manière à obtenir ses propriétés globales. Dans la réalité, ça ne marche pas ainsi, car, quand on observe les sous-parties de plus en plus petites d’un objet, on voit apparaître des choses constamment nouvelles. On peut très bien avoir des objets plus compliqués vers les petites échelles que vers les grandes, ce qui prouve que l’identification « naïve » de la méthode cartésienne au calcul différentiel ne marche pas. Un objet, comme l’électron, vu classiquement comme un simple point, devient compliqué vers les petites échelles : il émet des photons, les réabsorbe, ces photons deviennent eux-mêmes des paires électrons-positons, etc… A l’intérieur de l’électron, il y a une espèce de foisonnement de particules virtuelles qu’on ne voit pas à grande échelle. (...) Un électron est objet élémentaire qui contient toutes les particules élémentaires existantes. (...) Donc, on ne va pas se contenter d’observer des déplacements dans l’espace et le temps comme dans la physique ordinaire, on va également observer les déplacements dans les changements d’échelle (...). »

    Dans son article intitulé « Expérience et Méthode » de l’ouvrage collectif « La philosophie des sciences aujourd’hui », Antoine Danchin, mathématicien devenu généticien, remarque à ce sujet : « On sait qu’il est habituel de représenter les points d’un segment par des nombres qu’on appelle les nombres réels. Et il est habituel de considérer que la structure de l’ensemble de ces nombres est identique à la structure réelle des choses. Les formes géométriques seront donc dérivées des particularités de cet ensemble et l’étude du continu sous-jacent au réel (matériel) se fait au moyen de ces réels (mathématiques) (...). La très belle théorie des catastrophes est un exemple particulier où l’étude du continu et de ses déformations amène Thom à faire toutes sortes de projections sur notre monde et à affirmer (...) qu’il existe des « formes » arbitraires dont la force attractive s’impose au réel et explique les formes que nous observons dans la réalité du monde. (...) » Et il explique que ce passage du continu au discontinu –mathématique- , la « catastrophe », suppose un ensemble des nombres réels qui soit continu. Il rappelle alors comment a été construit cet ensemble des nombres dits « réels » : « Après les entiers naturels, on a construit un ensemble beaucoup plus continu, celui des nombres rationnels. Il a fallu rapidement compléter cet ensemble, encore trop discontinu, pour en faire l’ensemble des réels. Là, chaque point d’un segment semble être représenté. Le nombre de ces points est infini mais d’un infini beaucoup plus « grand » que celui des nombres rationnels (...) Mais je suis d’accord avec Thom pour privilégier le continu – il me semble que cet ensemble des réels est encore trop discontinu et bien incomplet - . Chaque point y est en certain sens isolé, et manque d’une certaine « épaisseur » qui le relierait immanquablement à ses voisins : c’est ce qui explique deux paradoxes issus de la mathématique du continu (utilisant les nombre réels), à savoir l’apparition de « singularités » dans certaines circonstances, et surtout l’improbabilité de traiter directement d’intégrales comme celle de la mesure de Dirac (...). C’était aussi, me semble-t-il l’intuition de Leibniz lorsqu’il parlait des infiniment petits : il y aura un nouveau corps (« surréels » ?) qui rendra sérieusement compte de la réalité continue des choses, dans l’avenir mathématique… »

    « Ces définitions, irréprochables, nous l’avons dit, au point de vue, mathématique, ne sauraient satisfaire le philosophe. Elles remplacent l’objet à définir et la notion intuitive de cet objet par une construction faite avec des matériaux plus simples ; on voit bien alors qu’on peut effectivement faire cette construction avec ces matériaux, mais on voit en même temps qu’on pourrait en faire tout aussi bien beaucoup d’autres ; ce qu’elle ne laisse pas voir c’est la raison profonde pour laquelle on a assemblé ces matériaux de cette façon et non pas d’une autre. Je ne veux pas dire que cette « arithmétisation » des mathématiques soit une mauvaise chose, je dis qu’elle n’est pas tout. Je fonderai la détermination du nombre des dimensions sur la notion de coupure. » écrit le mathématicien-physicien Henri Poincaré dans « Dernières pensées ».

    L’astrophysicien Laurent Nottale expose, dans « La complexité, vertiges et promesses » : « La nature même de l’espace-temps est changée car elle contient en réalité ces changements d’échelle d’une manière intrinsèque et irréductible à l’espace-temps ordinaire qui est, lui, dans la vision physico-mathématique, un ensemble de points. (...) En réalité, cette vision dans laquelle on représente le monde sous forme de points prétend faire des mesures avec une précision infiniment grande – à chaque petit intervalle spatial correspond un petit intervalle de temps. Or, c’est la mécanique quantique qui nous dit qu’il faudrait une énergie infinie pour pouvoir faire une telle mesure. » On pourrait se dire que ceci n’est une limite que pour l’homme qui observe et mesure, mais cela est faux. Cette limite, notamment l’inégalité d’Heisenberg, est reliée au mécanisme fondamental de la matière et pas seulement à une mesure réalisée par l’homme (ou la machine produite par lui). Cela signifie qu’une précision très petite en espace nécessite un temps très grand et un temps très court nécessite une énergie très grande. Le point, défini avec une précision infinie, nécessite une énergie infinie ! La nature ne peut réaliser ses propres interactions, indépendantes de l’observateur, en dépensant sans cesse une telle énergie infinie. Elle opère nécessairement avec imprécision. C’est le mécanisme le plus économe en énergie. La convergence ne se produit qu’ensuite par émergence d’un ordre global issu du désordre des interactions variables, imprécises et imprédictibles. (…)Un point, cela n’existe pas ! D’ailleurs, cela se voit tout de suite. Si l’on dit qu’il y a un point sur une table, qu’entend-on par un point ? Quelque chose qui n’a aucune dimension. Il suffit de regarder avec une loupe pour découvrir une structure. On continue de grossir à la loupe puis on passe au microscope : à quel moment pourra-t-on voir enfin le point ? Jamais. Donc, physiquement, le point n’existe pas. (...) L’idée intéressante est que, chaque fois que l’on grossit, on voit quelque chose de nouveau. »

    Répondre à ce message

  • Peu à peu, l’importance fondamentale de l’idée de Planck apparut. Les théoriciens s’aperçurent que la discontinuité traduite par l’hypothèse des quanta est incompatible avec les idées générales qui servaient jusqu’alors de bases à la physique et exigeait une révision complète de ces idées. (…) Pour trouver une forme générale de sa théorie, Planck a dû renoncer à l’hypothèse primitive des quanta d’énergie et lui substituer l’hypothèse des quanta d’action (produit d’une énergie par un temps ou d’une quantité de mouvement par une longueur)

    Répondre à ce message

  • "La manifestation des phénomènes énergétiques, s’effectuant par sauts ou paliers, est essentiellement discontinue".

    Max Planck

    Répondre à ce message

  • Le quanta ou la mort programmée du continu en physique 13 octobre 2009 13:52, par Robert Paris

    "Tout processus atomique contient un trait de discontinuité ou plutôt d’individualité qui est entièrement étranger aux théories classiques et qui est caractérisé au moyen du quantum d’action de Planck".

    Bohr

    Répondre à ce message

  • Le quanta ou la mort programmée du continu en physique 2 novembre 2010 10:14, par Robert Paris

    Essayons de résumer pourquoi nous estimons que la matière est fondamentalement discontinue :

    - il y a d’abord l’existence de structures hiérarchiques de la matière de l’amas d’amas de galaxies jusqu’à la particule dite élémentaire, avec des sauts d’un niveau à un autre.

    - il y a ensuite les interactions matière-matière qui se font obligatoirement à distance par un intermédiaire appelé corpuscule d’interaction. Il n’y a donc pas de continuité spatiale dans la matière, des particules qui se toucheraient pour construire un continuum de matière.

    - rappelons ensuite que la signature de chaque particule de matière, de chaque atome ou de chaque molécule est un spectre de raies qui ressemble étrangement aux "codes-barres" du commerce... Donc un système de niveaux avec des sauts entre eux. Ces sauts sont les fameux "sauts quantiques".

    - enfin, les états de la matière sautent d’un à un autre sans continuité comme le montre la physique quantique qui nécessite du coup de réétudier le sens de la causalité.

    - si on étudie plus profondément les bases de la matière, on trouve que, dans le vide, la matière dite virtuelle elle-même est discontinue, sous forme de quanta de charges et d’anticharges virtuelles, qu’elle n’obéit non plus ni à une continuité spatiale ni une continuité dans le temps.

    - pour finir, l’espace et le temps eux-mêmes ne sont pas des continuum dans lesquels les particules de matière se déplaceraient : ils sont ce vide qui fonde la matière et la défont lors d’apparitions et disparitions de particules qui se produisent elles-mêmes de manière discontinue...

    Répondre à ce message

    • La discontinuité est reine au niveau quantique, comme son nom l’indique d’ailleurs. A cette échelle, tout condamne le continu !

      Cependant quand on réfléchit à l’émergence à partir du néant, on bute sur deux écueils :

      1/ Qu’est-ce que le néant ?
      2/ La théorie quantique avance un oscillateur discret qui présente un minima d’énergie différent de zéro. Les inégalités de Heisenberg sont ici utilisées par défaut !

      A la première question la théorie OSCAR répond que le néant ne peut-être statique car il aurait des paramètres constants, ce qui est inconcevable. Par ailleurs s’il est statique, il ne peut évoluer. Ces deux arguments sont très forts.

      A la seconde question la théorie OSCAR répond que la dynamique d’un néant ne peut-être représenté que par des oscillateurs continus et surtout pas quantiques. Qui déterminerait le quantum ?

      D’où l’idée de l’oscillateur continu 1D qui lui seul, permet une base ontologique foncièrement aléatoire. L’entité élémentaire d’un néant est un oscillateur continu 1D nanti de ses paramètres continument variables. Ces paramètres sont forcément de type : fréquence = f(inertie-force-longueur). Deux particules chargées vibrent autour du point zéro. Tous les paramètres sont liées entre eux.

      Le modèle OSCAR part d’une fonction linéaire simple qui permet de créer des constantes à partir de l’aléatoire. Selon une extrapolation des règles de Huygens, des oscillateurs groupés sur un seul "support" ont tendance à se synchroniser. A partir de cela, on obtient un espace à symétrie sphérique où le centre devient le zéro commun ! Ce centre de mélange se règle à la fréquence commune qui donc admet des constantes !

      Ces constantes ne sont pas n’importe lesquelles. Elles sont respectivement homogènes à un moment cinétique, à une perméabilité, à un ratio d’échelle sans dimension, à une masse linéique. On aura reconnu en premier lieu, le fameux quantum h de la théorie quantique.

      Ensuite on montre que la sphère idéale est pavée d’un nombre idéal No de micro sphères. Partant d’un nombre N aléatoire on présume l’inégalité suivante : N >> No.

      Par induction on pose que la première sphère est instable (N>>No) et se subdivise spontanément en x sphères de même taille que la primordiale (les constantes restent constantes).

      Le modèle OSCAR a prédit (diffusions limitées et preuves formelles) depuis 5 ans que les galaxies sont un enchevêtrement de bulles très serrées et qu’un rayon caractéristique vaut précisément 50 000 Kpcs.

      Cela a été mesuré récemment avec un protocole qui, via la matière noire, est totalement attendu et expliqué par le modèle. Voir ce lien qui confirme.

      http://translate.google.fr/translat...

      Voir également l’article 1 sur mon site : http://www.cosmologie-asa.com/

      Répondre à ce message

      • Le quanta ou la mort programmée du continu en physique 3 janvier 2011 08:24, par Robert Paris

        Il est souvent difficile de choisir entre des modèles continus ou discontinus car on peut souvent modéliser le même phénomène par plusieurs types de fonctions. Mais il est indispensable, avant de modéliser, d’examiner les phénomènes que l’on veut décrire et pas seulement quantitativement. Si on suit un électron, il est certain qu’il vous échappe. Donc il n’y a pas de continuité. Au voisinage d’une particule, des myriades de particules et antiparticules virtuelles apparaissent et disparaissent aussi sans cesse. ces phénomènes sont fondamentalement discontinus, de même que "l’effondrement du paquet d’ondes". Ces discontinuités, et je n’en cite que quelques unes, ne sont pas des phénomènes secondaires et elles doivent se comprendre dans un modèle du fonctionnement de la matière.

        Il me semble qu’en cherchant des modèles mathématiques simples, on soit sans cesse attiré vers la continuité. Mais ce n’est pas la simplicité du fonctionnement matériel qui nous y pousse mais plutôt la simplicité des calculs mathématiques.

        Répondre à ce message

        • L’échelle quantique est foncièrement discrète et ce n’est pas moi qui dirait le contraire. Les développements de la théorie OSCAR montre que l’idée de René Thom conjecturant "l’antériorité du continu sur le discret » et celle de Bohm-Vigier, apparait juste. L’aspect mathématique le prouve. De plus l’aspect ontologique, ne peut se satisfaire de l’oscillateur quantique qui postule un minima d’énergie.

          Pour être très clair, le continu proposé ne s’oppose pas au quantique mais cherche à l’expliquer.

          Il ne s’agit donc pas de choisir entre les deux mais de considérer et de démontrer que l’un découle de l’autre.

          Répondre à ce message

Répondre à cet article