Accueil > 02 - Livre Deux : SCIENCES > Atome : lois de la Physique ou rétroaction de la matière/lumière et du vide (…) > Quelle solution face à l’énigme quantique dite de la « réduction du paquet (…)
Quelle solution face à l’énigme quantique dite de la « réduction du paquet d’ondes » ?
samedi 16 novembre 2024, par
Quelle solution face à l’énigme quantique dite de la « réduction du paquet d’ondes » ?
Il s’agit d’ondes qui se réduisent à… rien dès que l’on effectue une mesure dans une expérience quantique…
C’est bien sûr un phénomène étonnant si on raisonne de manière classique, ou encore de manière quantique mais sans envisager le caractère discontinu du vide quantique, peuplé de quanta dits « virtuels » parce qu’ils apparaissent et disparaissent en un temps bref et qui n’en sont pas moins réels.
Il ne s’agit pas d’ondes au sens de la physique classique mais d’ondes quantiques qui disparaissent dès que l’on capte le corpuscule correspondant de manière instantanée, ce qui est particulièrement étrange… La mesure est un saut discontinu, une disparition.
L’explication réside dans le caractère de la complémentarité onde/corpuscule qui explique que l’onde disparaisse dès qu’on capte le corpuscule.
https://www.matierevolution.fr/spip.php?article882
Comment se peut-il que la complémentarité onde/corpsucule se traduise par la disparition instantanée de l’onde dès qu’on capte le corpuscule par une observation. Certains auteurs répondent que c’est mystérieux et qu’on ne le saura jamais, d’autres que c’est un artefact théorique et mathématique et que cela ne doit pas provenir d’une explication physique, d’autres encore que c’est un effet de la conscience humaine, celle de l’observateur, ou encore l’affirmation que cela se produit parce que la matière n’existe que quand elle est observée et enfin les derniers disent que la Physique n’a pas à se poser de telles questions qui relèveraient seulement de la métaphysique car elles posent des questions sur l’existence des choses et pas sur leur fonctionnement. Aucune de ces réponses ne nous satisfait et nous donnons la nôtre : celle des quanta éphémères du vide dits virtuels (particules et antiparticules couplés).
Toutes ces manières de contourner le problème ne sont nullement des façons de le résoudre en se fondant sur une véritable interprétation qui soit en même temps celle de tous les autres phénomènes considérés comme « mystérieux » en physique quantique, à commencer par tous ceux liés à la dualité onde/corpuscule et au principe d’incertitude quantique.
Non seulement la réduction du paquet d’ondes ne déstabilise pas la physique quantique mais celle qui inclut l’étude du vide quantique est confirmée par elle. Il faut pour cela comprendre que ce n’est pas la particule durable qui détient une véritable réalité car cette propriété ne fait que sauter (avec le boson de Higgs) d’une particule virtuelle à une autre. Rappelons qu’une particule réelle n’est rien d’autre que la particule virtuelle dont l’énergie interne a été doublée par la réception du Higgs et que ce boson saute sans cesse d’une particule virtuelle à une autre proche, appartenant au nuage qui entoure la particule. Rappelons aussi ce nuage est formé de couples particule/antiparticule éphémères qui constituent des couches autour de la particule, couches successivement d’électricité positive et négative (ce qui explique l’écrantage de la charge de la particule).
L’incertitude quantique (dite d’Heisenberg) est un mystère lié à celui de la réduction du paquet d’ondes et aussi aux autres « mystères » quantiques comme la « dualité » onde/corpuscule , à la « probabilité de présence » de la particule, à la superposition d’états, à la non-localité et autres phénomènes purement quantiques inexplicables de manière classique mais parfaitement explicables par l’interprétation selon laquelle la particule réelle n’est rien d’autre qu’un nuage de particules virtuelles (et antiparticules) où circule un boson de Higgs qui saute d’une particule virtuelle à une autre, virtuelle ne voulant absolument pas dire imaginaire ou inexistante réellement.
Et il est vrai que ce phénomène d’ « incertitude » est particulièrement étonnant. En physique classique, il n’y a pas de limite fondamentale à la précision d’une mesure et il n’y a pas contradiction entre préciser la vitesse et préciser la position, comme c’est le cas sans cesse en Physique quantique. Quand on considère que tout objet se déplace continument sur une trajectoire, il est impensable que la précision sur la vitesse soit contraire à celle sur la position. Par contre, dès lors que l’on considère la particule non comme un seul objet mais comme un nuage de particules, la propriété de particules dite réelle sautant d’un point du nuage à un autre, il est très simple de comprendre que l’observation ne peut à la fois être précise pour la vitesse (qui nécessite une observation sur un temps pas trop court) et pour la position (qui, pour être précise nésessite une observation sur un temps pas trop long puisque la propriété de particule réelle saute…).
https://www.matierevolution.fr/spip.php?article1710
Qu’est-ce que la « réduction du paquet d’ondes » en physique quantique ?
La réduction du paquet d’ondes est la cassure de la dynamique quantique réalisée par l’opération de mesure par un appareillage macroscopique. Cette interaction entre une particule quantique et un appareil macroscopique (donc classique) casse la dualité onde/corpuscule et donc la fonction d’onde (de Schrödinger) de la particule immédiatement après que le corpuscule soit capté. Ce phénomène a contraint les physiciens quantiques à se poser la « question de la mesure », en se demandant quelle transformation cette action de l’observateur réalisait sur la dynamique matérielle observée.
Tout d’abord remarquons qu’en physique quantique, étude de la matière/lumière au niveau microscopique, on n’a pas « un » état ou « une » onde mais une « superposition d’états » et un « paquet d’ondes ». Cela signifie que, tant qu’aucune observation ou interaction n’est réalisée, il n’y a pas une valeur de l’énergie, un état, une onde mais une dispersion, un relatif désordre. La particule, qui est à la fois onde et corpuscule, est décrite alors par l’équation de Schrödinger qui comprend différents états et différentes ondes, en superposition, sans qu’on puisse trancher sur « quel est l’état de la particule » mais seulement sur « quelle est la probabilité d’un tel état ».
Selon l’interprétation de Max Born retenue par la physique quantique, ce qui va trancher, c’est le fait d’effectuer une mesure. C’est cela « la réduction du paquet d’ondes » car, du moment que l’on aura mesuré d’une manière ou d’une autre la particule, l’équation de Schrödinger (qui décrit la fonction d’onde de la particule) sera interrompue, cassé, supprimée et une nouvelle fonction d’onde sera éventuellement créée…
La détection de la particule est donc une rupture, une discontinuité, un choc réel mais aussi un choc logique.
On montrera que ce n’est pas une limite de la connaissance humaine qui est pointée ici mais un mécanisme de fonctionnement de la matière/lumière et du vide quantique.
En effet, le caractère imprécis ou « indéterminé » de la particule, marqué par la fonction d’onde qui indique seulement une probabilité de présence de la particule, étalée dans un espace assez large ne provient pas de l’observation mais du fonctionnement quantique. L’observation et la captation de la particule a, au contraire, un caractère plus précis et même ponctuel. C’est avant détection que la particule s’étale dans l’espace…
Ce qui impressionne dans « la réduction du paquet d’ondes », c’est la rupture de continuité de la description, c’est aussi le changement brutal, instantané, et le passage d’une réalité étalée dans l’espace à une réalité ponctuelle. Cela a un petit caractère de mystère, de miracle, une odeur de soufre en somme…
Bien sûr, ceux qui veulent minimiser la difficulté feront comme si on détectait un objet que l’on pourchassait, et qui, rapidement, disparaissait à notre vue, puis était à nouveau capté, et ainsi de suite jusqu’à être définitivement attrapé, n’étant plus dès lors cet objet inattrappable et insaisissable autrement que par une « probabilité de présence ».
Cette image est rassurante mais elle ne convient nullement. Tout d’abord parce que ce que nous avons cherché à capter n’est pas un objet « corpuscule » mais réellement un mixte de corpuscule et d’une espèce d’onde, le corpuscule et l’onde n’étant pas tout à fait ce qu’on imaginait d’un corpuscule ni d’une onde.
On voit bien, notamment dans l’expérience des fentes de Young, que la réalité qui passe dans les deux fentes proches puis parvient à l’écran est un mixage d’onde et de corpuscule. Il y a les interférences (ondulatoires) et les impacts sur l’écran (corpusculaires).
On remarque également que la « réalité quantique » a des particularités qu’aucun objet, que l’on aurait seulement du mal à détecter, ne pourrait avoir. Par exemple, l’effet tunnel montre que la fonction d’onde peut traverser des obstacles, des barrières, infranchissables pour un objet.
https://www.matierevolution.fr/spip.php?article4690
https://www.matierevolution.fr/spip.php?article5606
L’expérience des fentes de Young peut être interprétée correctement par le vide quantique qui entoure la particule dite réelle d’un nuage de particules et d’antiparticules dits virtuels.
https://www.matierevolution.fr/spip.php?article4271
https://www.matierevolution.fr/spip.php?article4287
https://www.matierevolution.fr/spip.php?article4339
En mécanique quantique, la dualité onde-particule est expliquée comme ceci : tout système quantique et donc toute particule sont décrits par une fonction d’onde qui code la densité de probabilité de toute variable mesurable (nommées aussi observable). La position d’une particule est un exemple d’une de ces variables. Donc, avant qu’une observation soit faite, la position de la particule est décrite en termes d’ondes de probabilité.
Les deux fentes de Young peuvent être considérées comme deux sources secondaires pour ces ondes de probabilité : les deux ondes se propagent à partir de celles-ci et interfèrent.
Sur la plaque photographique, il se produit ce que l’on appelle une réduction du paquet d’onde, ou une décohérence de la fonction d’onde : le photon se matérialise, avec une probabilité donnée par la fonction d’onde : élevée à certains endroits (frange brillante), faible ou nulle à d’autres (franges sombres).
Cette expérience illustre également une caractéristique essentielle de la mécanique quantique. Jusqu’à ce qu’une observation soit faite, la position d’une particule est décrite en termes d’ondes de probabilité, mais après que la particule est observée (ou mesurée), elle est décrite par une valeur fixe.
https://www.matierevolution.fr/spip.php?article882
Comment se fait-il qu’au lieu de donner une présence des particules de matière et de lumière, la physique donne seulement leur « probabilité de présence » ?
Tout d’abord, il faut voir que les quanta qui fondent la matière comme la lumière sont éphémères, se présentent sous la forme de couples particule-antiparticule qui se désintègrent rapidement. Ceux-là, l’observation est incapable de les détecter directement du fait de ce caractère éphémère. Par contre, ces particules éphémères sont celles qui, lorsqu’elles vont recevoir le boson de Higgs, vont devenir, de manière elle aussi fugitive, des particules dites « élémentaires » ou « réelles ». La présence des particules virtuelles est donc synonyme de la probabilité de présence des particules réelles…
On ne détecte donc pas les particules virtuelles mais seulement leur mouvement d’ensemble, improprement appelé « onde de probabilité de présence »
https://www.matierevolution.fr/spip.php?article1688
La fonction d’onde, notée psy, est un nombre complexe fonction de la position et du temps. Son interprétation ne peut pas être "réaliste" mais seulement d’une probabilité de matérialisation, comme Max Born l’a montré, puisque c’est la mesure qui crée l’interaction (constituant "l’effondrement de la fonction d’onde" ou une "réduction du paquet d’onde", passage de la probabilité au fait). On additionne des "amplitudes" dont le carré (|Y|2) donnera la probabilité de mesure. "Une amplitude de probabilité est un nombre complexe, défini par une partie réelle et une partie imaginaire, ou par un module et une phase, dont le carré du module est une probabilité, c’est-à-dire un nombre réel compris entre zéro et un qui donne la probabilité de position" Gilles Cohen-Tannoudji). La fonction d’onde pourrait se déduire du principe de moindre action….
En l’absence de tout observateur, un vecteur d’état est soumis à une loi d’évolution définie par l’équation de Schrödinger. Cette dernière permet de tenir compte de l’influence que peut subir une particule ou un système, de prévoir les effets d’interactions entre entités microscopiques, etc. Malgré la forme mathématique très particulière qu’elle revêt, cette partie du formalisme quantique est presque aussi bien maîtrisée que toute autre loi d’évolution en physique. Le problème apparaît avec le principe de réduction du paquet d’ondes. Comme nous l’avons vu, un vecteur d’état, sauf cas particuliers, est un état superposé qui définit des probabilités d’observation, c’est-à-dire que pour une observable, chacune de ses valeurs propres est associée à une probabilité comprise entre 0 et 1. Cependant, lorsque le système sera effectivement mesuré, une seule valeur précise pour cette observable sera obtenue. Outre l’aléatoire qui caractérise cette détermination et sur lequel nous reviendrons, nous avons vu que l’impossibilité de la contrafactualité en physique quantique nous interdit d’en conclure que l’observable avait bien cette valeur avant qu’un instrument de mesure rentre en interaction avec lui. Au contraire, la théorie quantique conventionnelle, qui ne définit un système que par le formalisme du vecteur d’état car seul celui-ci s’avère efficace, ne peut tenir compte d’une opération de mesure que par une modification soudaine du vecteur d’état, qui cesse d’être dans un état superposé, et au cours de laquelle toutes les valeurs propres de l’observable tombent à 0, sauf une qui prend la valeur 1. Tout le problème réside dans le fait qu’une telle modification du vecteur d’état ne semble pas du tout être prévisible au moyen de l’équation de Schrödinger….
Non seulement il est particulièrement gênant en physique que deux principes d’évolution soient nécessaires pour rendre compte de l’influence que peut subir un système, mais cela pose un grave problème épistémologique que la séparation entre les champs d’application de ces deux principes soit aussi floue. En effet le premier principe définit l’évolution ’normale’’ du système tandis que le second s’applique spécifiquement à toute opération de mesure. Celle-ci se trouve alors dans en position d’exception et il est nécessaire d’établir une définition précise de ce qu’est une opération de mesure, un instrument de mesure et un observateur. C’est un problème qui a fait couler beaucoup d’encre et il semble impossible d’obtenir une solution qui ne soit pas fortement dualiste ou complètement anthropocentrique. Si les plus positivistes des physiciens peuvent être prêts à faire ce type de concessions, les scientifiques qui ont foi en une réalité indépendante de nous ne peuvent que difficilement s’y résigner. Il y a cependant un moyen de réunifier ces deux principes d’évolution pour ne garder que celui de l’équation de Schrödinger. Comme, après tout, l’instrument de mesure comme l’observateur lui-même sont effectivement composés de molécules, d’atomes et donc de particules, il est complètement envisageable de faire intervenir dans les calculs ces entités macroscopiques comme des systèmes quantiques composés d’un grand nombre de particules. L’observateur et son instrument de mesure peuvent donc en théorie être définis comme un système S ayant un vecteur d’état qui est un état enchevêtré de toutes leurs particules. Aussi, lors d’une opération de mesure effectuée sur le système étudié E, les système S et E entrant en interaction doivent par la suite composer un grand système G décrit par un seul vecteur d’état qui est l’enchevêtrement de toutes les particules de l’observateur, de l’instrument de mesure et de la préparation expérimentale. Le premier problème qui se pose alors est que dans ce grand système G, puisqu’il est dans un état enchevêtré inséparable, il n’est plus possible d’établir une distinction rigoureuse entre l’observateur, l’instrument de mesure et le système étudié et cela nous interdit de déterminer ce qui, des résultats de l’expérience, revient en propre à chaque élément. Ce point est l’autre fondement de la contextualité de la physique quantique et explique que celle-ci ait le plus grand mal à fournir un discours sur la nature des choses indépendamment de nous. Le second problème est qu’un tel état enchevêtré est également à coup sûr un état superposé. Comme seule la réduction du paquet d’ondes pouvait rendre compte du fait qu’un tel état doit soudainement changer pour prendre une valeur définie, avoir expulsé ce principe nous ferme cette possibilité. Nous devons donc par exemple considérer que, pas plus que la particule, ni l’observateur ni l’instrument de mesure n’ont de position bien définie. Apparaît un problème récurrent de la physique quantique et que nous avons déjà évoqué : comment faire le lien entre les lois du monde macroscopique et celles radicalement hétérogènes du monde microscopique sachant que les deux théories sont confirmées expérimentalement mais que la seconde est censée décrire le détail des éléments de la première ? Pour illustrer ce point Schrödinger avait fourni un célèbre paradoxe qu’il est intéressant de résumer ici. Il suffit d’imaginer une particule qui est dans l’état superposé des deux états possibles A et B. Un dispositif qu’il n’est pas nécessaire de décrire a pour conséquence d’émettre un gaz mortel si la particule est dans l’état A. Accompagné d’un chat, tout cela est placé dans une boîte fermée afin d’éviter toute observation pour que l’état en question reste superposé. Un raisonnement identique à celui du paragraphe précédent doit nous faire conclure que puisque la particule est à la fois en A et en B le chat doit à la fois être mort et vivant. Il ne devrait connaître un état défini que lorsque nous ouvrirons la boîte et réduirons le paquet d’ondes. La question se pose alors de savoir d’un côté, si les lois quantiques sont ainsi transposables aux entités macroscopiques, et de l’autre, puisque la conscience semble jouer un rôle clé dans la réduction du paquet d’ondes, si l’observation que le chat effectue spontanément de son propre état peut suffire. Dans tous les cas le principe de réduction du paquet d’ondes semble difficile à mettre de côté. Une célèbre théorie, communément admise dans la communauté des physiciens, a souvent été proposée comme solution au problème de la mesure, il s’agit de la décohérence. Celle-ci montre que l’état de superposition d’un système quantique est lié à sa cohérence interne. Là encore nous ne rentrons pas dans les détails mathématiques d’une telle théorie mais il faut juste noter qu’elle consiste à prendre en compte, outre celle de l’instrument de mesure, l’influence de l’environnement. Si dans un dispositif expérimental de quelques particules il est possible d’isoler le système de l’environnement extérieur, pour des raisons physiques liées à leur niveau d’énergie et à la constante de Planck, il est impossible d’isoler les systèmes macroscopiques de la sorte. Seul un système isolé peut être dit cohérent tandis que l’effet qui se manifeste quand on augmente d’échelle est justement la décohérence. Celle-ci a pour conséquence d’approcher toutes les valeurs propres d’une observable aussi proche de 0 qu’on le veut, sauf une qui par conséquent s’approche de 1 de la même manière. Ainsi, pour les systèmes macroscopiques, l’influence de l’environnement a pour conséquence de limiter les états de superposition car en pratique la valeur propre majorée peut être considérée comme égale à 1 et les autres à 0. Ainsi on tend à expliquer pourquoi les objets macroscopiques nous apparaissent comme ayant une position et une trajectoire bien définies. Mais, en toute rigueur, l’état de l’objet reste superposé et aucune de ses valeurs propres n’a une probabilité d’être observée de 1. Donc, pour expliquer qu’au moment d’une mesure c’est bien telle ou telle valeur qui est observée, il est nécessaire de réintroduire le principe de réduction du paquet d’ondes. La décohérence est une théorie confirmée par l’expérience qui a le grand mérite de nous aider à mieux comprendre le comportement quantique des entités macroscopiques, mais rigoureusement elle ne résout pas cet épineux problème que pose l’opération de mesure en physique quantique.
Incertitude et indétermination Si nous avons attribué à Dirac la reformulation en termes probabilistes de l’équation de Schrödinger, pour être juste il nous faut préciser que l’on doit à Max Born la première interprétation de cette équation comme définissant des probabilités d’observation. Cette interprétation eut le mérite de résoudre les problèmes que posait la représentation purement ondulatoire de Schrödinger mais introduisit une incertitude et une indétermination gênante dans la physique quantique. Une telle équation, déterministe concernant une onde, ne peut nous décrire une trajectoire et même très difficilement une position, seules des probabilités concernant les résultats de mesure peuvent être obtenues avec elle. Il faut noter qu’il ne s’agit pas là d’une simple incertitude comme on pourrait la constater dans d’autres domaines, où l’imperfection de nos instruments nous empêche de mesurer avec suffisamment de précision les grandeurs nécessaires à une prévision, comme Born l’affirmait, nous ne disposons pas de telles grandeurs dont la connaissance gommerait l’incertitude en question. Cette indétermination qui fait que seulement dans de rares cas il est possible de prédire réellement, c’est-à-dire avec une probabilité de 1, la valeur d’une variable est une conséquence directe de la structure mathématique du formalisme quantique. Nous avons déjà rapidement remarqué qu’en raison de cette originalité du formalisme de l’espace de Hilbert, certains observables, n’étant pas compatibles mathématiquement, ne le sont pas non plus expérimentalement. On doit à Werner Heisenberg d’avoir prouvé ce point grâce à ses relations d’incertitude (ou d’indétermination). Ainsi la position et la quantité de mouvement d’une particule ne peuvent être simultanément mesurées, pas plus que l’énergie d’un système et sa durée, du moins la précision de la mesure d’un des éléments entraîne inéluctablement l’imprécision du second. Plus généralement, s’il est possible, lors de préparations expérimentales ne prenant en compte qu’une seule variable, de déterminer, une fois une expérience effectuée, le résultat de tout autre expérience identique que l’on pourra tenter ultérieurement, dés qu’à un vecteur d’état sont associées plusieurs variables conjuguées (plusieurs observables sur une même particule ou plusieurs particules corrélées), seules des probabilités d’observation pourront être calculées. Si Born était plus circonspect, Heisenberg n’hésitait pas à affirmer que « la mécanique quantique établit l’échec final de la causalité ». Cette conclusion a cependant subi de nombreuses et pertinentes critiques, notamment il peut être remarqué que dans une formulation classique de la causalité : lorsque l’on connaît suffisamment les conditions, on peut en déterminer les conséquences, seule la prémisse est remise en cause par le formalisme quantique, pas la conclusion. En effet, définie ainsi sur la prévisibilité des phénomènes, le principe de causalité n’est pas proprement remis en cause par la microphysique, il est seulement rendu inapplicable. La question de savoir s’il est inapplicable pour des raisons contingentes liées aux limites de nos facultés cognitives et/ou à des attributs des choses en elles-mêmes reste encore de nos jours un sujet de controverse sur lequel nous aurons l’occasion de revenir. Toutefois, si l’on peut remarquer qu’un certain indéterminisme règne sur le fonctionnement des entités à l’échelle atomique, cela n’évacue par toute forme de déterminisme de la théorie quantique. Si en général elle n’est pas en mesure de prédire rigoureusement l’évolution d’un système particulier, concernant des ensembles statistiques, elle permet d’obtenir des prédictions ayant le même degré de précision que ce qu’il est possible d’obtenir concernant des systèmes physiques classiques. Alors que des variables conjuguées comme la vitesse et la position d’une particule ne semblent pas satisfaire aux conditions établies par le formalisme pour obtenir des prévisions au sens strict, les distributions statistiques de telles variables peuvent être prédites à l’aide d’un vecteur d’état avec le même degré de certitude que dans la plupart des expériences scientifiques. Le principe de succession selon une règle, essentielle à toute démarche scientifique, peut donc être conservé dans la mécanique quantique conventionnelle à condition que l’on ne recherche plus des règles déterministes concernant des corpuscules, mais concernant des ensembles statistiques. Cela pose de nouveau la question de savoir s’il est toujours nécessaire de conserver de telles notions corpusculaires ainsi qu’une nouvelle interrogation concernant la réalité qu’il faut attribuer à de tels ensembles statistiques. L’article EPR et les inégalités de Bell L’article fourni en 1935 par Einstein, Podolsky et Rosen, souvent qualifié de manière abusive de paradoxe EPR, est sûrement le texte le plus cité de toute la littérature scientifique. Il faut dire que sa formulation profondément réaliste mais d’une structure logique difficilement contestable eut l’audace de s’attaquer à une hypothèse généralement admise à ce moment là parmi les physiciens quantiques, l’hypothèse de complétude. Cette dernière affirme tout simplement que la théorie quantique, puisque n’ayant jamais (même de nos jours) été remise en cause par une quelconque expérience, doit constituer une description adéquate de la réalité. Cette hypothèse, d’inspiration fortement positiviste, n’est cependant absolument pas nécessaire à l’efficacité opératoire de la théorie quantique. Le texte EPR mérite davantage d’être appelé théorème EPR car il en a bien plus la structure logique et cette appellation correspond d’ailleurs mieux au réel dessein de ses auteurs. L’article est donc composé de prémisses et d’une conclusion et, s’il use d’un exemple particulier exprimé dans le formalisme quantique, le théorème EPR ressemble plus à un raisonnement philosophique et épistémologique qu’à un traité de physique. Ses prémisses sont d’une grande simplicité et d’une évidence certaine quoiqu’en partie appuyées sur le sens commun. Il est possible de les résumer en deux principes. Le premier, qui a été appelé localité ou séparabilité einsteinienne bien qu’il ait également été baptisé autrement en d’autres occasions, est fortement inspiré de la théorie de la Relativité et suppose juste que, si deux régions de l’espace sont suffisamment éloignées, puisque aucune influence plus rapide que la lumière n’est admise, les évènements qui se déroulent dans l’une sont complètement indépendants de ce qui se passe dans l’autre. Le second principe, dit critère de réalité, spécifie que si l’on peut prédire avec certitude la valeur d’une grandeur physique, c’est qu’un élément de réalité physique doit y correspondre. On peut d’ores et déjà constater comment ces deux principes ne sont guère difficiles à admettre et peuvent aisément faire l’unanimité sauf chez les plus idéalistes des épistémologues. L’exemple utilisé dans l’article EPR pour son raisonnement peut être remplacé par l’exemple standard que David Bohm proposa dans la même lignée et qui est d’une bien plus grande généralité. Il consiste à mettre en jeu une paire de particules corrélées, c’est-à-dire deux particules ayant un vecteur d’état commun et générées de sorte que l’une de leurs observables ait toujours une somme commune ; si l’une a une valeur de 1 l’autre doit avoir une valeur de -1. Ces deux particules sont ensuite projetées dans deux régions de l’espace assez éloignées pour que s’applique la séparabilité einsteinienne. Les règles de la mécanique quantique prévoient alors qu’en observant cette observable sur l’une de ces particules on connaisse sa valeur mais également celle de l’autre particule. Pour l’instant rien ne semble particulièrement problématique mais puisque l’on ne doit pas admettre la contrafactualité, cet exemple, avéré expérimentalement, signifie que observer l’une des deux particules réduit le paquet d’ondes, modifie le vecteur d’état commun et détermine les valeurs des deux particules. Si l’on admet à la fois l’hypothèse de complétude et le critère de réalité, il faut en déduire qu’un élément de réalité physique doit correspondre à chacune de ces deux valeurs, donc à chacune des deux particules, et que l’opération de mesure, non seulement influence la particule observée, mais également celle située dans une région de l’espace séparée. Autrement dit l’hypothèse de complétude, la localité et le critère de réalité ne peuvent tout trois être admis en même temps. C’est ainsi que EPR tenta de prouver l’incomplétude de la physique quantique et ouvrit la voie aux théories à variables supplémentaires que nous aborderons ultérieurement. Bien après que l’article EPR ait fait couler beaucoup d’encre, c’est John Bell qui démontra en 1964 une batterie de trois théorèmes qui fournit réellement de quoi progresser sur cette question. Ces trois théorèmes possèdent la même structure, ils posent chacun une série de prémisses à partir desquelles il est possible de déduire des inégalités dont on peut montrer qu’elles sont violées par des prédictions vérifiées de la mécanique quantique. Ainsi il est possible d’en apprendre beaucoup car ces prémisses ne peuvent alors pas être conservées ensembles. Le raisonnement de Bell se place dans la même lignée que le théorème EPR, philosophiquement en se fixant un but similaire -prouver l’incomplétude de la mécanique quantique- et méthodologiquement en adoptant une structure logique sensiblement similaire. Il a été perfectionné à plusieurs reprises et dans plusieurs sens par d’autres auteurs de sorte que désormais, si son interprétation est l’objet de discussion, sa validité logique fait l’unanimité. Les théorèmes de Bell posent les mêmes prémisses que celles d’Einstein, localité et réalité, ainsi que d’autres toutes aussi simples comme le libre choix de la mesure par l’expérimentateur et la validité du raisonnement par induction. Par des raisonnements par l’absurde du même type que celui de l’article EPR mais bien trop complexes pour être rapportés ici, les inégalités de Bell montrent essentiellement que la mécanique quantique, comme toute autre théorie visant à reproduire les mêmes prévisions, doit soit abandonner le critère de réalité soit la localité. En effet, puisque le formalisme quantique est non-local dans tous ses outils épistémiques, on peut considérer que celui-ci a une validité strictement opératoire et ne nous informe absolument en rien sur la nature d’une quelconque réalité fondamentale, dans ce cas on est encore en droit de supposer que cette dernière pourrait être purement locale. Sinon, si l’on veut affirmer que le formalisme quantique correspond, ne serait-ce que partiellement, à des éléments de réalité, il faut admettre que cette réalité doit être non-locale, c’est-à-dire que sont possibles des influences instantanées entre des éléments de deux régions séparées de l’espace-temps. Ce point est d’une importance capitale pour la compréhension de notre monde et/ou de la nature de notre connaissance des choses, et il sera d’un grand usage pour la suite de notre étude et notamment lors de l’analyse des diverses interprétations du formalisme quantique. Pour le moment il est déjà possible de constater comment le fait d’adopter une vision positiviste ou réaliste en physique quantique a une importance dans la structure logique de la théorie alors que, dans n’importe quel autre domaine scientifique, il ne s’agit que de points de vue philosophiques qu’il n’est pas nécessaire d’introduire dans les débats strictement scientifiques.
Les théories à variables supplémentaires Il est impossible de fournir ici la moindre description exhaustive de toutes les théories de ce type qui ont pu être proposées, c’est pourquoi nous nous contentons d’une rapide description structurelle et d’un bref et incomplet historique de l’apparition de ces théories. C’est à partir du résultat de l’article EPR que les partisans, comme Einstein, de l’incomplétude de la mécanique quantique tentèrent de construire une théorie qui devait dépasser, en l’intégrant, la théorie actuelle pour proposer les mêmes prédictions tout en rendant compte de manière plus cohérente du monde. Toutes ces tentatives sont classées comme théories à variables cachées, quoique beaucoup d’auteurs préfèrent parler de théories à variables supplémentaires car si la première formulation est consacrée par l’usage, la seconde est moins trompeuse et plus exhaustive. Bell étant de ces physiciens soucieux de retrouver une description du monde plus proche de ce que peut nous procurer notre intuition, c’est en travaillant à ce projet qu’il découvrit ses inégalités. Ces dernières posent d’ailleurs un cadre essentiel à toute entreprise de ce type, mais un cadre très restrictif comme nous l’avons vu car il y est établi qu’une théorie destinée à reproduire les prévisions de la mécanique quantique tout en revendiquant une description complète de la réalité doit contrevenir à la localité. C’est en effet en tentant de contourner ce point que ces théories furent considérées comme introduisant des variables cachées. Car la localité au sens de la Relativité n’interdit pas tout à fait toute forme d’influence plus rapide que la lumière mais seulement tous les transferts de signaux plus rapides que la lumière ; ce qui limite toutefois grandement le type d’influence non-locale permis. Le seul moyen alors de réconcilier une théorie ayant ce genre de visées ontologiques avec la théorie de la Relativité est de supposer que les influences à distance qui y sont possibles doivent correspondre à des variables qui nous sont complètement inaccessibles. Cependant nombre d’autres théories à variables supplémentaires introduisent pour d’autres raisons des variables qui n’ont rien de caché, ce qui explique le choix de la présente formulation. Si elles sont regroupées dans la même école de pensée, c’est que ces théories présentent un certains nombre de similitudes structurelles et conceptuelles. Elles ont toutes le même objectif : réinterpréter le formalisme quantique pour lui donner une signification ontologique. En d’autres termes, il s’agit de construire une théorie mathématiquement équivalente au formalisme conventionnel mais qui a prétention à décrire le réel tel qu’il est en soi, c’est-à-dire en définissant la nature des objets étudiés, le statut des particules et des opérateurs mathématiques, etc. En général d’une construction plus complexe que la théorie orthodoxe, ces alternatives réutilisent tout son bagage mathématique permettant la prédiction des phénomènes, substituent les termes du formalisme pour lui donner du sens et introduisent de nouveaux outils afin de gérer les variables ajoutées. Si l’engouement pour les théories à variables supplémentaires correspond plus ou moins à l’article EPR, on peut remarquer que la première construction de ce type fut la théorie de l’onde pilote que de Broglie proposa dans les années vingt, avant même que s’établisse le point de vue conventionnel en physique quantique que nous avons évoqué et que ces théories doivent remplacer. Bohm repris cette théorie à la suite de l’article EPR dans la perspective einsteinienne de compléter la physique quantique et Bell entreprit la synthèse et l’actualisation des travaux des deux physiciens dans une même optique. On peut sans trop de risque affirmer que la théorie de l’onde pilote, ainsi augmentée et raffinée, est l’archétype d’une théorie à variables cachées et nous permet d’en donner un bon exemple. Cette théorie consiste à supposer l’existence d’une fonction d’onde de l’Univers qui piloterait toutes les particules de l’Univers. Chacune d’entre elles possède alors position, vitesse et donc trajectoire, ce qui nous réconcilie avec des conceptions familières. Les particules sont alors des existences fondamentales qui possèdent une persistance ontologique, de même que cette fonction d’onde qui définit le potentiel quantique tout aussi réel de chaque particule. C’est ce potentiel, comparable à un champs de force et donc lui aussi susceptible d’une compréhension relativement intuitive, qui détermine les particules à parfois adopter un comportement si particulier, comme les franges d’interférence dans l’expérience de Davisson et Germer. Ce qui provoque alors les nombreux problèmes épistémologiques que nous avons remarqués, c’est le fait déjà constaté qu’une fonction d’onde ou un vecteur d’état décrivant plusieurs particules enchevêtrées n’est pas la somme ou le produit des vecteurs d’état de toutes ces particules. Comme nous ne pouvons connaître et quantifier en détail le vecteur d’état du système qu’est l’Univers, nous en sommes réduit à ne considérer que des sous-systèmes de celui-ci et leurs vecteurs d’état respectifs qui ne contiennent par conséquent pas toutes les informations permettant de décrire le comportement des particules qui y évoluent. De même l’influence de l’observateur que l’on peut considérer concernant le problème de la mesure se résout par le fait que nous aussi, observateurs, nous sommes composés de particules pilotées par la fonction d’onde de l’Univers et donc enchevêtrées avec toutes les autres. A l’instar de la théorie de l’onde pilote, on peut en général remarquer que les théories à variables supplémentaires, pour donner une interprétation ontologique à la physique quantique, réaménagent son formalisme pour réintroduire, sauvegarder ou renforcer des concepts classiques qui avaient étés plus ou moins abandonnés et notamment des conceptions corpusculaires. C’est par là même que de telles théories présentent un intérêt et un attrait certain, elles ont l’avantage d’offrir une description du monde quantique qui satisfasse à la grille de lecture classique avec laquelle nous avons tendance à raisonner. Nous allons maintenant voir qu’elles ont à faire face à un certain nombre de difficultés qui ne peuvent être négligées. Les difficultés Outre les théories à variables supplémentaires qui doivent être abandonnées car des erreurs mathématiques et logiques ont pu être décelées dans leur formulation, des difficultés très particulières d’ordre épistémologique et conceptuel sont communes à toutes les théories de ce type qui présentent pourtant une validité incontestée sur le plan logique. Premièrement il nous faut rappeler le commerce très spécial que doit entretenir toute théorie à variables supplémentaires avec la Relativité en raison des inégalités de Bell. Même s’il est possible de trouver des astuces structurelles qui permettent de réconcilier les deux par une légère modification du formalisme quantique ou de la Relativité, il demeure qu’en poursuivant son objectif de proposer une alternative à la mécanique quantique conventionnelle à l’aide de conceptions classiques, toute théorie à variables supplémentaire doit introduire une non-localité fortement contre intuitive. Aussi, si en effet une théorie à variables cachées permet une description plus intuitive des évènements du monde microscopique dans des cas simples ou des exemples types, l’équivalence avec le formalisme orthodoxe à laquelle ces théories doivent souscrire leur fait perdre toute cette simplicité dans des cas plus complexes, notamment lorsque augmente le nombre de dimensions de l’espace abstrait dans lequel évoluent les vecteurs d’état. On est donc en droit de penser que la cohérence que semble présenter ce type de théories pour rendre compte du monde quantique ne tient qu’à une efficacité pédagogique. La simplicité basée sur l’usage de termes classiques comme ceux de corps, position et vitesse dont ces théories peuvent faire preuve pour expliquer le comportement d’une particule se dissout progressivement lorsque le cas considéré se complexifie. De telles théories à variables supplémentaires présentent également une difficulté liée au fait même qu’elles aient pour but de fixer la nature fondamentale des existants du monde quantique, difficulté qu’elles partagent avec d’autres travaux théoriques à visée ontologique dans d’autres domaines scientifiques. En effet, une fois que la théorie a déterminé et décrit les éléments de réalités qui correspondent aux phénomènes quantiques, une rigidité a été introduite qui peut poser un certain nombre de problèmes conceptuels dés que de nouvelles données expérimentales sont apportées. De nouvelles avancées scientifiques peuvent alors sonner le glas d’une théorie à variables supplémentaires comme la théorie de Relativité remit en cause l’existence (mais pas l’efficacité) des champs de gravité newtoniens car le type d’existants fondamentaux qui avait été postulé se trouve impossible à conserver dans la nouvelle théorie. Ainsi, si la théorie conventionnelle, essentiellement opératoire, se garde de ce type de problèmes car elle s’abstient de se prononcer sur la nature des objets étudiés, une théorie qui a prétention à décrire la réalité fondamentale ne peut qu’avoir une postérité bien incertaine. Un problème bien plus radical et plus spécifique à la physique quantique caractérise toutes les théories à variables supplémentaires qui ont pu être construite. Si toutes ces théories, pourvu qu’elles soient correctement construites, reproduisent toutes les prédictions permises par la mécanique quantique, aucune n’a jamais fourni une prédiction vérifiée qui ne puisse être fournie par la théorie quantique conventionnelle. Autrement dit aucune n’a pu fournir la moindre preuve expérimentale de sa supériorité sur le modèle orthodoxe. D’autant plus que les théories à variables supplémentaires, puisque d’une construction mathématique plus complexe, ont toujours plus de mal à assimiler de nouvelles données fournies par l’expérience. Par conséquent ces théories ne peuvent avancer que leur clarté conceptuelle et leur efficacité pédagogique pour soutenir leur supériorité. Cela est particulièrement symptomatique si l’on considère que parmi les multiples modèles à variables supplémentaires qui ont pu être proposés et qui présentent chacun une parfaite cohérence interne, aucun n’a pu présenter d’argument décisif pour montrer sa supériorité sur les autres. Ainsi, même le physicien soucieux d’adhérer à une théorie décrivant le réel fondamentalement aurait bien du mal à discriminer parmi tous les modèles disponibles. Nous ne pouvons donc en toute rigueur, c’est-à-dire uniquement sur la base d’arguments rationnels, adhérer à aucune de ces théories à variables supplémentaires. Mais, à la suite de Bernard d’Espagnat, nous pouvons tout de même considérer ces modèles comme de bons « laboratoires théoriques » permettant de mieux analyser les enjeux ontologiques et épistémologiques que présente le formalisme quantique. Comme exemple ou contre-exemple, de telles constructions, visant à décrire avec un maximum d’objectivité le monde quantique, permettent d’éviter certaines conclusions et généralisations hâtives à partir de données expérimentales qui pourraient être interprétées de diverses manières.
Quel que soit l’objectif du physicien, qu’il ait une véritable volonté théorique visant à décrire les choses en soi ou qu’il se cantonne à un travail opératoire et à l’établissement de règles de prédiction efficaces, certaines questions d’ordre ontologique ne peuvent être ignorées car elles doivent inévitablement se poser au scientifique qu’il soit d’inspiration plutôt réaliste ou plutôt positiviste. Ainsi la question de savoir si le concept de corps matériel doit être conservé en physique quantique est inévitablement posée car quelle que soit l’obédience du discours, il fait invariablement référence à des objets précis dont la nature doit, à un moment ou à un autre, être traitée. Même si l’on estime que la nature des objets étudiés en physique quantique ne peut être fixée, on a d’ores et déjà admis que le concept de corps matériel n’y a plus l’évidence qu’il revêt dans la physique classique. Pour reprendre le propos de l’épistémologue Michel Bitbol, en toute rigueur il n’est pas possible de retrouver en physique quantique le type d’invariants dont l’on dispose en physique classique comme dans la vie courante et qui nous permettent de faire usage en toute légitimité du concept de corps matériel. Si l’on définit comme lui un corps matériel comme « un secteur d’espace tridimensionnel objectivé par la détermination d’effets locaux invariants sous un ensemble de changements réglés », ni une localisation précise ni aucun effet particulier ne nous sont disponibles pour justifier l’usage en mécanique quantique d’une telle notion corpusculaire. De même, quelle que soit la théorie de la référence utilisée, les conditions nécessaires à une objectivation ne sont pas réunis, que ce soit des procédures de suivi ou des modalités trans-temporelles de réidentification. Mais les pères fondateurs de la microphysique ne s’y sont pas trompés en faisant preuve d’une grande prudence, dés la naissance de la physique quantique, quand à la nature des entités étudiées. Ainsi Schrödinger abandonna très tôt le concept de corpuscules dés lors qu’il n’était plus possible d’avoir de position et de trajectoire clairement définies. Ce sera Bohr qui ira le plus loin en affirmant que l’on est réduit à décrire des dispositifs et des résultats expérimentaux et que les hypothétiques propriétés de corps existant indépendamment de toute observation nous sont inaccessibles et n’ont même aucun sens. Cependant, malgré son caractère particulièrement opératoire, la théorie quantique, dans sa formulation orthodoxe, n’est pas exempte de considérations corpusculaires. Il y est constamment fait référence à des particules mais dont on n’exige pas que leur description réunisse tous les éléments nécessaires à une objectivation rigoureuse du type de celle d’un corps matériel et dont on ne s’attend pas à ce qu’elles reproduisent tous les comportements généralement associés à une entité corpusculaire. Ainsi une particule possède une position et une vitesse bien définies, mais uniquement lors d’une mesure et jamais simultanément. Cet usage d’une notion très proche de l’idée d’un corps matériel mais qui n’en présente que peu de caractéristiques est symptomatique, non seulement du flou qui caractérise les objets étudiés dans la physique quantique conventionnelle, mais également de l’impossibilité d’y utiliser le concept intuitif de corps matériel dont nous disposons. En général les théories à variables supplémentaires s’attachent à restaurer pleinement toutes les conditions nécessaires à l’usage d’un tel concept. Cependant cela se paye d’un coût épistémologique très lourd car, outre la non-localité qui doit être admise, des variables inobservables empiriquement doivent être acceptées pour que l’on puisse continuer à parler des particules comme de petits corps matériels disposant en permanence d’une position, d’une vitesse, d’une trajectoire, etc. Cela se rajoute aux difficultés que nous avons traitées précédemment et nuit grandement à leur crédibilité car c’est par des invariants qui ne correspondent à aucune donnée observable, donc à aucune modalité référentielle, qu’une stabilité suffisante est trouvée pour redonner du sens au concept de corps matériel. Pourtant, dans nombre d’expériences, il est possible d’effectuer des observations enchaînées ou des détections coordonnées de sortes que l’on puisse constater des impressions de trajectoire concernant une particule, mais, en raison des relations d’incertitude d’Heisenberg, seule l’introduction de données supplémentaires non-empiriques permettent d’en conclure logiquement à la présence localisée, même en l’absence de mesure, de la particule en chacun des moments de la trajectoire. Cette survie artificielle de notions corpusculaires inutiles au formalisme, pour son efficacité prédictive, peut alors rapidement passer pour une simple astuce conceptuelle, voire un vulgaire réflexe défensif, de la part des ultimes partisans de la réalité fondamentale des corps matériels. Nous avons cependant déjà remarqué que même si l’on n’admet aucune théorie à variables supplémentaires, il est possible de leur trouver une grande utilité épistémologique. Quoiqu’il en soit, même un modèle à variables cachées est obligé d’admettre le comportement souvent fort contre intuitif des particules et la présence d’autres entités réelles et non corpusculaire comme des potentiels ou champs quantiques pour rendre compte de ces bizarreries. Il arrive que les interprétations de la théorie quantique dites statistiques ou stochastiques soient présentées comme résolvant la question de la nature des entités du monde microscopique. Une telle interprétation part du fait que le formalisme du vecteur d’état et de l’espace de Hilbert est une description complète et adéquate d’ensembles statistiques de systèmes physiques. La parfaite prédictibilité dont fait preuve le formalisme quantique au sujet de distributions statistiques suscite en effet l’unanimité, pourtant diverses interprétations basées sur cette certitude sont envisageables. Ainsi on ne peut considérer ni les vecteurs d’état ni les ensembles statistiques comme réels tout en leur restituant la complète validité opératoire qui leur est due, ou considérer le formalisme quantique comme une description complète et adéquate de la réalité à condition que ces ensembles statistiques constituent des entités réelles. Dans le cadre de la première hypothèse il est alors possible, dans une optique réaliste, de construire sur cette base une théorie à variables supplémentaires qui assigne à chaque système individuel toutes les propriétés d’un corps matériel en considérant qu’ils ne sont pas soumis individuellement aux étrangetés de ce formalisme. Mais il est également acceptable, sur la même base, de tenir un discours d’inspiration positiviste où cette seule efficacité opératoire est considérée comme suffisante et où le concept de corps matériel n’est plus alors nécessaire. La seconde hypothèse, si elle n’établit pas quelle est la nature des entités qui composent les ensembles statistiques, a cependant le mérite de sauvegarder le déterminisme, car s’il ne s’applique pas aux systèmes individuels, il reste complètement opérant au sujet de ces ensembles. Il faut tout de même remarquer qu’une interprétation positiviste qui ne se prononce pas sur la nature des entités individuelles, contrairement à une théorie stochastique à variables supplémentaires, reste condamnée à invoquer le principe de réduction du paquet d’ondes pour rendre compte qu’à chaque mesure on observe sur chaque système individuel des valeurs bien définies. Dans tout les cas, si les interprétations statistiques du formalisme quantique permettent de construire de cohérentes théories à variables supplémentaires et peuvent expliquer l’efficacité opératoire de la physique quantique concernant des distributions statistiques, elles n’apportent pas vraiment de réponse au problème ontologique posé quand au maintien ou non du concept de corps matériel pour le monde microscopique. Ainsi on peut voir clairement que pour expliquer la théorie quantique comme pour prouver son efficacité, celle-ci n’a absolument pas besoin de notions corpusculaires. Cependant, comme Bitbol le suggère, si de telles notions sont maintenues dans le langages de la plupart des physiciens c’est peut-être parce qu’elles sont nécessaires pour conserver un lien entre ce formalisme si particulier et l’expérience commune qui est la nôtre et dans laquelle nous pouvons en général toujours compter sur des entités spatialement bien localisées et dont le suivi ne pose guère de problème. Le statut de la conscience Il nous faut maintenant revenir au problème de la mesure que nous n’avons fait que poser précédemment et notamment sur le statut particulier que le principe de réduction du paquet d’ondes semble donner à l’observation et donc à la conscience. Dans une perspective réaliste ce problème du statut de la conscience est très grave car il devient alors très complexe de construire une description objective de la réalité indépendante. Mais le physicien positiviste doit également être gêné par ce statut très particulier et très important qui est donné à l’influence de l’observateur dans toute opération de mesure car il empêche à première vue de trouver une équation prédictive purement déterministe concernant les résultats de mesures possibles sur un système individuel. La question est donc de savoir si la théorie quantique donne vraiment un statut exceptionnel à la conscience ou s’il est possible de retrouver une description purement physicaliste du réel qui réutilise le même formalisme. Dans un premier temps il faut remarquer que la plupart des théories à variables supplémentaires, dans l’optique d’une description cohérente du réel, évacuent complètement le principe de réduction du paquet d’ondes, et donc toute intervention de la conscience. Pour cela elles supposent généralement que toutes les observables d’un système ont toujours des valeurs bien définies bien qu’elles ne soient pas données par son vecteur d’état. Dans ce cas l’opération de mesure, comme dans toutes les autres sciences, ne fait que dévoiler une donnée préexistante et le vecteur d’état, qui n’est pas plus une description complète du système, n’est actualisé que grâce à l’apport de cette nouvelle donnée comme dans tout fonctionnement probabilistique en physique classique. Cependant nous avons déjà assez précisé les problèmes épistémologiques que soulèvent les théories à variables cachées pour que nous ne nous suffisions pas des solutions qu’elles proposent et qui ne sont de toute manière pas admissibles dans une optique positiviste. Nous devons tenter d’éclaircir le problème posé par le statut de la conscience dans le strict cadre de la théorie quantique conventionnelle. Partons pour cela de la célèbre théorie des états relatifs proposée par Hugh Everett. Celle-ci évacue complètement le principe de réduction du paquet d’ondes mais d’une manière très particulière : il n’est pas question de supposer pour cela des valeurs prédéterminées aux observables du système, bien au contraire, même après la mesure, ces observables ne sont toujours pas considérées comme ayant des valeurs déterminées. Pour se passer ainsi de la réduction du paquet d’ondes et résoudre le problème de la mesure, la théorie des états relatifs se propose de traiter la conscience comme une propriété purement physique de l’observateur, lui-même conçu comme un automate de sorte qu’il n’y ait aucune différence entre lui et n’importe quel autre instrument de mesure. Ainsi, après l’interaction, entre un observateur et un système étudié, que nous appelons communément opération de mesure, le grand système composé de leur combinaison se trouve dans un état enchevêtré, et superposé car il n’y a pas eu réduction du paquet d’ondes. L’observateur, comme tout système quantique dans la théorie orthodoxe, est alors considéré comme étant dans plusieurs états en même temps. Mais comment expliquer alors l’unicité que nous observons perpétuellement à propos de la valeur d’une observable mesurée aussi bien qu’au sujet de notre propre conscience ? La théorie des états relatifs montre comment il découle directement des règles de la mécanique quantique que les différentes’branches’’ du vecteur d’état du système total, qui correspondent chacune à un état précis, ne communiquent pas entre elles et sont individuellement cohérentes. En réalité, selon cette théorie, lors d’une mesure, nous observons toutes les valeurs possibles de l’observable considérée mais dans autant d’états de conscience qui ne communiquent pas entre eux. On comprend alors bien comment la théorie de Everett a pu être à la base de la tout aussi célèbre théorie des mondes multiples de Bryce De Witt. Toute opération de mesure crée plusieurs ramifications qui peuvent cohabiter sans encombre en raison du cloisonnement qui les caractérise. Etant donné le nombre de consciences et de mesures effectuées dans l’univers on peut imaginer un nombre astronomique et en augmentation constante pour ces ramifications. Le concept des mondes multiples vient tout simplement de l’idée, que l’on ne peut ni réfuter ni prouver, qu’à la création d’une ramification doit correspondre celle d’un univers correspondant de sorte que le nombre des univers parallèles doit lui aussi être dans une augmentation constante. Aussi étrange qu’elle puisse paraître, la théorie des états relatifs est logiquement très cohérente et permet d’expulser efficacement le principe de réduction du paquet d’ondes sans introduire de données inobservables. Que l’on considère son modèle comme valide ou non, le coup de génie d’Everett demeure qu’il ait songé à faire glisser le problème de la mesure de considérations physiques à une conception davantage psychologique, tout en admettant comme valide l’essentiel des règles de la mécanique quantique conventionnelle. Cependant, dans l’analyse que d’Espagnat a pu en proposer, il est possible de remarquer que la théorie des états relatifs peine quelque peu à donner un statut à la mémoire de l’observateur et qu’il est nécessaire pour régler ce point de retomber sur un certain dualisme car l’état de conscience de l’observateur est alors une propriété particulière soumise à un régime spécial. Dans ce dernier cas, si la théorie des états relatifs a le mérite de refuser à la conscience une quelconque influence lors de l’opération de mesure, elle ne parvient pas tout à fait à lui enlever son statut particulier.
Quelle que soit la tournure dans laquelle nous prenons le formalisme quantique orthodoxe, on doit inévitablement constater que les notions d’observation et d’observateur ne peuvent en être expulsées. Etant donné que toute forme d’observation suppose une conscience correspondante et que toute formulation de loi en physique quantique conventionnelle ne peut manquer de faire appel à ce concept d’observation, une vision matérialiste de la théorie quantique du type de celle habituellement adoptée en physique classique, c’est-à-dire éjectant complètement toute référence à l’esprit humain, n’est tout simplement pas envisageable. Et cela est tout à fait indépendant du problème posé par la réduction du paquet d’ondes car par exemple la règle de Born, qui sert à calculer la probabilité que telle valeur soit mesurée sur telle observable, ne peut être transformée en une règle nous permettant de déterminer la valeur que telle observable a avant la mesure que si l’on se place dans le cadre d’une théorie à variables supplémentaires. Donc soit on prend le formalisme dans sa mouture orthodoxe et on est alors dans l’incapacité de tenir l’habituel discours scientifique et physicaliste, soit on adhère à l’une des théories à variables cachées mais, en admettant ainsi des données non-empiriques, on s’expose à l’accusation scientiste, habituellement réservée aux théories les moins matérialistes, d’accepter des hypothèses métaphysiques. Comme le remarque Bitbol, cette irréductible présence de l’expérimentateur dans la formulation de la théorie quantique fera rappeler à Bohr ce fait, pourtant déjà remarqué par la tradition philosophique mais oublié dans la construction de la méthode scientifique, que « nous sommes aussi bien acteurs que spectateurs dans le grand drame de l’existence ».
https://www.matierevolution.fr/spip.php?article685
Lire encore que la réduction du paquet d’ondes :
https://fr.wikipedia.org/wiki/R%C3%A9duction_du_paquet_d%27onde
http://www.physique-quantique.wikibis.com/reduction_du_paquet_d_onde.php
https://datafranca.org/wiki/Processus_de_r%C3%A9duction_du_paquet_d%E2%80%99ondes
https://forums.futura-sciences.com/physique/163843-reduction-paquet-donde-decoherence.html
https://www.phy.ulaval.ca/fileadmin/phy/documents/PDF/Pedago/Ondes_v3.pdf
https://www-fourier.ujf-grenoble.fr/~faure/enseignement/meca_q/cours.pdf
https://fr.quora.com/La-conscience-est-elle-n%C3%A9cessaire-pour-la-r%C3%A9duction-du-paquet-donde
https://scienceetonnante.com/2022/12/08/mesure-quantique-coleman/