Accueil > 02 - Livre Deux : SCIENCES > Un débat sur la physique et les expériences EPR

Un débat sur la physique et les expériences EPR

lundi 14 juin 2010

1- Le rappel des éléments du débat entre Einstein et la physique quantique

2- Un nouveau débat


1- Le rappel des éléments du débat entre Einstein et la physique quantique

L’article EPR et les inégalités de Bell

L’article fourni en 1935 par Einstein, Podolsky et Rosen, souvent qualifié de manière abusive de paradoxe EPR, est sûrement le texte le plus cité de toute la littérature scientifique. Il faut dire que sa formulation profondément réaliste mais d’une structure logique difficilement contestable eut l’audace de s’attaquer à une hypothèse généralement admise à ce moment là parmi les physiciens quantiques, l’hypothèse de complétude. Cette dernière affirme tout simplement que la théorie quantique, puisque n’ayant jamais (même de nos jours) été remise en cause par une quelconque expérience, doit constituer une description adéquate de la réalité. Cette hypothèse, d’inspiration fortement positiviste, n’est cependant absolument pas nécessaire à l’efficacité opératoire de la théorie quantique.

Le texte EPR mérite davantage d’être appelé théorème EPR car il en a bien plus la structure logique et cette appellation correspond d’ailleurs mieux au réel dessein de ses auteurs. L’article est donc composé de prémisses et d’une conclusion et, s’il use d’un exemple particulier exprimé dans le formalisme quantique, le théorème EPR ressemble plus à un raisonnement philosophique et épistémologique qu’à un traité de physique. Ses prémisses sont d’une grande simplicité et d’une évidence certaine quoiqu’en partie appuyées sur le sens commun. Il est possible de les résumer en deux principes. Le premier, qui a été appelé localité ou séparabilité einsteinienne bien qu’il ait également été baptisé autrement en d’autres occasions, est fortement inspiré de la théorie de la Relativité et suppose juste que, si deux régions de l’espace sont suffisamment éloignées, puisque aucune influence plus rapide que la lumière n’est admise, les évènements qui se déroulent dans l’une sont complètement indépendants de ce qui se passe dans l’autre. Le second principe, dit critère de réalité, spécifie que si l’on peut prédire avec certitude la valeur d’une grandeur physique, c’est qu’un élément de réalité physique doit y correspondre. On peut d’ores et déjà constater comment ces deux principes ne sont guère difficiles à admettre et peuvent aisément faire l’unanimité sauf chez les plus idéalistes des épistémologues.

L’exemple utilisé dans l’article EPR pour son raisonnement peut être remplacé par l’exemple standard que David Bohm proposa dans la même lignée et qui est d’une bien plus grande généralité. Il consiste à mettre en jeu une paire de particules corrélées, c’est-à-dire deux particules ayant un vecteur d’état commun et générées de sorte que l’une de leurs observables ait toujours une somme commune ; si l’une a une valeur de 1 l’autre doit avoir une valeur de -1. Ces deux particules sont ensuite projetées dans deux régions de l’espace assez éloignées pour que s’applique la séparabilité einsteinienne. Les règles de la mécanique quantique prévoient alors qu’en observant cette observable sur l’une de ces particules on connaisse sa valeur mais également celle de l’autre particule. Pour l’instant rien ne semble particulièrement problématique mais puisque l’on ne doit pas admettre la contrafactualité, cet exemple, avéré expérimentalement, signifie que observer l’une des deux particules réduit le paquet d’ondes, modifie le vecteur d’état commun et détermine les valeurs des deux particules. Si l’on admet à la fois l’hypothèse de complétude et le critère de réalité, il faut en déduire qu’un élément de réalité physique doit correspondre à chacune de ces deux valeurs, donc à chacune des deux particules, et que l’opération de mesure, non seulement influence la particule observée, mais également celle située dans une région de l’espace séparée. Autrement dit l’hypothèse de complétude, la localité et le critère de réalité ne peuvent tout trois être admis en même temps. C’est ainsi que EPR tenta de prouver l’incomplétude de la physique quantique et ouvrit la voie aux théories à variables supplémentaires que nous aborderons ultérieurement.

Bien après que l’article EPR ait fait couler beaucoup d’encre, c’est John Bell qui démontra en 1964 une batterie de trois théorèmes qui fournit réellement de quoi progresser sur cette question. Ces trois théorèmes possèdent la même structure, ils posent chacun une série de prémisses à partir desquelles il est possible de déduire des inégalités dont on peut montrer qu’elles sont violées par des prédictions vérifiées de la mécanique quantique. Ainsi il est possible d’en apprendre beaucoup car ces prémisses ne peuvent alors pas être conservées ensembles. Le raisonnement de Bell se place dans la même lignée que le théorème EPR, philosophiquement en se fixant un but similaire -prouver l’incomplétude de la mécanique quantique- et méthodologiquement en adoptant une structure logique sensiblement similaire. Il a été perfectionné à plusieurs reprises et dans plusieurs sens par d’autres auteurs de sorte que désormais, si son interprétation est l’objet de discussion, sa validité logique fait l’unanimité.

Les théorèmes de Bell posent les mêmes prémisses que celles d’Einstein, localité et réalité, ainsi que d’autres toutes aussi simples comme le libre choix de la mesure par l’expérimentateur et la validité du raisonnement par induction. Par des raisonnements par l’absurde du même type que celui de l’article EPR mais bien trop complexes pour être rapportés ici, les inégalités de Bell montrent essentiellement que la mécanique quantique, comme toute autre théorie visant à reproduire les mêmes prévisions, doit soit abandonner le critère de réalité soit la localité. En effet, puisque le formalisme quantique est non-local dans tous ses outils épistémiques, on peut considérer que celui-ci a une validité strictement opératoire et ne nous informe absolument en rien sur la nature d’une quelconque réalité fondamentale, dans ce cas on est encore en droit de supposer que cette dernière pourrait être purement locale. Sinon, si l’on veut affirmer que le formalisme quantique correspond, ne serait-ce que partiellement, à des éléments de réalité, il faut admettre que cette réalité doit être non-locale, c’est-à-dire que sont possibles des influences instantanées entre des éléments de deux régions séparées de l’espace-temps.

Ce point est d’une importance capitale pour la compréhension de notre monde et/ou de la nature de notre connaissance des choses, et il sera d’un grand usage pour la suite de notre étude et notamment lors de l’analyse des diverses interprétations du formalisme quantique. Pour le moment il est déjà possible de constater comment le fait d’adopter une vision positiviste ou réaliste en physique quantique a une importance dans la structure logique de la théorie alors que, dans n’importe quel autre domaine scientifique, il ne s’agit que de points de vue philosophiques qu’il n’est pas nécessaire d’introduire dans les débats strictement scientifiques.

2.3. Les solutions proposées

2.3.1. La réforme conceptuelle

Les théories à variables supplémentaires

Il est impossible de fournir ici la moindre description exhaustive de toutes les théories de ce type qui ont pu être proposées, c’est pourquoi nous nous contentons d’une rapide description structurelle et d’un bref et incomplet historique de l’apparition de ces théories.

C’est à partir du résultat de l’article EPR que les partisans, comme Einstein, de l’incomplétude de la mécanique quantique tentèrent de construire une théorie qui devait dépasser, en l’intégrant, la théorie actuelle pour proposer les mêmes prédictions tout en rendant compte de manière plus cohérente du monde. Toutes ces tentatives sont classées comme théories à variables cachées, quoique beaucoup d’auteurs préfèrent parler de théories à variables supplémentaires car si la première formulation est consacrée par l’usage, la seconde est moins trompeuse et plus exhaustive. Bell étant de ces physiciens soucieux de retrouver une description du monde plus proche de ce que peut nous procurer notre intuition, c’est en travaillant à ce projet qu’il découvrit ses inégalités. Ces dernières posent d’ailleurs un cadre essentiel à toute entreprise de ce type, mais un cadre très restrictif comme nous l’avons vu car il y est établi qu’une théorie destinée à reproduire les prévisions de la mécanique quantique tout en revendiquant une description complète de la réalité doit contrevenir à la localité. C’est en effet en tentant de contourner ce point que ces théories furent considérées comme introduisant des variables cachées. Car la localité au sens de la Relativité n’interdit pas tout à fait toute forme d’influence plus rapide que la lumière mais seulement tous les transferts de signaux plus rapides que la lumière ; ce qui limite toutefois grandement le type d’influence non-locale permis. Le seul moyen alors de réconcilier une théorie ayant ce genre de visées ontologiques avec la théorie de la Relativité est de supposer que les influences à distance qui y sont possibles doivent correspondre à des variables qui nous sont complètement inaccessibles. Cependant nombre d’autres théories à variables supplémentaires introduisent pour d’autres raisons des variables qui n’ont rien de caché, ce qui explique le choix de la présente formulation. Si elles sont regroupées dans la même école de pensée, c’est que ces théories présentent un certains nombre de similitudes structurelles et conceptuelles. Elles ont toutes le même objectif : réinterpréter le formalisme quantique pour lui donner une signification ontologique. En d’autres termes, il s’agit de construire une théorie mathématiquement équivalente au formalisme conventionnel mais qui a prétention à décrire le réel tel qu’il est en soi, c’est-à-dire en définissant la nature des objets étudiés, le statut des particules et des opérateurs mathématiques, etc. En général d’une construction plus complexe que la théorie orthodoxe, ces alternatives réutilisent tout son bagage mathématique permettant la prédiction des phénomènes, substituent les termes du formalisme pour lui donner du sens et introduisent de nouveaux outils afin de gérer les variables ajoutées.

Si l’engouement pour les théories à variables supplémentaires correspond plus ou moins à l’article EPR, on peut remarquer que la première construction de ce type fut la théorie de l’onde pilote que de Broglie proposa dans les années vingt, avant même que s’établisse le point de vue conventionnel en physique quantique que nous avons évoqué et que ces théories doivent remplacer. Bohm repris cette théorie à la suite de l’article EPR dans la perspective einsteinienne de compléter la physique quantique et Bell entreprit la synthèse et l’actualisation des travaux des deux physiciens dans une même optique. On peut sans trop de risque affirmer que la théorie de l’onde pilote, ainsi augmentée et raffinée, est l’archétype d’une théorie à variables cachées et nous permet d’en donner un bon exemple. Cette théorie consiste à supposer l’existence d’une fonction d’onde de l’Univers qui piloterait toutes les particules de l’Univers. Chacune d’entre elles possède alors position, vitesse et donc trajectoire, ce qui nous réconcilie avec des conceptions familières. Les particules sont alors des existences fondamentales qui possèdent une persistance ontologique, de même que cette fonction d’onde qui définit le potentiel quantique tout aussi réel de chaque particule. C’est ce potentiel, comparable à un champs de force et donc lui aussi susceptible d’une compréhension relativement intuitive, qui détermine les particules à parfois adopter un comportement si particulier, comme les franges d’interférence dans l’expérience de Davisson et Germer. Ce qui provoque alors les nombreux problèmes épistémologiques que nous avons remarqués, c’est le fait déjà constaté qu’une fonction d’onde ou un vecteur d’état décrivant plusieurs particules enchevêtrées n’est pas la somme ou le produit des vecteurs d’état de toutes ces particules. Comme nous ne pouvons connaître et quantifier en détail le vecteur d’état du système qu’est l’Univers, nous en sommes réduit à ne considérer que des sous-systèmes de celui-ci et leurs vecteurs d’état respectifs qui ne contiennent par conséquent pas toutes les informations permettant de décrire le comportement des particules qui y évoluent. De même l’influence de l’observateur que l’on peut considérer concernant le problème de la mesure se résout par le fait que nous aussi, observateurs, nous sommes composés de particules pilotées par la fonction d’onde de l’Univers et donc enchevêtrées avec toutes les autres. A l’instar de la théorie de l’onde pilote, on peut en général remarquer que les théories à variables supplémentaires, pour donner une interprétation ontologique à la physique quantique, réaménagent son formalisme pour réintroduire, sauvegarder ou renforcer des concepts classiques qui avaient étés plus ou moins abandonnés et notamment des conceptions corpusculaires. C’est par là même que de telles théories présentent un intérêt et un attrait certain, elles ont l’avantage d’offrir une description du monde quantique qui satisfasse à la grille de lecture classique avec laquelle nous avons tendance à raisonner. Nous allons maintenant voir qu’elles ont à faire face à un certain nombre de difficultés qui ne peuvent être négligées.

Les difficultés

Outre les théories à variables supplémentaires qui doivent être abandonnées car des erreurs mathématiques et logiques ont pu être décelées dans leur formulation, des difficultés très particulières d’ordre épistémologique et conceptuel sont communes à toutes les théories de ce type qui présentent pourtant une validité incontestée sur le plan logique. Premièrement il nous faut rappeler le commerce très spécial que doit entretenir toute théorie à variables supplémentaires avec la Relativité en raison des inégalités de Bell. Même s’il est possible de trouver des astuces structurelles qui permettent de réconcilier les deux par une légère modification du formalisme quantique ou de la Relativité, il demeure qu’en poursuivant son objectif de proposer une alternative à la mécanique quantique conventionnelle à l’aide de conceptions classiques, toute théorie à variables supplémentaire doit introduire une non-localité fortement contre intuitive. Aussi, si en effet une théorie à variables cachées permet une description plus intuitive des évènements du monde microscopique dans des cas simples ou des exemples types, l’équivalence avec le formalisme orthodoxe à laquelle ces théories doivent souscrire leur fait perdre toute cette simplicité dans des cas plus complexes, notamment lorsque augmente le nombre de dimensions de l’espace abstrait dans lequel évoluent les vecteurs d’état. On est donc en droit de penser que la cohérence que semble présenter ce type de théories pour rendre compte du monde quantique ne tient qu’à une efficacité pédagogique. La simplicité basée sur l’usage de termes classiques comme ceux de corps, position et vitesse dont ces théories peuvent faire preuve pour expliquer le comportement d’une particule se dissout progressivement lorsque le cas considéré se complexifie.

De telles théories à variables supplémentaires présentent également une difficulté liée au fait même qu’elles aient pour but de fixer la nature fondamentale des existants du monde quantique, difficulté qu’elles partagent avec d’autres travaux théoriques à visée ontologique dans d’autres domaines scientifiques. En effet, une fois que la théorie a déterminé et décrit les éléments de réalités qui correspondent aux phénomènes quantiques, une rigidité a été introduite qui peut poser un certain nombre de problèmes conceptuels dés que de nouvelles données expérimentales sont apportées. De nouvelles avancées scientifiques peuvent alors sonner le glas d’une théorie à variables supplémentaires comme la théorie de Relativité remit en cause l’existence (mais pas l’efficacité) des champs de gravité newtoniens car le type d’existants fondamentaux qui avait été postulé se trouve impossible à conserver dans la nouvelle théorie. Ainsi, si la théorie conventionnelle, essentiellement opératoire, se garde de ce type de problèmes car elle s’abstient de se prononcer sur la nature des objets étudiés, une théorie qui a prétention à décrire la réalité fondamentale ne peut qu’avoir une postérité bien incertaine.

Un problème bien plus radical et plus spécifique à la physique quantique caractérise toutes les théories à variables supplémentaires qui ont pu être construite. Si toutes ces théories, pourvu qu’elles soient correctement construites, reproduisent toutes les prédictions permises par la mécanique quantique, aucune n’a jamais fourni une prédiction vérifiée qui ne puisse être fournie par la théorie quantique conventionnelle. Autrement dit aucune n’a pu fournir la moindre preuve expérimentale de sa supériorité sur le modèle orthodoxe. D’autant plus que les théories à variables supplémentaires, puisque d’une construction mathématique plus complexe, ont toujours plus de mal à assimiler de nouvelles données fournies par l’expérience. Par conséquent ces théories ne peuvent avancer que leur clarté conceptuelle et leur efficacité pédagogique pour soutenir leur supériorité. Cela est particulièrement symptomatique si l’on considère que parmi les multiples modèles à variables supplémentaires qui ont pu être proposés et qui présentent chacun une parfaite cohérence interne, aucun n’a pu présenter d’argument décisif pour montrer sa supériorité sur les autres. Ainsi, même le physicien soucieux d’adhérer à une théorie décrivant le réel fondamentalement aurait bien du mal à discriminer parmi tous les modèles disponibles. Nous ne pouvons donc en toute rigueur, c’est-à-dire uniquement sur la base d’arguments rationnels, adhérer à aucune de ces théories à variables supplémentaires. Mais, à la suite de Bernard d’Espagnat, nous pouvons tout de même considérer ces modèles comme de bons « laboratoires théoriques » permettant de mieux analyser les enjeux ontologiques et épistémologiques que présente le formalisme quantique. Comme exemple ou contre-exemple, de telles constructions, visant à décrire avec un maximum d’objectivité le monde quantique, permettent d’éviter certaines conclusions et généralisations hâtives à partir de données expérimentales qui pourraient être interprétées de diverses manières.

2.3.2. Les problèmes ontologiques

Le concept de corps matériel

Quel que soit l’objectif du physicien, qu’il ait une véritable volonté théorique visant à décrire les choses en soi ou qu’il se cantonne à un travail opératoire et à l’établissement de règles de prédiction efficaces, certaines questions d’ordre ontologique ne peuvent être ignorées car elles doivent inévitablement se poser au scientifique qu’il soit d’inspiration plutôt réaliste ou plutôt positiviste. Ainsi la question de savoir si le concept de corps matériel doit être conservé en physique quantique est inévitablement posée car quelle que soit l’obédience du discours, il fait invariablement référence à des objets précis dont la nature doit, à un moment ou à un autre, être traitée. Même si l’on estime que la nature des objets étudiés en physique quantique ne peut être fixée, on a d’ores et déjà admis que le concept de corps matériel n’y a plus l’évidence qu’il revêt dans la physique classique.

Pour reprendre le propos de l’épistémologue Michel Bitbol, en toute rigueur il n’est pas possible de retrouver en physique quantique le type d’invariants dont l’on dispose en physique classique comme dans la vie courante et qui nous permettent de faire usage en toute légitimité du concept de corps matériel. Si l’on définit comme lui un corps matériel comme « un secteur d’espace tridimensionnel objectivé par la détermination d’effets locaux invariants sous un ensemble de changements réglés », ni une localisation précise ni aucun effet particulier ne nous sont disponibles pour justifier l’usage en mécanique quantique d’une telle notion corpusculaire. De même, quelle que soit la théorie de la référence utilisée, les conditions nécessaires à une objectivation ne sont pas réunis, que ce soit des procédures de suivi ou des modalités trans-temporelles de réidentification. Mais les pères fondateurs de la microphysique ne s’y sont pas trompés en faisant preuve d’une grande prudence, dés la naissance de la physique quantique, quand à la nature des entités étudiées. Ainsi Schrödinger abandonna très tôt le concept de corpuscules dés lors qu’il n’était plus possible d’avoir de position et de trajectoire clairement définies. Ce sera Bohr qui ira le plus loin en affirmant que l’on est réduit à décrire des dispositifs et des résultats expérimentaux et que les hypothétiques propriétés de corps existant indépendamment de toute observation nous sont inaccessibles et n’ont même aucun sens.

Cependant, malgré son caractère particulièrement opératoire, la théorie quantique, dans sa formulation orthodoxe, n’est pas exempte de considérations corpusculaires. Il y est constamment fait référence à des particules mais dont on n’exige pas que leur description réunisse tous les éléments nécessaires à une objectivation rigoureuse du type de celle d’un corps matériel et dont on ne s’attend pas à ce qu’elles reproduisent tous les comportements généralement associés à une entité corpusculaire. Ainsi une particule possède une position et une vitesse bien définies, mais uniquement lors d’une mesure et jamais simultanément. Cet usage d’une notion très proche de l’idée d’un corps matériel mais qui n’en présente que peu de caractéristiques est symptomatique, non seulement du flou qui caractérise les objets étudiés dans la physique quantique conventionnelle, mais également de l’impossibilité d’y utiliser le concept intuitif de corps matériel dont nous disposons.

En général les théories à variables supplémentaires s’attachent à restaurer pleinement toutes les conditions nécessaires à l’usage d’un tel concept. Cependant cela se paye d’un coût épistémologique très lourd car, outre la non-localité qui doit être admise, des variables inobservables empiriquement doivent être acceptées pour que l’on puisse continuer à parler des particules comme de petits corps matériels disposant en permanence d’une position, d’une vitesse, d’une trajectoire, etc. Cela se rajoute aux difficultés que nous avons traitées précédemment et nuit grandement à leur crédibilité car c’est par des invariants qui ne correspondent à aucune donnée observable, donc à aucune modalité référentielle, qu’une stabilité suffisante est trouvée pour redonner du sens au concept de corps matériel. Pourtant, dans nombre d’expériences, il est possible d’effectuer des observations enchaînées ou des détections coordonnées de sortes que l’on puisse constater des impressions de trajectoire concernant une particule, mais, en raison des relations d’incertitude d’Heisenberg, seule l’introduction de données supplémentaires non-empiriques permettent d’en conclure logiquement à la présence localisée, même en l’absence de mesure, de la particule en chacun des moments de la trajectoire. Cette survie artificielle de notions corpusculaires inutiles au formalisme, pour son efficacité prédictive, peut alors rapidement passer pour une simple astuce conceptuelle, voire un vulgaire réflexe défensif, de la part des ultimes partisans de la réalité fondamentale des corps matériels. Nous avons cependant déjà remarqué que même si l’on n’admet aucune théorie à variables supplémentaires, il est possible de leur trouver une grande utilité épistémologique. Quoiqu’il en soit, même un modèle à variables cachées est obligé d’admettre le comportement souvent fort contre intuitif des particules et la présence d’autres entités réelles et non corpusculaire comme des potentiels ou champs quantiques pour rendre compte de ces bizarreries.

Il arrive que les interprétations de la théorie quantique dites statistiques ou stochastiques soient présentées comme résolvant la question de la nature des entités du monde microscopique. Une telle interprétation part du fait que le formalisme du vecteur d’état et de l’espace de Hilbert est une description complète et adéquate d’ensembles statistiques de systèmes physiques. La parfaite prédictibilité dont fait preuve le formalisme quantique au sujet de distributions statistiques suscite en effet l’unanimité, pourtant diverses interprétations basées sur cette certitude sont envisageables. Ainsi on ne peut considérer ni les vecteurs d’état ni les ensembles statistiques comme réels tout en leur restituant la complète validité opératoire qui leur est due, ou considérer le formalisme quantique comme une description complète et adéquate de la réalité à condition que ces ensembles statistiques constituent des entités réelles. Dans le cadre de la première hypothèse il est alors possible, dans une optique réaliste, de construire sur cette base une théorie à variables supplémentaires qui assigne à chaque système individuel toutes les propriétés d’un corps matériel en considérant qu’ils ne sont pas soumis individuellement aux étrangetés de ce formalisme. Mais il est également acceptable, sur la même base, de tenir un discours d’inspiration positiviste où cette seule efficacité opératoire est considérée comme suffisante et où le concept de corps matériel n’est plus alors nécessaire. La seconde hypothèse, si elle n’établit pas quelle est la nature des entités qui composent les ensembles statistiques, a cependant le mérite de sauvegarder le déterminisme, car s’il ne s’applique pas aux systèmes individuels, il reste complètement opérant au sujet de ces ensembles. Il faut tout de même remarquer qu’une interprétation positiviste qui ne se prononce pas sur la nature des entités individuelles, contrairement à une théorie stochastique à variables supplémentaires, reste condamnée à invoquer le principe de réduction du paquet d’ondes pour rendre compte qu’à chaque mesure on observe sur chaque système individuel des valeurs bien définies. Dans tout les cas, si les interprétations statistiques du formalisme quantique permettent de construire de cohérentes théories à variables supplémentaires et peuvent expliquer l’efficacité opératoire de la physique quantique concernant des distributions statistiques, elles n’apportent pas vraiment de réponse au problème ontologique posé quand au maintien ou non du concept de corps matériel pour le monde microscopique. Ainsi on peut voir clairement que pour expliquer la théorie quantique comme pour prouver son efficacité, celle-ci n’a absolument pas besoin de notions corpusculaires. Cependant, comme Bitbol le suggère, si de telles notions sont maintenues dans le langages de la plupart des physiciens c’est peut-être parce qu’elles sont nécessaires pour conserver un lien entre ce formalisme si particulier et l’expérience commune qui est la nôtre et dans laquelle nous pouvons en général toujours compter sur des entités spatialement bien localisées et dont le suivi ne pose guère de problème.

Le statut de la conscience

Il nous faut maintenant revenir au problème de la mesure que nous n’avons fait que poser précédemment et notamment sur le statut particulier que le principe de réduction du paquet d’ondes semble donner à l’observation et donc à la conscience. Dans une perspective réaliste ce problème du statut de la conscience est très grave car il devient alors très complexe de construire une description objective de la réalité indépendante. Mais le physicien positiviste doit également être gêné par ce statut très particulier et très important qui est donné à l’influence de l’observateur dans toute opération de mesure car il empêche à première vue de trouver une équation prédictive purement déterministe concernant les résultats de mesures possibles sur un système individuel. La question est donc de savoir si la théorie quantique donne vraiment un statut exceptionnel à la conscience ou s’il est possible de retrouver une description purement physicaliste du réel qui réutilise le même formalisme.

Dans un premier temps il faut remarquer que la plupart des théories à variables supplémentaires, dans l’optique d’une description cohérente du réel, évacuent complètement le principe de réduction du paquet d’ondes, et donc toute intervention de la conscience. Pour cela elles supposent généralement que toutes les observables d’un système ont toujours des valeurs bien définies bien qu’elles ne soient pas données par son vecteur d’état. Dans ce cas l’opération de mesure, comme dans toutes les autres sciences, ne fait que dévoiler une donnée préexistante et le vecteur d’état, qui n’est pas plus une description complète du système, n’est actualisé que grâce à l’apport de cette nouvelle donnée comme dans tout fonctionnement probabilistique en physique classique. Cependant nous avons déjà assez précisé les problèmes épistémologiques que soulèvent les théories à variables cachées pour que nous ne nous suffisions pas des solutions qu’elles proposent et qui ne sont de toute manière pas admissibles dans une optique positiviste.

Nous devons tenter d’éclaircir le problème posé par le statut de la conscience dans le strict cadre de la théorie quantique conventionnelle. Partons pour cela de la célèbre théorie des états relatifs proposée par Hugh Everett. Celle-ci évacue complètement le principe de réduction du paquet d’ondes mais d’une manière très particulière : il n’est pas question de supposer pour cela des valeurs prédéterminées aux observables du système, bien au contraire, même après la mesure, ces observables ne sont toujours pas considérées comme ayant des valeurs déterminées. Pour se passer ainsi de la réduction du paquet d’ondes et résoudre le problème de la mesure, la théorie des états relatifs se propose de traiter la conscience comme une propriété purement physique de l’observateur, lui-même conçu comme un automate de sorte qu’il n’y ait aucune différence entre lui et n’importe quel autre instrument de mesure. Ainsi, après l’interaction, entre un observateur et un système étudié, que nous appelons communément opération de mesure, le grand système composé de leur combinaison se trouve dans un état enchevêtré, et superposé car il n’y a pas eu réduction du paquet d’ondes. L’observateur, comme tout système quantique dans la théorie orthodoxe, est alors considéré comme étant dans plusieurs états en même temps. Mais comment expliquer alors l’unicité que nous observons perpétuellement à propos de la valeur d’une observable mesurée aussi bien qu’au sujet de notre propre conscience ? La théorie des états relatifs montre comment il découle directement des règles de la mécanique quantique que les différentes ’branches’’ du vecteur d’état du système total, qui correspondent chacune à un état précis, ne communiquent pas entre elles et sont individuellement cohérentes. En réalité, selon cette théorie, lors d’une mesure, nous observons toutes les valeurs possibles de l’observable considérée mais dans autant d’états de conscience qui ne communiquent pas entre eux. On comprend alors bien comment la théorie de Everett a pu être à la base de la tout aussi célèbre théorie des mondes multiples de Bryce De Witt. Toute opération de mesure crée plusieurs ramifications qui peuvent cohabiter sans encombre en raison du cloisonnement qui les caractérise. Etant donné le nombre de consciences et de mesures effectuées dans l’univers on peut imaginer un nombre astronomique et en augmentation constante pour ces ramifications. Le concept des mondes multiples vient tout simplement de l’idée, que l’on ne peut ni réfuter ni prouver, qu’à la création d’une ramification doit correspondre celle d’un univers correspondant de sorte que le nombre des univers parallèles doit lui aussi être dans une augmentation constante. Aussi étrange qu’elle puisse paraître, la théorie des états relatifs est logiquement très cohérente et permet d’expulser efficacement le principe de réduction du paquet d’ondes sans introduire de données inobservables. Que l’on considère son modèle comme valide ou non, le coup de génie d’Everett demeure qu’il ait songé à faire glisser le problème de la mesure de considérations physiques à une conception davantage psychologique, tout en admettant comme valide l’essentiel des règles de la mécanique quantique conventionnelle. Cependant, dans l’analyse que d’Espagnat a pu en proposer, il est possible de remarquer que la théorie des états relatifs peine quelque peu à donner un statut à la mémoire de l’observateur et qu’il est nécessaire pour régler ce point de retomber sur un certain dualisme car l’état de conscience de l’observateur est alors une propriété particulière soumise à un régime spécial. Dans ce dernier cas, si la théorie des états relatifs a le mérite de refuser à la conscience une quelconque influence lors de l’opération de mesure, elle ne parvient pas tout à fait à lui enlever son statut particulier. Quelle que soit la tournure dans laquelle nous prenons le formalisme quantique orthodoxe, on doit inévitablement constater que les notions d’observation et d’observateur ne peuvent en être expulsées. Etant donné que toute forme d’observation suppose une conscience correspondante et que toute formulation de loi en physique quantique conventionnelle ne peut manquer de faire appel à ce concept d’observation, une vision matérialiste de la théorie quantique du type de celle habituellement adoptée en physique classique, c’est-à-dire éjectant complètement toute référence à l’esprit humain, n’est tout simplement pas envisageable. Et cela est tout à fait indépendant du problème posé par la réduction du paquet d’ondes car par exemple la règle de Born, qui sert à calculer la probabilité que telle valeur soit mesurée sur telle observable, ne peut être transformée en une règle nous permettant de déterminer la valeur que telle observable a avant la mesure que si l’on se place dans le cadre d’une théorie à variables supplémentaires. Donc soit on prend le formalisme dans sa mouture orthodoxe et on est alors dans l’incapacité de tenir l’habituel discours scientifique et physicaliste, soit on adhère à l’une des théories à variables cachées mais, en admettant ainsi des données non-empiriques, on s’expose à l’accusation scientiste, habituellement réservée aux théories les moins matérialistes, d’accepter des hypothèses métaphysiques. Comme le remarque Bitbol, cette irréductible présence de l’expérimentateur dans la formulation de la théorie quantique fera rappeler à Bohr ce fait, pourtant déjà remarqué par la tradition philosophique mais oublié dans la construction de la méthode scientifique, que « nous sommes aussi bien acteurs que spectateurs dans le grand drame de l’existence ». 2.3.3. La critique épistémologique La victoire du positivisme L’inéluctable présence dans la théorie quantique des notions d’observation et d’observateur, et donc la nécessité de préciser dans toute description scientifique d’un phénomène les conditions expérimentales de son apparition, peut dans une large mesure être vue comme une victoire d’un point de vue positiviste dans la physique moderne. En effet, dans sa formulation conventionnelle, la mécanique quantique, en raison notamment de la contrafactualité et de la contextualité, ne peut fournir un discours portant sur des objets existant en eux-mêmes. Seuls des dispositifs expérimentaux précisant à chaque fois les procédés d’émission et de mesure employés peuvent être décrits par des vecteurs d’état et donc être susceptibles de fournir des prédictions. De même ces prédictions ne peuvent être exprimées qu’en termes de mesures futures, jamais comme portant sur des états de fait indépendants de tout observateur. Il est intéressant de remarquer que ce ne sont pas les modalités d’assertabilité qui n’ont pu aller plus loin que le cadre opératoire de l’expérimentation, mais, bien plutôt, est-ce la volonté théorique et réaliste qui caractérisait l’essentiel des pères fondateurs de la physique quantique qui s’est trouvée en échec face à ces nouvelles données expérimentales. Cette victoire que l’on peut attribuer à l’opérationalisme tient donc au fait que les grilles de lecture théoriques avec lesquelles les physiciens ont tenté d’extraire spontanément les phénomènes quantiques des conditions de leur apparition se sont montrées inappropriées. L’aspect bien trop original de cette nouvelle classe de phénomènes a conduit les scientifiques à contrevenir à un point de méthode essentiel dans toute construction théorique. Ainsi, en reprenant de nouveau l’analyse de Bitbol, faut-il en général isoler des invariants, pouvant être reproduits et réidentifiés, comme condition d’une objectivation suffisante pour établir la nature des objets étudiés. C’est donc parce que le concept de corps matériel est utilisé sans que les conditions nécessaires au degré d’objectivité qu’il sous-entend ne soient réunies qu’il se montre inapproprié pour décrire le monde quantique convenablement. Schrödinger avait bien constaté ce point lorsqu’il décida d’abandonner le concept de particule, quoique sa vision ondulatoire ait également montré le même genre de limites. On est, dés lors, en droit de penser que si la totale efficacité expérimentale d’un usage purement opératoire de la mécanique quantique provoque nombre d’incohérences dans le cadre de la conception corpusculaire qui est toujours celle de la majorité des physiciens quantiques, c’est parce que cette conception est tout simplement inappropriée. Si l’on peut donc accorder une certaine victoire à l’opérationalisme dans la mesure où seule dans ce strict cadre la mécanique quantique se montre pleinement cohérente, cela n’est pas exempt de possibles conclusions d’ordre ontologique. Le fait qu’une conception corpusculaire, pourtant d’une efficacité rarement égalée avec la mécanique classique, se montre inappropriée à une échelle microscopique est une information d’une portée et d’une profondeur difficilement contestable pour quiconque s’intéresserait à la structure fondamentale du réel. La négation du modèle corpusculaire a un pendant positif en limitant d’une manière ou d’une autre le type de construction théorique envisageable pour rendre compte du monde. Enfin, s’il est indéniable qu’une attitude positiviste est celle qui résiste le mieux aux grandes problématiques sur lesquelles butent les différents modèles théoriques construits pour rendre compte de la mécanique quantique, cela tient peut-être au fait qu’une telle démarche est tout simplement beaucoup moins exigeante quant aux objectifs de la science. Ce n’est pas en déclarant forfait sur des questions d’ordre ontologique qu’on les résout, et encore moins que l’on prouve qu’elles sont insolubles. Réalité empirique et réalité indépendante. Malgré le nombre et la variété des tentatives de théories à visée ontologique qui ont pu être proposées, du type de celles à variables supplémentaires ou d’autres sensiblement similaires, aucune ne s’est montrée décisive et on est alors tenté d’en conclure qu’il est impossible de construire la théorie décrivant le réel tel qu’il est indépendamment de nous. Pourtant, nombreuses sont les théories de ce genre qui présentent une description cohérente de ce réel. Pour éclairer ce point nous allons reprendre une vieille distinction que l’on pourrait établir sous la forme du réel et du sensible, qui a connu ses lettres de noblesse dans la dualité kantienne des phénomènes et des noumènes, mais dont nous emploierons les formulations, empruntées à d’Espagnat, de réalité empirique et réalité indépendante. Ces deux derniers termes ont le mérite de pouvoir tout deux et sans ambiguïté être qualifiés d’objectifs car d’Espagnat distingue deux types d’objectivité, l’une faible et l’autre forte. Un énoncé est dit objectivement faible s’il reste vrai pour n’importe qui indépendamment des particularités individuelles. Il est objectivement fort s’il décrit le réel tel qu’il est indépendamment de tout paramètre humain. Le premier type d’objectivité est le critère de la réalité empirique tandis que le second est celui de la réalité indépendante. Il est à noter que l’objectivité faible se distingue de la pure est simple subjectivité dans ce sens qu’elle porte sur ce qui des phénomènes est commun à toute subjectivité et doit donc nous permettre de trouver le type d’invariants nécessaire, selon Bitbol, à une rigoureuse objectivation. Au terme de l’analyse qu’il fournit de la physique quantique en tant que physicien mais aussi comme épistémologue, à partir notamment de plusieurs arguments que nous avons déjà évoqués, d’Espagnat refuse au discours scientifique toute prétention à accéder à l’objectivité forte et donc à porter sur la réalité indépendante. L’ultime raison qu’il invoque tient au fait qu’une théorie visant à décrire la réalité indépendante à l’échelle quantique devrait en toute rigueur se mettre en accord avec la théorie de la Relativité. Nous avons déjà vu que cela est envisageable malgré de lourdes difficultés. Cependant la Relativité telle qu’énoncée par Einstein est à objectivité faible car elle fait d’explicites et capitales références aux points de vue des observateurs. Pour proposer une théorie quantique relativiste à objectivité forte il faut donc modifier la théorie de la Relativité pour qu’elle soit elle aussi à objectivité forte. Cela est possible mais nécessite que l’interdiction faite à la transmission de signaux à une vitesse plus rapide que la lumière se transforme en l’interdiction de toute influence plus rapide que la lumière. Comme nous avons vu que les inégalités de Bell impliquent que toute tentative de description du réel tel qu’il est à l’échelle quantique, donc à objectivité forte, doit admettre une non-localité en désaccord avec l’interdiction que nous venons d’évoquer, on peut alors en conclure que toute tentative de construction d’une théorie quantique relativiste à objectivité forte est vouée à l’échec. En d’autres termes cela peut être vu simplement comme l’échec du critère de réalité tel qu’énoncé dans l’article EPR. Dans cette optique, la physique porte uniquement sur la réalité empirique et la mécanique quantique conventionnelle peut être considérée comme une description appropriée de cette réalité à l’échelle microscopique. A cette condition la physique peut garder, pour parler du monde quantique, un langage qui ne soit pas exclusivement opératoire si le caractère empirique de la réalité décrite est précisé en avant-propos. La réalité indépendante est quand à elle jugée inaccessible, ce qui amène d’Espagnat à la qualifier de réel voilé. Cette formulation est toutefois une manière de mitiger son discours dans le sens où il admet que le contenu de la physique quantique nous donne des indications structurelles mais très parcellaires sur cette réalité indépendante. C’est pourquoi il admet qu’une théorie à visée ontologique puisse éventuellement décrire la réalité indépendante dans une certaine mesure, bien que cela reste purement spéculatif puisque nous n’avons aucun moyen de comparer les affirmations de la théorie en question avec une quelconque connaissance de la réalité indépendante. D’Espagnat a parfaitement conscience que la restriction qu’il pose n’a rien de nouveau et que nombre de philosophes l’ont maintes fois répétée, son propos est davantage de montrer que la physique quantique apporte, selon lui, la preuve tant attendue de cette impossibilité de toute théorie ontologique à objectivité forte. Cependant, l’idéalisme le plus radical est alors en droit de demander pourquoi doit-on admettre une telle réalité indépendante étant donné que notre connaissance ne porte que sur la réalité empirique. Autrement dit pourquoi ne pas considérer ce type de réalité comme la seule réalité, les phénomènes comme les seuls éléments de réalité fondamentaux, et toute forme de réalité extérieure comme superfétatoire ? Pour répondre à cette question sans trop nous étendre sur le sujet reprenons les arguments que d’Espagnat utilise car, sans être pleinement décisifs, ils ont le mérite de se montrer quelque peu novateurs par rapport aux arguments classiques des partisans du réalisme. Dans la perspective de décrédibiliser l’existence d’une réalité indépendante, l’idéalisme en vient souvent à avancer que lorsque nous croyons analyser les structures du réel ce sont en fait les structures de notre esprit, les modes à priori de notre sensibilité ou de notre entendement dans un paradigme kantien, qui sont l’objet de notre étude. Contre cet argument on peut remarquer que, parmi les innombrables modèles mathématiques parfaitement valides construits par l’homme, seuls un très petit nombre sont appropriés pour décrire la réalité empirique. De même il est possible de construire des théories mathématiques parfaitement en accord avec les critères humains de beauté, d’ordre et de simplicité mais qui se trouvent violemment réfutées par l’expérience, donc par la réalité empirique. Il semble, dans ce cas, que ce soit bien quelque chose d’extérieur qui dise’non’’ à certains modèles mathématiques et à certaines théories et ’oui’’ à d’autres. Il est difficile d’argumenter que ce serait les structures de notre esprit qui diraient’non’’ à certaines théories alors que ce sont elles qui nous font croire en leur validité. Bien au contraire cette `’résistance’’ de la part de la réalité empirique ne semble pouvoir être expliquée que par une réalité indépendante de nos facultés cognitives, à la source de cette réalité empirique. Aussi l’idéalisme radical, cette fois en opposition avec Kant, critique traditionnellement le fait que ce soient des choses en-soi qui causeraient les phénomènes pour affirmer bien plutôt que ce sont bien plus les phénomènes que connaît notre sensibilité qui nous font croire en l’existence d’une réalité extérieure. On peut répondre à cela qu’affirmer ainsi qu’une connaissance sensible comme un phénomène soit antérieure à une existence est un manque caractéristique de rigueur logique. Il peut en effet être considéré comme insuffisant à la viabilité d’une telle théorie que de poser une connaissance comme cause de son objet et donc une connaissance sans objet.

Finalement on peut noter qu’un idéalisme, qui admettrait l’existence d’une réalité indépendante mais qui la jugerait complètement inaccessible, et où toute la réalité empirique est créée par notre esprit mais sous l’influence de quelque chose d’extérieur, n’entrerait pas vraiment en opposition avec la théorie du réel voilé de d’Espagnat. Il faut en effet préciser que, outre les spéculations très personnelles qu’il propose avec réserves et que nous allons évoquer ci-dessous, d’Espagnat affirme uniquement l’existence d’une réalité indépendante mais laisse la question de sa nature ouverte. Que cette réalité soit les Idées de Platon, la substance de Spinoza ou le Dieu de Berkeley, seule est affirmée l’existence d’un quelque chose qui ne dépend pas de nous.

2- Un nouveau débat

Michel Gondran MG. : Revenons un peu en arrière. Vous savez qu’aux débuts de la physique quantique s’était instauré un grand débat qui s’était concrétisé au Congrès Solvay de 1927. Vous aviez d’un côté Bohr, Born, Heisenberg, Pauli…et de l’autre côté Einstein, de Broglie, Schrödinger…. L’objet du débat était de savoir s’il fallait renoncer au déterminisme et à la réalité objective. C’était un choix fondamental. Finalement l’équipe menée par Bohr a renoncé au déterminisme et à l’existence d’une réalité en soi, indépendante de la mesure. Ses membres se sont mis d’accord sur l’interprétation qu’ils avaient présentée un peu auparavant au congrès de Côme, après d’ailleurs de longues discussions entre eux. Les autres sont arrivés au congrès Solvay en ordre dispersé. De Broglie avait deux interprétations, Schrödinger une. En fait tous les membres étaient implicitement d’accord sur l’interprétation statistique.

AI : Celle selon laquelle on peut décrire les phénomènes du réel physique en termes de populations statistiques, indépendamment de ce que sont ou non en soi les particules générant ces phénomènes…

MG. : Oui. Ce que les seconds réfutaient était que celle-ci soit l’unique interprétation possible. Ce qui est intéressant en terme d’histoire des sciences, et qui rapproche un peu celle-ci de l’histoire des relogions, est qu’une fois la séparation acquise entre les deux écoles, il fut impossible de revenir en arrière. Einstein a toujours réfuté l’approche probabiliste en tant que décrivant objectivement la réalité. On connaît son expression : « Dieu, autrement dit la nature, ne joue pas aux dés ». De Broglie, jeune maître de conférences à Paris et enseignant la physique quantique à Paris, a d’abord renoncé à son interprétation pour se rallier au point de vue de Pauli et de ses collègues, dite de Copenhague. Schrödinger de même. Par contre, de Broglie, dans les années 55, est revenu à son interprétation première.

AI. : C’est là qu’était intervenu Bohm…

MG. : Oui. Quand de Broglie a appris qu’un jeune américain, David Bohm, venait de retrouver l’interprétation qu’il avait proposée en 1927, il s’est relancé dans cette approche et l’a approfondie jusqu’à la fin de sa vie. Bohm avait inventé seul une interprétation voisine de celle de de Broglie, qu’il avait présentée à Einstein. Celui-ci lui a indiqué qu’il s’agissait en fait de la théorie de de Broglie de 1927. Précisons que le jeune Bohm était un esprit indépendant. Attaqué par le Maccarthisme, il a été obligé de quitter Princeton pour l’Amérique du Sud, en sacrifiant sa carrière à ses idéaux.

AI. : Précisément, quel était le débat ?

MG. : Le débat était le suivant : Est-ce que la mécanique quantique était complète, l’équation de Schrödinger suffisant à représenter toute l’information ? Fallait-il au contraire affirmer, avec la théorie de l’onde pilote, celle de de Broglie, elle-même reprise par Bohm et plus tard par Bell, qu’elle n’était pas complète et qu’il fallait rajouter la possibilité de connaître instantanément la position et la vitesse de la particule, l’onde pilotant la particule. Cela permettait de retrouver la dualité onde particule, la particule pouvant être individualisée à tous moments au sein de l’onde. Ce que l’on appelle la variable cachée correspond à la position de la particule. Ce qui est intéressant, comme le disait Bell, est qu’en fait, la plupart du temps, la variable que l’on mesure est la position. La fonction d’onde, description probabiliste de l’état quantique de la particule dans la base de dimension infinie des positions, résultant de l’application de l’équation de Schrödinger, n’est jamais mesurée. En pratique, c’est l’impact de la particule sur un écran, c’est-à-dire la position, qui est mesurée. Il s’agit en fait de la variable cachée dans la théorie. A l’inverse, la vraie variable cachée, dans cette approche, est la fonction d’onde, puisqu’elle n’est jamais mesurée directement. Elle n’est mesurée que par sa densité, celle-ci étant déterminée par l’impact de plusieurs particules.

AI. : Que pouvez-vous dire dans ces conditions des expériences faites par Aspect et autres pour vérifier les inégalités de Bell(6) ?

Les deux EPR

MG. : C’est un des points fondamentaux. Si l’on n’a pas une interprétation de ces inégalités, s’appuyant sur le type de particules intriquées en cause, on se perd. Je vais peut-être rappeler deux choses. La question a été lancée en 1935 par Einstein, Podolsky et Rosen, sous le nom de paradoxe EPR(7) . Ils ont imaginé deux particules manifestant une certaine intrication. Si on mesure la position de l’une, on devrait avoir la position de l’autre, ce qui parait contraire à la physique quantique. Il s’agissait évidemment à l’époque d’une expérience de pensée. A partir de là, Bohm a défini une 2e expérience, que l’on peut appeler EPRB, prenant en considération le spin des particules. Il envisage deux particules intriquées par le spin(8). Bohm a donc proposé de conduire l’expérience EPR avec spin. Ce point de vue a été généralisé. Aujourd’hui, lorsque l’on fait des expériences d’intrication, on ne parle que du spin. Cette différence, expérience sans spin et avec spin, va avoir au point de vue de l’interprétation, un rôle essentiel.

Or le point que je veux rappeler est qu’en 1920, Einstein a écrit plusieurs articles sur l’interprétation de la relativité générale. Ils sont peu connus mais essentiels pour le débat. Einstein revient sur l’existence d’un éther. Il rappelle qu’il avait éliminé l’éther en ce qui concernait la relativité restreinte. Mais pour la relativité générale, il avait du introduire un éther, une sorte de tenseur d’espace, qui n’est pas sensible à la position ni à la vitesse, mais qui est sensible à l’accélération et à la rotation. C’est l’éther de la relativité générale. Il développe ce point dans un grand cours qu’il donne à l’université de Leyde, où il refait l’historique de tous les éthers.

Si maintenant on reprend les expériences EPR et EPRB (avec des spins), on voit en faisant une simulation numérique de EPRB que la position ne bouge pas. Il n’y a pas d’interaction à distance entre les positions non plus qu’entre les vitesses, il n’y a que des interactions à distance entre les spins. Cela justifie l’affirmation selon laquelle cette interaction ne peut pas transporter de l’information.

AI . : L’expérience EPRB est donc très différente de l’expérience EPR ?

MG. : Absolument. Quand Einstein dit qu’il ne peut pas y avoir de transmission à distance, il se place dans l’expérience EPR qu’il avait définie en 1935. Or les inégalités de Bell porte sur EPRB et ont été proposées en 1964. Les expériences d’Aspect ont eu lieu en 1980. Donc Einstein ne les avait jamais connues. Selon le paradoxe EPR, il ne peut y avoir d’interaction à distance portant sur la position et la vitesse. C’est conforme à ce qu’Einstein dit lui-même dans son article de 1920. Par contre, l’interaction instantanée peut se faire pour la rotation et l’accélération. Or le spin, c’est de la rotation. Je dis donc pour ma part que l’interaction à distance entre des particules définies par leurs spins n’est pas en contradiction avec l’interprétation de la relativité générale présentée par Einstein lui-même en 1920.

C’est un point qui a été soulevé par Karl Popper en 1982(9). Juste après les expériences d’Aspect, Popper a réécrit la préface de son livre sur la physique quantique. Il y dit ce que je viens de dire : il faut distinguer entre l’EPR et EPRB. Il montre donc qu’Einstein n’était pas en contradiction avec lui-même puisque son expérience EPR n’était pas l’expérience EPRB. Selon Popper, Einstein n’aurait jamais dit que dans le cas de l’EPRB avec spin, s’il l’avait connue, il ne pouvait pas y avoir de transmission à distance.

Cela me donne une explication réaliste de l’expérience EPRB : il y a bien réalisme et interaction à distance, mais cette interaction à distance n’est pas en contradiction avec la relativité générale. Elle ne viole pas la relativité. La vitesse de la lumière n’est une limite que pour les positions et les vitesses, pas forcément pour les rotations dans l’espace. C’est très subtil, mais on ne peut pas éliminer d’emblée un texte d’Einstein de 20 pages donnant son interprétation de la relativité générale. Il est vrai que dans les textes suivants, il n’a jamais été aussi net.

Les expériences d’Aspect sont très intéressantes, mais, comme le dit Popper, il faut les interpréter comme justifiant l’existence de l’éther dont Einstein n’avait pas besoin pour la relativité restreinte mais dont il a besoin pour la relativité générale, pour la rotation et l’accélération. Les expériences d’Aspect peuvent donc être considérées comme un test de l’existence de la vitesse.

Concilier réalisme et non réalisme

AI. : C’est la thèse que vous reprenez personnellement ?

MG. : Oui, c’est mon interprétation de l’EPR et de l’EPRB en cohérence avec la relativité générale. Il y a deux réels, un réel ontologique non mesurable déterministe et réaliste et un réel mesurable non déterministe et non réaliste qui vérifie les relations d’incertitude d’Heisenberg. En effet, on ne voie quelque chose que par l’intermédiaire de photons. Or les photons vont perturber le système que l’on observe. On ne verra donc jamais la réalité exacte. Elle sera invisible. Ce que je mesure n’est pas exactement la réalité mais cela commence à s’en rapprocher très fort.

AI. : Comment dans ces conditions conciliez-vous non réalisme et réalisme ?

MG. : Très simplement. Si je garde l’équation de Schrödinger, j’ai le réel statistique. Pour les particules libres indiscernables, je dois ajouter la position de la particule, que je ne connais pas mais qui existe ; j’ai alors le déterminisme et j’ai le réel. Pour les particules liées, c’est plus complexe : on peut encore proposer des modèles déterministes et réalistes compatibles avec les expériences, mais ils ne sont encore pour moi qu’hypothétiques.

AI. : Quelles conséquences tirez-vous de cette façon de voir le réel ? On peut facilement voir les commentaires que pourront en faire les philosophes des sciences. Mais qu’en serait-il en pratique ?

MG. : J’y vois trois conséquences pratiques. La première, pratique mais théorique, me permet de faire avec ce postulat la liaison avec la relativité générale. Je m’explique. Actuellement la mécanique quantique est supposée être non réaliste, la relativité générale est supposée être déterministe et réaliste. Dans l’état actuel, ces deux grandes théories, prouvées dans leurs domaines par de nombreuses expériences, ne peuvent pas collaborer. Pour les rapprocher, les théoriciens explorent deux voies : soit rendre non déterministe et non réaliste la relativité générale. C’est ce que vise à faire la théorie des cordes. Beaucoup de gens y travaillent. Ils développent des hypothèses plus spectaculaires les unes que les autres. Laissons-les travailler. La deuxième voie propose de garder la relativité générale déterministe et réaliste, mais elle propose une interprétation déterministe et réaliste de la mécanique quantique. J’obtiens un autre cadre plus simple pour faire le rapprochement entre quantique et relativité. C’est sur ce cadre que je travaille actuellement.

Conséquences pratiques

AI. : Qu’en est-il au plan des applications ?

MG. : Regardons l’ordinateur quantique. Celui-ci suppose que le qbit existe et que la fonction d’onde soit complète pour représenter ledit qbit. Dans l’interprétation de de Broglie, ce n’est pas vrai. Le qbit n’existe pas. Plus exactement, la fonction d’onde du qbit existe mais il faut y ajouteIsaac Chuangr la position de la particule. Quand on veut obtenir le spin, dans l’interprétation de de Broglie, il faut disposer de deux particules afin de représenter un même qbit, c’est-à-dire revenir à des particules classiques. Or on vous dira que l’ordinateur quantique existe. On en a même fabriqué et Isaac Chuang d’IBM a proposé en 2001 un ordinateur quantique théoriquement à 7 qbits factorisant le nombre 15 en utilisant l’algorithme du mathématicien Shor de factorisation des grands nombres(10).

Mais voyons ce qu’a fait Chuang après cela. Il a indiqué par la suite qu’il arrêtait ce type de recherche. Pourquoi ? Son ordinateur quantique (utilisant la technique RMN) n’utilisait pas des objets quantiques individuels, mais un ensemble statistique de plus de 100 millions de molécules. Or il a constaté que chaque fois qu’il ajoutait un qbit, le signal était divisé par 2. Ceci confirme l’interprétation de de Broglie, puisque dans ce cas, le qbit n’existant pas, il faut le simuler par 2 bits. Donc, affirmer que l’ordinateur quantique existe me parait inexact.

Ce type d’ordinateur, basé sur le spin, en tous cas, n’existe pas. Chaque fois que quelqu’un annonce avoir fabriqué un ordinateur quantique, je regarde la proposition en détail et je constate qu’elle ne vérifie pas les propriétés d’un ordinateur quantique supposé. On explique qu’en fait, l’ordinateur quantique doté d’un nombre suffisant de qbits n’est pas réalisable, pour des raisons techniques liées à la décohérence. Pour moi, il ne s’agit que de raisons accessoires. Il n’est pas réalisable, mais pour des raisons fondamentales.

AI. : Vous pensez donc que l’ordinateur quantique ne sera jamais possible. Cela va mettre au chômage beaucoup de laboratoires qui travaillent sur cette question, et ruiner les espoirs en une augmentation quasi infinie des puissances de calcul…

MG. : L’ordinateur quantique faisant appel au spin ne sera en effet, selon moi, jamais possible. Je pense qu’il en est de même des autres approches comme celles basées sur les ions piégés. Ceci dit les travaux des laboratoires dont vous parlez ne sont pas inintéressants et pourront avoir d’autres retombées que celles des prétendus calculateurs quantiques.

Mais je vais prendre une autre application pratique de ce que j’avance, concernant les nanotechnologies. Les physiciens qui travaillent dans ce domaine supposent implicitement que leurs objets existent. Ils ne tiennent pas compte des points de vue théoriques. Par contre, ils tiennent compte du fait que la mécanique quantique joue aux petites échelles. Elle ajoute à la mécanique classique le fait que les particules à ces échelles ne sont pas indépendantes. Il y a donc une dépendance découlant de la physique quantique qui leur impose des comportements inhabituels. Mais ceci n’a rien de bloquant. Nous ne sommes pas là face à une impossibilité comme dans le domaine de l’ordinateur quantique. Il suffit d’étudier ce qui se passe. Pour utiliser les nanotechnologies, on peut considérer que l’on manipule des états ou réalités classiques « augmentés » par le quantique.

AI. : Concernant la cosmologie, ce que vous proposez peut-il avoir des implications permettant de mieux comprendre ce qui se produit aux états extrêmes de la matière, ou concernant des formes encore mystérieuses, noires, de matière et d’énergie ?

MG. : J’en ai bien quelques petites idées, mais je les considère encore comme un peu farfelues. Je préfère ne pas en parler. De toutes façons, je pense que les cosmologistes observationnels n’en savent pas assez pour faire des hypothèses théoriques susceptibles de vérifications pratiques. Mais, encore une fois, je suis là trop loin de mes bases pour me prononcer.

AI. : Cela vous honore.

Garder à la fois de Broglie/Bohm et Schrödinger

MG. : Pour en revenir à de Broglie-Bohm, je voudrais préciser que je diffère un peu d’eux. Je montre, mais c’est assez mathématique, que dans certains cas, leur interprétation est obligatoire, mais que dans d’autres cas, elle n’est pas possible. Dans les cas où les particules sont libres et qu’il n’y a pas de champs, je démontre mathématiquement l’exactitude de l’interprétation de de Broglie-Bohm. C’est en particulier le cas de l’expérience des fentes de Young. Dans d’autres cas tels que la transition de l’atome d’hydrogène, l’on peut montrer qu’elle est inapplicable. Dans le premier cas, je suis alors là en contradiction avec l’interprétation de Copenhague. Cela est mon point de départ, celui dont je suis sûr, autant que l’on puisse l’être en sciences. Je montre ensuite que l’on peut étendre l’interprétation de Broglie-Bohm à des expériences comme celles de Stern et Gerlach et de l’EPRB. Dans l’interprétation de de Broglie-Bohm, la fonction d’onde, le champ, se calcule en passant par les deux fentes bien que la particule ne passe que par une des fentes. J’ai même proposé une petite expérience à cet égard.

C
eci pour moi a été rendu encore plus évident à la suite des expériences faites en 1999 concernant le C60 ou fullerène. En nanotechnologie, on désigne ainsi le petit ballon de foot-ball constitué d’atomes de carbone, d’une taille d’un nanomètre. Si vous faites l’expérience des fentes de Young avec le fullerène, la taille des fentes doit être de 60 nanomètres (rapport de taille entre un terrain de foot-ball et le but). Dans ce cas, il parait évident que le fullerène ne passe que par l’une des fentes. Il ne se coupe pas en deux morceaux. Or il produit des franges d’interférences sur l’écran. Les interférences sont le résultat des impacts individuels. Ceci se simule très bien en utilisant l’interprétation de de Broglie/Bohm. Cette expérience montre clairement qu’il n’y a pas de limites entre le quantique et le macroscopique dans le cas des particules libres. Tout est quantique. Je suis très assuré là-dessus.

Par contre, je suis très assuré aussi du fait que je ne peux pas interpréter à la manière de Broglie/Bohm l’équation de Schrödinger dans le cas de la transition entre deux états de l’atome d’hydrogène. Cela veut dire que de Broglie/Bohm est faux dans certains cas. Dans le cas où la particule est peu liée, on peut avoir d’autres interprétations, mais là je ne suis pas certain de la validité de ces interprétations. Dans ces cas, on peut comprendre l’attrait de l’interprétation de Copenhague.

Mon interprétation finale est que l’on avait à la conférence Solvay deux groupes de chercheurs de très haut niveau. Chacun était sûr d’avoir raison dans une certaine classe de problèmes. Mais ils ont peut-être sur-généralisé leurs conclusions, ce qui les a rendues incompatibles. C’était naturel et inévitable. Mais pour moi s’explique ainsi le renforcement de leurs désaccords et leurs incompréhensions ultérieures. En simplifiant un peu, je dirais que chaque groupe avait raison sur la moitié des cas, selon qu’il s’agissait soit de particules libres soit de particules liées. Cela peut correspondre à l’opposition spectre continu des équations/spectre discret. Mais là je ne suis pas certain de ce que j’avance.

AI. : Voici donc résumé très rapidement l’hypothèse que vous proposez aujourd’hui. En avez-vous discuté avec des collègues ?

MG. : J’ai écrit quelques articles que j’ai eus un peu de mal à publier. Certains cependant sont parus dans l’American Journal of Physics. Je vous en donnerai les références. Ceci est intéressant car ces documents sont utilisés pour l’enseignement. Cela prouve que mes idées sont reconnues par au moins une petite partie de la communauté. Dans les discussions, la difficulté à laquelle je me heurtais jusqu’à présent est que je n’avais pas encore élaboré une théorie complète, grâce à laquelle j’aurais pu expliquer l’EPR et toutes les autres expériences, fentes de Young et autres.

AI. : Je pense que vous sous-estimez la portée de vos travaux. Vous vous êtes engagé dans ce que l’on pourrait appeler la grande unification entre déterminisme et réalisme.

MG. : Disons que, si j’ai raison, tous les gens qui s’étaient braqués sur le non-déterminisme devront au moins voir ce que recèlent les points que j’évoque. Le problème est que le coût d’entrée mathématique dans le paradigme plus ouvert que je propose n’est pas nul. J’ai pour ce qui me concerne établi une petite corde pour démontrer l’équation de Schrödinger, avec un principe de moindre action. Mais je ne suis pas du tout sûr de l’intérêt de cette voie. Il s’agit seulement d’une hypothèse me permettant de penser que la direction que je propose n’est pas totalement illusoire. Il s’agit d’une autre façon d’approcher la mécanique quantique et la relativité. Cela m’a aussi aidé à redécouvrir des auteurs plus anciens, tels que Newton, dont peu de gens savent qu’il avait déjà pressenti les différentes questions évoquées ici.

AI. : Je retiens de notre entretien que les hypothèses que vous proposez sont extrêmement séduisantes au plan théorique. Elles permettent de rapprocher des points de vue différents, d’où le terme effectivement d’unification. Vous avez eu le mérite d’aller les chercher dans les écrits originaux des scientifiques en question. De plus, au plan pratique, vous posez des questions qui ne devraient pas rester sans provoquer de réactions. Je pense en particulier à vos propos sur l’ordinateur quantique.

Je vous propose de nous en tenir là aujourd’hui, mais je suis persuadé qu’il y aura des suites à cet entretien. Vous pourrez peut-être vous appuyer sur notre revue pour y aider – hors formalismes mathématiques évidemment. Lorsque vous aurez publié votre livre et mis en place un site, nous serons en tous cas heureux d’y faire écho.

Notes (NDLR : notes proposées par Automates Inteligents)
(1) AEIS : http://www.science-inter.com/
(2) Sur Louis de Broglie, voir wikipedia : http://fr.wikipedia.org/wiki/Louis_de_Broglie
(3) Sur David Bohm, voir wikipedia : http://fr.wikipedia.org/wiki/David_Bohm
(4) Sur l’onde pilote, voir wikipedia : http://wapedia.mobi/fr/Th%C3%A9orie_de_l%27onde_pilote
(5) Comme l’indique l’article de Wikipedia cité en référence, « à l’origine, de Broglie pensait qu’une onde réelle (c’est-à-dire ayant une interprétation physique directe) était associée aux particules. Il s’est avéré que l’aspect ondulatoire de la matière est formalisé par une fonction d’onde gouvernée par l’équation de Schrödinger qui est une pure entité mathématique ayant une interprétation probabiliste, sans support d’éléments physiques réels. Cette fonction d’onde donne à la matière les apparences d’un comportement ondulatoire, sans pour autant faire intervenir des ondes physiques réelles. Cependant, de Broglie est revenu vers la fin de sa vie à une interprétation physique directe et réelle des ondes de matière, en reprenant les travaux de David Bohm. La théorie de de Broglie-Bohm est aujourd’hui la seule interprétation donnant un statut réel aux ondes de matière et respectant les prédictions de la théorie quantique. Mais présentant un certain nombre de problèmes de fond, et n’allant pas plus loin dans ses prédictions que l’interprétation de Copenhague, elle est peu reconnue par la communauté scientifique ».
(6) Sur le paradoxe EPR, voir wikipedia : http://fr.wikipedia.org/wiki/Paradoxe_EPR
(7) Sur le spin, voir wikipedia : http://fr.wikipedia.org/wiki/Spin
(8) Sur les inégalités de Bell, voir wikipedia :
http://fr.wikipedia.org/wiki/In%C3%A9galit%C3%A9s_de_Bell
(9) Sur Popper, voir wikipedia : http://fr.wikipedia.org/wiki/Karl_Popper#.C5.92uvres
(10) Sur l’algorithme de Shor, voir wikipedia : http://fr.wikipedia.org/wiki/Algorithme_de_Shor
Voir aussi notre article : "Pour un grand programme européeen, l’ordinateur quantique".

Sources

Messages

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.