English German Espagnol Portugese Chinese Japanese Arab Rusian Italian Norvegian Dutch Hebrew Polish Turkish Hindi
Accueil du site > 01 - Livre Un : PHILOSOPHIE > LIVRE UN - Chapitre 02 : Matière à philosopher ? > Les principes de la physique, ou quand la science ne peut pas encore (...)

Les principes de la physique, ou quand la science ne peut pas encore prouver ni expliquer rationnellement ce qu’elle avance….

vendredi 12 décembre 2014, par Robert Paris

Les principes de la physique, ou quand la science ne peut pas encore prouver ni expliquer rationnellement ce qu’elle avance….

On l’a souvent oublié : Newton n’a pas produit des lois de la gravitation mais écrit "Principes mathématiques" et l’un de ces principes affirme par exemple « Tout corps libre persévère dans son état de repos ou de mouvement rectiligne uniforme ». Ce n’est devenu une loi physique que bien plus tard...

Voltaire écrivait en préface de l’édition française : "Tout ce qui est donné ici pour principe, est en effet digne de ce nom, ce sont les premiers ressorts de la nature, inconnus avant lui : et il n’est plus permis de prétendre à être Physicien sans les connaître."

Les sciences physiques sont très souvent contraintes de faire appel à d’autres types d’affirmations que des lois. Ce sont les principes.

Ces principes sont bien utiles car on est encore très loin de disposer d’une conception d’ensemble des phénomènes dans les sciences physiques même si le grand public croit que tout a été décrit par des lois connectées entre elles et démontrées.

Les principes des sciences ne sont pas des règles de morale ou de bonnes pratiques dans ce domaine. Non, ce sont un peu comme des lois, mais avec une validité moindre, en particulier aucune relation logique avec d’autres lois, aucune sorte de démonstration.

Ces derniers jouent un rôle crucial et les sciences ne pourraient pas s’en passer. Ils sont généralement vérifiés par l’expérience, sont cohérents avec les autres lois et avec l’image que nous avons de la nature. Mais ils ne découlent pas des lois et n’ont jamais été démontrés. Ils sont nécessaires à l’ensemble de la compréhension mais ne sont pas vraiment du domaine du purement rationnel. Ils découlent d’intuitions des auteurs et sont restés à ce stade même si les années les ont rendus plus crédibles.

Les quelques exemples de principes qui ont été abandonnés nous rappellent qu’aucun principe n’est assuré d’être conservé. Un principe peut être une erreur d’interprétation ou l’expression d’une illusion d’optique.

« Asseyez-vous sur vos principes, ils finiront bien par céder » dit le proverbe et il est vrai qu’à force de s’appuyer sur certains principes on s’est parfois aperçu qu’on tenait sur des planches pourries.

Donnons quelques exemples de ces principes abandonnés en cours de route : le principe de conservation de la masse, le principe d’additivité (tout est la somme des parties), le principe de continuité du mouvement (mis en cause par les quanta), le principe de continuité de l’espace et du temps (mis en cause par le temps et l’espace de Planck qui sont des minima), le principe de cause à effet (mis en cause par les rétroactions en cascade ou la distinction entre cause et effet se perd), le principe de proportionnalité des causes et des effets (mis en cause par le chaos déterministe, notamment, car une petite cause peut entraîner un grand effet), le principe de réciprocité visuelle (qui énonce que « je vois l’œil qui voit mon œil »), le principe de non contradiction ou du tiers exclus (car la particule est à la fois onde et corpuscule or les deux sont contradictoires), le principe de Lavoisier (qui énonce « rien ne se perd, rien ne se crée, tout se transforme »). Certains principes ont pris force de loi comme le principe de gravitation qui est parfois appelé « loi de la gravitation » alors que l’origine de ce phénomène est encore parfaitement inconnue. La loi mathématique est certes vérifiée (sous sa forme newtonienne ou einsteinienne, peu importe ici) mais on ne peut pas dire qu’elle provienne des propriétés de la matière puisqu’ignore complètement d’où elle provient. Vous penserez qu’elle provient nécessairement des propriétés de la matière puisqu’elle affirme que deux corps s’attirent en proportion de leurs masses inertes mais c’est faux : cette propriété peut parfaitement provenir des propriétés du vide. (voir ici)

Nous sommes donc amenés à considérer qu’il s’agit encore seulement d’un principe et non d’une loi…

La plupart de ces principes sont encore à la recherche des sources de leur action. On se demande encore d’où vient l’inertie, ou encore d’où vient le principe d’exclusion de Pauli qui est extrêmement important en physique quantique puisqu’il empêche la matière de s’écraser sur elle-même. Aucune loi de la physique quantique ne peut le remplacer.

Bien sûr, même une loi peut être remise en cause, connaitre des modifications, de nouvelles interprétations ou être complétée. La loi de gravitation de Newton a connu deux autres versions par Einstein et celles-ci sont encore en discussion, même si on ne les a jamais remises en question par l’expérience. Par exemple, une loi de conservation (de la charge, de la masse, du spin, etc) peut tomber sur des exceptions. La loi de conservation des constantes universelles peut être remise en cause.

Cela signifie que nombre de lois ou prétendues telles ont un statut intermédiaire en la loi et le principe. En tout cas, elles dépassent l’hypothèse ou la simple allégation car ces affirmations ont été confirmées par toutes les expériences et sont compatibles avec nos autres connaissances. Cela ne signifie pas qu’on ne les remettra pas un jour en question…

Des principes peuvent aussi prendre force de loi, ou presque, comme le principe de moindre action de Maupertuis qui devient la base des règles ou lois de Feynman qui déterminent les interactions entre matière et matière et entre matière et lumière.

Il convient de préciser que tout l’attirail de lois, de principes et de règles des sciences physiques, même si elles étaient toutes vérifiées, n’empêcheraient pas les limites de compréhension de celles-ci : aucune d’entre elles ne peut dire ce qu’est l’électron ou le photon lumineux, ce qu’est la gravitation, ce qui se passe en dessous des dimensions de Planck, comment s’établissent les valeurs seuils des changements d’état et transitions de phase (les 100° où l’eau bout ne découlent d’aucune loi, ni principe, ni règle).

On nomme principe physique une loi physique apparente, qu’aucune expérience n’a invalidée jusque là bien qu’elle n’ait pas été démontrée, et joue un rôle voisin de celui d’un postulat en mathématiques.

La physique s’appuie sur plusieurs de ces principes, tels que le principe d’inertie, les Principes de la thermodynamique ou le principe d’exclusion de Pauli.

Principe d’inertie

En physique mécanique, le principe d’inertie affirme que, dans un référentiel galiléen, tout corps qui est soumis à une force résultante nulle est immobile ou en mouvement rectiligne uniforme. Ce principe est la première des trois lois de Newton.

L’énoncé original de la première loi du mouvement est le suivant :

« Tout corps persévère dans l’état de repos ou de mouvement uniforme en ligne droite dans lequel il se trouve, à moins que quelque force n’agisse sur lui, et ne le contraigne à changer d’état. »

Principe de l’action et de la réaction

L’énoncé original est le suivant :

Pour chaque action, il existe une réaction égale et opposée : l’action est toujours égale à la réaction ; c’est-à-dire que les actions de deux corps l’un sur l’autre sont toujours égales, et dans des directions contraires.

Principe fondamental de la dynamique

Pour un corps soumis à une résultante des forces nulle, on retrouve bien la première loi de Newton, c’est-à-dire un mouvement rectiligne uniforme. En première analyse, on peut se demander quelle est l’utilité de la première loi puisqu’elle semble être une conséquence de la deuxième. En réalité, dans l’énoncé de Newton, il n’en est rien car la première loi n’est pas présentée comme un cas particulier de la deuxième mais comme une condition suffisante à l’application de cette dernière.

En effet, énoncer la première loi, c’est tout d’abord affirmer l’existence des référentiels galiléens. Cela constitue un postulat extrêmement fort qui permet, dans les exposés modernes de la mécanique classique, de définir les repères galiléens qui sont les seuls repères dans lesquels la seconde loi est valide. En l’absence de la première loi, la seconde loi est inapplicable puisqu’on ne peut pas définir son domaine de validité. Par conséquent, l’ordre logique dans lequel les lois sont énoncées n’est pas le fruit du hasard mais bien celui d’une construction intellectuelle cohérente.

Ensuite, cette première loi énonce le principe d’isolement du solide : on considère les forces extérieures qui agissent sur lui, et on ne prend pas en compte ce qui se passe en interne.

Principe de relativité

Le principe de relativité affirme que les lois physiques s’expriment de manière identique dans tous les référentiels inertiels.

• Ce qui implique que pour deux expériences préparées de manière identique dans deux référentiels inertiels, les mesures faites sur l’une et l’autre dans leur référentiel respectif sont identiques.

• Cela ne signifie pas que les mesures au cours d’une expérience sont les mêmes pour les différents observateurs, chacun mesurant depuis son référentiel inertiel respectif, mais cela implique que les mesures faites par les différents observateurs vérifient les mêmes équations, un changement de référentiel pour l’observation intervenant sous la forme de la variation d’un ou plusieurs paramètres dans les équations. On dit que les lois sont « invariantes par changement de référentiel inertiel ».

Une généralisation à la base de la relativité générale, et appelée principe de covariance ou principe de relativité générale , affirme que les lois physiques s’expriment de manière identique dans tous les référentiels (inertiels ou non). On dit alors que les lois sont « covariantes ».

D’une théorie à l’autre (physique classique, relativité restreinte ou générale), la formulation du principe a évolué et s’accompagne d’autres hypothèses sur l’espace et le temps, sur les vitesses, etc. Certaines de ces hypothèses étaient implicites ou « évidentes » en physique classique, car conformes à toutes les expériences, et elles sont devenues explicites et plus discutées à partir du moment où la relativité restreinte a été formulée.

Principes d’équivalence

On énumère en général trois principes d’équivalence : le principe « faible », celui d’Einstein et le principe « fort ».

Le premier est le constat de l’égalité entre la masse inerte et la masse grave. Le deuxième est présenté comme une « interprétation » par Albert Einstein en termes de relativité de l’accélération et est un élément clé de la construction de la relativité générale. Le troisième est une extension du second et est également vérifié par la relativité générale.

Les vérifications expérimentales et observatoires de ces principes doivent permettre, par leur précision croissante, d’éliminer les théories de la gravitation non conformes à la réalité sur ces points précis.

Principe de la vitesse de la lumière

La constance de la vitesse de la lumière quel que soit l’observateur galiléen considéré, jamais invalidée par l’expérience, est un principe de la Relativité restreinte et non une de ses conséquences. Un principe peut avoir un champ de validité limité : par exemple, le principe de conservation de la masse est valable en physique classique, mais invalide en relativité où l’on rencontre la formule d’Einstein sur l’équivalence masse-énergie, E=mc2 ; dans ce cas le principe qui prévaut est celui de la conservation de l’énergie. Au contraire, le postulat de conservation de la charge électrique semble vrai en physique classique comme en physique relativiste.

Parfois un principe peut être démontré à partir d’un ou plusieurs autres, à charge au physicien de choisir le principe de base pour ses raisonnements : par exemple, le principe de moindre action est équivalent au principe fondamental de la dynamique associé au principe de d’Alembert.

Principes de la thermodynamique

Les principes de la thermodynamique sont les principales lois (principes en fait, car non démontrées) qui régissent la thermodynamique :

• Premier principe de la thermodynamique : principe de conservation de l’énergie ; introduction de la fonction énergie interne, U.

• Deuxième principe de la thermodynamique : principe d’évolution ; création d’entropie, S.

• Troisième principe de la thermodynamique ou principe de Nernst : l’entropie d’un corps pur est nulle à T = 0 K.

On parle aussi du Principe zéro de la thermodynamique et on évoque quelques fois la théorie d’Onsager comme le Quatrième principe de la thermodynamique.

Selon le premier principe de la thermodynamique, lors de toute transformation, il y a conservation de l’énergie.

Dans le cas des systèmes thermodynamiques fermés, il s’énonce de la manière suivante :

« Au cours d’une transformation quelconque d’un système fermé, la variation de son énergie est égale à la quantité d’énergie échangée avec le milieu extérieur, sous forme d’énergie thermique (anciennement nommée chaleur) et de travail. »

Le deuxième principe de la thermodynamique (également connu sous le nom de deuxième loi de la thermodynamique ou principe de Carnot) établit l’irréversibilité des phénomènes physiques, en particulier lors des échanges thermiques. C’est un principe d’évolution qui fut énoncé pour la première fois par Sadi Carnot en 1824. Il a depuis fait l’objet de nombreuses généralisations et formulations successives par Clapeyron (1834), Clausius (1850), Lord Kelvin, Ludwig Boltzmann en 1873 et Max Planck (voir Histoire de la thermodynamique et de la mécanique statistique), tout au long du XIXe siècle et au-delà. Le second principe introduit la fonction d’état entropie : S, usuellement assimilée à la notion de désordre qui ne peut que croître au cours d’une transformation réelle.

Le troisième principe de la thermodynamique, appelé aussi principe de Nernst (1906), énonce que :

« L’entropie d’un cristal parfait à 0 kelvin est nulle. »

Cela permet d’avoir une valeur déterminée de l’entropie (et non pas « à une constante additive près »). Ce principe est irréductiblement lié à l’indiscernabilité quantique des particules identiques.

Dans une autre acception, le troisième principe de la thermodynamique fait référence, dans le cas d’un système ouvert, à l’auto-organisation du système conduisant à la maximisation de la dissipation d’énergie.

Le principe zéro de la thermodynamique permet de définir en thermodynamique la notion de température, en tant que grandeur repérable. La thermométrie est du ressort de ce principe zéro. L’étude du gaz réel aux basses pressions permettra (via la loi d’Avogadro) de donner à la température absolue T le statut de grandeur mesurable, qui se finalisera avec le deuxième principe de la thermodynamique et la variable d’état d’équilibre entropie. En fait le "principe zéro" se déduit alors du deuxième principe et ne jouit en fait que du statut éphémère d’introduction à la notion de température repérable.

Principe d’exclusion de Pauli

En 1925, Wolfgang Pauli proposa un principe selon lequel les électrons ne peuvent pas se trouver au même endroit dans le même état quantique. Par la suite, ce principe est généralisé à tout fermion (ou particule de spin demi-entier), tel que le proton, le neutron, le neutrino et les quarks. Ce principe devint ensuite un théorème de la mécanique quantique relativiste, élaborée par Dirac en 1930 : les particules de spin demi-entiers sont des fermions et ils obéissent à la statistique de Fermi-Dirac, donc au principe d’exclusion de Pauli.

Principe de causalité

En physique, le principe de causalité affirme que si un phénomène (nommé cause) produit un autre phénomène (nommé effet), alors l’effet ne peut précéder la cause. À ce jour, il n’a pas été mis en défaut par l’expérience, mais certaines théories envisagent une causalité inversée.

Le principe de causalité est une des contraintes réalistes imposées à toute théorie mathématiquement cohérente afin qu’elle soit physiquement admissible.

Le principe de causalité a longtemps été très étroitement associé à la question du déterminisme selon lequel dans les mêmes conditions, les mêmes causes produisent les mêmes effets. Cependant, avec la prise en compte de phénomènes de nature intrinsèquement statistique (comme la désintégration radioactive d’un atome ou la mesure en mécanique quantique), il s’en est notablement éloigné. Il prend des formes assez diverses selon les branches de la physique que l’on considère.

La physique classique est fondée, entre autres, sur le principe de causalité. La manifestation d’un effet est un changement d’état d’un système, là où les causes sont identifiables aux forces qui s’exercent sur le système (soit par contact comme les chocs et les frottements, soit à distance comme la gravitation ou comme la force électromagnétique qui sont transportées par des champs) ou aux évènements producteurs de ces forces. Isaac Newton, en écrivant qu’il y a proportionnalité entre la force motrice (la cause) et des changements du mouvement (l’effet), a fait de l’étude de la causalité une étude quantitative qui est le fondement de la physique. Le problème de l’éventuelle différence de nature entre la cause et l’effet est ainsi réduit à la question de l’ordre temporel entre les états de l’ensemble du système étudié car ces états peuvent être considérés comme causes et effets les uns des autres.

La prédiction déterministe des états à venir à partir de la connaissance de ceux du passé paraît être "naturellement" associée au principe de causalité en physique classique, mais ce serait oublier que dans la pratique expérimentale nulle donnée n’est parfaitement connue et que dans la théorie, la complexité mathématique commence dès qu’il y a trois corps en présence, et que la théorie du chaos est née du déterminisme lui-même.

Principe de correspondance

En physique, le principe de correspondance, proposé pour la première fois par Niels Bohr en 1923, est un principe établissant que le comportement quantique d’un système peut se réduire à un comportement de physique classique, quand les nombres quantiques mis en jeu dans le système sont très grands, ou quand la quantité d’action représentée par la constante de Planck peut être négligée devant l’action mise en œuvre dans le système.

Principe de d’Alembert

Le principe de d’Alembert est un principe de mécanique analytique affirmant que l’ensemble des forces de contrainte d’un système ne travaille pas lors d’un déplacement virtuel. Ce principe a été énoncé, en des termes différents, en 1743 par Jean le Rond D’Alembert dans son Traité de dynamique, il a ensuite été utilisé par Joseph-Louis Lagrange dans le développement de la mécanique analytique, notamment pour redémontrer en 1788 les équations d’Euler-Lagrange à partir du principe fondamental de la dynamique, sans passer par le principe de moindre action (méthode qui lui avait permis de les trouver en 1756). En fait, ce principe postule que, par exemple, la table sur laquelle est posé l’objet est passive (n’oppose que des forces de réaction au corps) et ne va pas lui fournir une quelconque accélération ni énergie.

Principe de moindre action

Le principe de moindre action est l’hypothèse physique selon laquelle la dynamique d’une quantité physique (la position, la vitesse et l’accélération d’une particule, ou les valeurs d’un champ en tout point de l’espace, et leurs variations) peut se déduire à partir d’une unique grandeur appelée action en supposant que les valeurs dynamiques permettent à l’action d’avoir une valeur optimale entre deux instants donnés (la valeur est minimale quand les deux instants sont assez proches).

La plupart des équations fondamentales de la physique peuvent être formulées à partir du principe de moindre action. C’est notamment le cas en mécanique classique, en électromagnétisme, en relativité générale et en théorie quantique des champs.

Principe de Fermat

Le principe de Fermat est un principe physique, attribuable à Pierre de Fermat, qui sert de fondement à l’optique géométrique. Il décrit la forme du chemin optique d’un rayon lumineux et s’énonce ainsi : La lumière se propage d’un point à un autre sur des trajectoires telles que la durée du parcours soit localement minimale (localement signifiant : pour une trajectoire "petite").

Une conséquence première du principe de Fermat est la propagation rectiligne des rayons lumineux dans les milieux homogènes. En effet, dans un milieu homogène, le temps de parcours est proportionnel à la longueur du trajet, et le chemin le plus court dans un espace euclidien pour aller d’un point à un autre est la ligne droite.

Il permet de retrouver la plupart des résultats de l’optique géométrique, en particulier les lois de la réflexion sur les miroirs, les lois de la réfraction, la loi de Snell-Descartes, etc.

Principe de Mach

En physique théorique, le principe de Mach est une conjecture selon laquelle l’inertie des objets matériels serait induite par « l’ensemble des autres masses présentes dans l’univers », par une interaction non spécifiée. Ce principe a été forgé par le physicien Ernst Mach par extension du principe de relativité aux questions d’inertie : pour Mach, parler d’accélération ou de rotation par rapport à un espace absolu n’a aucun sens, et il vaut mieux parler d’accélération par rapport à des masses lointaines. Ce principe est immédiatement tiré des expériences de Mach sur la physique des sensations, et correspond à sa volonté délibérée d’organiser les notions de la physique d’une manière cohérente avec le donné sensoriel dont il a conduit une très rigoureuse étude expérimentale, relatée dans "la physique des sensations" (Die Analyse der Empfindungen und das Verhältnis des Physischen zum Psychischen, (1re édition 1886, 2e édition revue et augmentée 1900)).

Ce principe est exprimé pour la première fois par Mach dans son ouvrage The Science of Mechanics en 1893, mais a été identifié en tant que principe et baptisé "Principe de Mach" par Albert Einstein en 1918.

Bien que cette idée ait guidé Einstein dans la découverte de la relativité générale, cette théorie n’a pu amener à une preuve explicite de ce principe. Cependant, bien que non explicitement démontré, ce principe n’est pas non plus infirmé par les théories physiques actuellement admises.

Pour donner un sens à ce principe, imaginons un astronaute, flottant au milieu d’un espace vide de toute matière et de tout point de repère. Aucune étoile, aucune source d’énergie, le néant. Maintenant posons nous la question : l’astronaute a-t-il un moyen de savoir qu’il est en rotation sur lui-même ou non, étant donné qu’il n’a aucun point de repère ?

Si le principe de Mach est faux, c’est-à-dire si les forces d’inertie existent même en l’absence de toute matière ou énergie, alors l’astronaute pourrait le savoir, en ressentant des forces d’inertie qui poussent ses bras vers l’extérieur par exemple (force centrifuge). Mais cela aurait-t-il un sens ? Par rapport à quoi serait-il en rotation puisqu’il n’y a rien ? Cela impliquerait la notion d’un espace et d’un référentiel absolu, remis en cause par le principe de relativité générale. Une manière d’interpréter les forces d’inerties en général, et la force centrifuge en particulier, sans introduire la notion de référentiel absolu est d’admettre avec Mach (et Einstein) que les forces d’inertie sont induites par les masses lointaines qui fournissent le référentiel par rapport auquel la rotation prend son sens physique.

Ce principe est considéré malicieusement par Richard Feynman dans Six easy pieces : « Pour autant que nous le sachions, Mach a raison : personne n’a à ce jour démontré l’inexactitude de son principe en supprimant tout l’univers pour constater ensuite qu’une masse continuait éventuellement à avoir une inertie ! ». Plus sérieusement, l’idée de Mach a influencé Einstein dans son idée que la matière « engendrait par nature » l’espace qui était autour d’elle, et qu’un espace vide de matière n’existait pas (voir à ce sujet les articles Big Bang et Relativité générale).

Principe de Curie

Le principe de symétrie de Pierre Curie affirme que « Lorsque certaines causes produisent certains effets, les éléments de symétrie des causes doivent se retrouver dans les effets produits. ». Ce principe fut établi par Pierre Curie après avoir observé les propriétés des champs électromagnétiques. Il permet d’établir des invariances, des symétries et même l’impossibilité d’un phénomène. La réciproque n’est pas vraie, c’est-à-dire que les effets produits peuvent être plus symétriques que les causes. Une généralisation de ce principe existe également pour les phénomènes physiques incluant une possibilité de bifurcation : pour une même cause, deux effets distincts physiquement et qui ne peuvent coexister sont possibles. Parfois, chacune des possibilités prise séparément est moins symétrique que la cause. Dans ce cas, c’est la symétrie globale de l’ensemble des effets qui doit être prise en compte pour respecter le principe de Curie (exemple : domaines ferroélectriques de BaTiO3 à basse température ou flambement d’une poutre en mécanique des structures).

Principe de Copernic

Le principe de Copernic (ou principe copernicien) est le postulat selon lequel il n’y a pas de point de vue privilégié dans l’Univers. Le terme est une référence au fait que Nicolas Copernic a été le principal promoteur de l’héliocentrisme, et donc est celui qui a fait admettre que l’Homme n’est pas au centre de l’univers. Le principe de Copernic va plus loin, puisqu’il exclut l’existence de tout point privilégié. Ce principe n’est pas vraiment à visée philosophique. Il vise principalement à permettre d’établir des modèles plus large de l’univers. En effet selon ce principe, la Terre n’est pas un point d’observation privilégié, et donc les observations faites depuis la Terre ne doivent pas être des cas particuliers. En appliquant le principe de Copernic aux mesures faites depuis la Terre, les cosmologues doivent établir des modèles d’univers qui permettent de faire des observations semblables depuis n’importe quel point, ce qui est une contrainte beaucoup plus forte.

Principe cosmologique

Le principe cosmologique est l’hypothèse aujourd’hui vérifiée selon laquelle l’univers est spatialement homogène, c’est-à-dire que son apparence générale ne dépend pas de la position de l’observateur. Il a pour conséquence que l’Homme n’occupe pas de position privilégiée dans l’univers, en opposition avec la théorie géocentrique (aujourd’hui abandonnée), mais en accord avec le principe copernicien. En pratique, le principe cosmologique présuppose aussi que l’univers est isotrope, c’est-à-dire que son aspect ne dépend pas de la direction dans laquelle on l’observe (par exemple son taux d’expansion ne dépend pas de la direction).

Le principe cosmologique a été implicitement formulé par Albert Einstein en 1917 alors qu’il cherchait des solutions aux équations de la relativité générale décrivant l’univers dans son ensemble. Ces équations étant extrêmement complexes, elles n’admettent en général pas de solutions simples. Il reste cependant possible de les résoudre si l’on suppose que l’espace possède un nombre suffisant de symétries, comme dans le cas du principe cosmologique. Il a ensuite été formulé de façon plus explicite par Edward Milne au début des années 1930.

Le principe cosmologique n’était pas, à l’époque où il a été introduit par Einstein, étayé par les observations robustes car aucun objet situé en dehors de la Voie lactée n’avait été identifié comme tel. Il a été conforté par les observations à mesure que celles-ci ont pu vérifier que l’univers observable était effectivement homogène et isotrope sur des distances de plus en plus grandes (plusieurs dizaines de milliards d’années-lumière pour l’ensemble de l’univers observable).

Aujourd’hui, tout modèle cosmologique prétendant décrire l’univers doit reposer sur le principe cosmologique, ou en tout cas expliquer pourquoi l’univers observable le respecte.

Des principes se sont transformés en lois. Comme le principe de Le Chatelier.

Le principe de Le Chatelier, ou loi générale de modération, déduite d’observations expérimentales, a été énoncé par Henry Le Chatelier en 1884. Ce principe est applicable dans le cadre d’un déplacement d’équilibre, et non pas d’une rupture d’équilibre.

Énoncé :

« Lorsque les modifications extérieures apportées à un système physico-chimique en équilibre provoquent une évolution vers un nouvel état d’équilibre, l’évolution s’oppose aux perturbations qui l’ont engendrée et en modère l’effet. »

Autres formulations :

• Un système thermodynamique en équilibre soumis à une perturbation (introduction d’un nouveau constituant, variation de la pression, variation de la température, etc) tend à s’opposer à cette perturbation, le déplacement de l’équilibre tendant à restituer les conditions initiales.

• Si un système chimique à l’équilibre est soumis à une modification de certains paramètres ayant pour effet de perturber cet équilibre, ledit système évolue dans la direction qui contrecarre la modification imposée, de manière à se réajuster à un nouvel état d’équilibre caractérisé par la même valeur de constante thermodynamique. Ce principe se déduit de la loi d’action de masse et de la loi de Van ’t Hoff.

Un principe similaire existe aussi en électromagnétisme, dans le domaine de l’induction : la loi de Lenz. Cependant, il s’agit dans ce cas d’un effet relativiste de dilatation du temps appliqué aux particules chargées en mouvement.

Principe d’incertitude

Le principe d’incertitude (ou principe d’indétermination) énonce que, pour une particule massive donnée, on ne peut pas connaître simultanément sa position et sa vitesse.

Ce principe fut énoncé au printemps 1927 par Heisenberg lors des balbutiements de la mécanique quantique.

Le terme « incertitude » est le terme historique pour ce principe. Le nom de théorème d’indétermination est parfois préféré car le principe ne porte pas sur l’ignorance "subjective" de grandeurs par l’expérimentateur, mais bien sur une impossibilité fondamentale de les déterminer, et même sur le fait que le concept de grandeur précise n’a pas de sens physique. De plus, ce principe étant démontré par les équations, il devient un théorème.

D’autres principes sont particulièrement discutables et discutés.

Citons ainsi le principe anthropique.

Le principe anthropique (du grec anthropos, homme) est le nom donné à l’ensemble des considérations qui visent à évaluer les conséquences de l’existence de l’humanité sur la nature des lois de la physique et biologique ; l’idée générale étant de dire que l’existence même de l’humanité (ou plus généralement, de la vie) permet de déduire certaines choses sur les lois de la physique, à savoir que les lois de la physique sont nécessairement telles qu’elles permettent à la vie d’apparaître. Tel quel, ce principe pourrait être considéré comme une tautologie, cependant, l’étude détaillée des conséquences de cette affirmation a de profondes conséquences en physique et en particulier en cosmologie, où il apparaît que les lois de la physique sont sujettes à un nombre étonnamment important d’ajustements fins sans lesquels l’émergence de structures biologiques complexes n’aurait jamais pu apparaître dans l’univers. Le principe anthropique dans sa formulation scientifique est à mettre au crédit du physicien Brandon Carter, bien que d’autres l’aient incomplètement discuté avant lui, comme Robert Dicke à la fin des années 1950 et le Prix Nobel de physique Paul Dirac dans le courant des années 1930.

S’y oppose notamment le principe de médiocrité.

Le principe de médiocrité stipule que la situation de la Terre et de ses habitants est "médiocre" (au sens de "moyen", "dans la moyenne", sans sens négatif) dans l’Univers.

Ainsi, le Soleil serait une étoile banale, située en un lieu quelconque de la Voie lactée (galaxie comprenant le système solaire), laquelle serait également quelconque par rapport aux milliards de galaxies recensées.

Par extension, le principe de médiocrité cherche à s’appliquer à la question de l’apparition de la vie.

Il existe une démarche intellectuelle contraire, celle du principe anthropique, qui propose au contraire de postuler que tous ces paramètres sont ce qu’ils sont parce que sans cela, l’existence d’observateurs (de vie intelligente) serait impossible. Concernant la position de la Terre, le caractère "quelconque" de sa position est relativisé par la notion de zone habitable.

Principe cosmologique parfait

En cosmologie, le principe cosmologique parfait stipule que l’univers est identique à lui-même en chacun de ses points et à toutes les époques. Cette hypothèse supplémentaire le distingue du principe cosmologique, introduit par Albert Einstein en 1917, qui énonce que tous les points de l’univers possèdent les mêmes propriétés à une époque donnée.

Le principe cosmologique parfait a été proposé par les auteurs de la théorie de l’état stationnaire, Fred Hoyle, Thomas Gold et Hermann Bondi. Par certains côtés, il peut apparaître comme un postulat philosophique rappelant le dogme de l’immuabilité des cieux de l’Antiquité grecque, mais à l’époque il avait pour but de proposer une alternative au Big Bang dont l’aspect, lui aussi biblique, déplaisait à certains cosmologistes, Albert Einstein en tête. Il a par la suite été abandonné, tout comme la théorie de l’état stationnaire, suite à la découverte du fond diffus cosmologique, dont l’existence, et particulièrement le spectre de corps noir étaient impossibles à expliquer dans le cadre de la théorie de l’état stationnaire. Depuis, divers effets d’évolution observés dans les populations galactiques, ainsi que la mesure directe de la variation temporelle de la température du fond diffus cosmologique (voir La mesure de la température du fond diffus cosmologique à grand redshift dans l’article Big Bang) au cours du temps ont apporté des preuves observationnelles explicites de la fausseté du principe cosmologique parfait.

Terminons par une discussion du principe anthropique

Et une discussion sur le principe de simplicité

Répondre à cet article

SPIP | squelette | | Plan du site | Suivre la vie du site RSS 2.0