Accueil > 02 - Livre Deux : SCIENCES > Hasard et nécessité > Comment se pose aujourd’hui la question du déterminisme au plan (...)

Comment se pose aujourd’hui la question du déterminisme au plan philosophique, scientifique, historique, économique et social ?

jeudi 30 août 2012, par Robert Paris

« Le "déterminisme" est la seule manière de se représenter le monde. Et l’indéterminisme, la seule manière d’y exister. »

Paul Valéry - Cahiers I

« Voici donc les faits : des individus déterminés qui ont une activité productive selon un mode déterminé entrent dans des rapports sociaux et politiques déterminés. Il faut que dans chaque cas isolé, l’observation empirique montre dans les faits, et sans aucune spéculation ni mystification, le lien entre la structure sociale et politique et la production. La structure sociale et l’État résultent constamment du processus vital d’individus déterminés ; mais de ces individus non point tels qu’ils peuvent s’apparaître dans leur propre représentation ou apparaître dans celle d’autrui, mais tels qu’ils sont en réalité, c’est-à-dire, tels qu’ils œuvrent et produisent matériellement ; donc tels qu’ils agissent sur des bases et dans des conditions et limites matérielles déterminées et indépendantes de leur volonté. »

Karl Marx dans "L’Idéologie allemande"

« La question du temps et du déterminisme n’est pas limitée aux sciences, elle est au cœur de la pensée occidentale depuis l’origine de ce que nous appelons la rationalité et que nous situons à l’époque présocratique. Comment concevoir la créativité humaine, comment penser l’éthique dans un monde déterministe ?

La démocratie et les sciences modernes sont toutes deux les héritières de la même histoire, mais cette histoire mènerait à une contradiction si les sciences faisaient triompher une conception déterministe de la nature alors que la démocratie incarne l’idéal d’une société libre. Nous considérer comme étrangers à la nature implique un dualisme étranger à l’aventure des sciences aussi bien qu’à la passion d’intelligibilité propre au monde occidental. Cette passion est selon Richard Tarnas, de « retrouver son unité avec les racines de son être ». Nous pensons nous situer aujourd’hui à un point crucial de cette aventure au point de départ d’une nouvelle rationalité qui n’identifie plus science et certitude, probabilité et ignorance.

En cette fin de siècle, la question de l’avenir de la science est souvent posée. Pour certains, tel Stephen Hawking dans sa Brève histoire du temps, nous sommes proches de la fin, du moment où nous serons capables de déchiffrer la « pensée de Dieu ». Je crois, au contraire que nous sommes seulement au début de l’aventure.

Nous assistons à l’émergence d’une science qui n’est plus limitée à des situations simplifiées, idéalisées, mais nous met en face de la complexité du monde réel, une science qui permet à la créativité humaine de se vivre comme l’expression singulière d’un trait fondamental commun à tous les niveaux de la nature. »

Ilya Prigogine

Quelques lectures sur la question du déterminisme

Comment se pose aujourd’hui la question du déterminisme au plan philosophique, scientifique, historique, économique et social ?

Le déterminisme a été défini de diverses manières par des philosophies et des courants de pensée successifs. D’une façon générale, il pose le problème suivant : est-ce que ce qui arrive est nécessaire et obéit à une détermination qui le précède et le dépasse ou, au contraire, n’est-il que contingent et nullement obligatoire, étant seulement une des évolutions possibles parmi tant d’autres, chaque résultat étant le résultat d’une série de hasards sans connexion entre eux. Dans le premier cas, nous dirons que le monde est entièrement rationnel et dans le deuxième qu’il est irrationnel. Dans le premier cas, nous dirons qu’il obéit à une causalité stricte et dans le deuxième que la discontinuité causale est fondamentale.

Nous avons ainsi défini une espèce d’opposition diamétrale entre détermination et indétermination. Il nous reste à montrer justement que cette opposition n’est diamétrale qu’apparemment, c’est-à-dire que détermination et indétermination sont complètement imbriqués et indispensables l’un à l’autre....

Et pourtant, il semble bien qu’il faille ou bien dire que l’apparition de la vie avait un caractère de nécessité ou bien (exclusif) que son origine était purement contingente. Comment les deux pourraient-ils être exacts en même temps ? Eh bien, il suffirait que cette nécessité, cette loi, cette détermination ait comme moteur, comme dynamique, comme base la contingence même du monde... L’anti-dialecticien Monod n’avait-il pas reconnu le vivant comme un couplage inséparable de hasard et de nécessité ? Mais c’est un peu tôt pour y arriver ! Commençons par ce qui pourrait sembler fonder aujourd’hui l’indéterminisme au sein même de ce qui était leur base philosophique : les sciences.

Le déterminisme est-il aujourd’hui remis en question et l’indéterminisme n’est-il pas triomphant ?

Bien des développements relativement récents des sciences semblent justifier une remise en cause de la thèse du déterminisme. En fait, ce qui est remis en question concerne seulement le déterminisme général, dit universel, conçu comme pur, dépourvu de tout hasard, de toute agitation, le déterminisme considéré comme diamétralement opposé à l’indéterminisme et non comme son contraire dialectique, le déterminisme diamétralement opposé aussi à la liberté et séparant une matière totalement déterministe et une humanité entièrement libre de ses actes, en deux entités séparées, sans véritable interpénétration possible.

Cette thèse avait envahi la science et la philosophie, dites « positives », à l’ère des succès apparaissant comme sans limites du capitalisme appelé « le progrès ». On en est loin, à une époque où la domination du système atteint son sommet et ses limites. Des sciences comme la physique quantique, la relativité du temps et de l’espace, le chaos déterministe, le rôle du hasard dans l’évolution (voir notamment Stephen Jay Gould), des structures issues du non-équilibre (voir Prigogine), des développements mathématiques et logiques comme le théorème de Gödel semblent détruire la capacité des sciences (et plus généralement de l’homme) de connaître le monde et dénoncer la prétention de la philosophie humaine de trouver une rationalité à l’univers.

Mais ce pessimisme est-il vraiment le produit des sciences en question ?

Le chaos déterministe, loin de nier la possibilité de décrire le monde par des lois, est déterministe comme son nom l’indique très bien. S’il constate que la description du monde n’est pas réductionniste, sa description globale permet d’élargir la palette des phénomènes qui obéissent à des lois à des cas qui manifestent une agitation apparemment désordonnée.

La physique quantique a, elle aussi, eu ses interprétations indéterministes, surtout à ses débuts. Son constat selon lequel on ne peut pas atteindre une précision aussi grande que l’on veut sur deux paramètres correspondants (dite inégalité d’Heisenberg) est un constat sur le fonctionnement du monde et non sur les limites de l’observation humaine. Ce constat indique que ces paramètres interagissent via le vide quantique et que les objets matériels (fut-ce de simples particules et surtout elles) ne sont pas indépendants du fond (le vide) mais interagissent en permanence avec lui. Deux paramètres concernant une particule sont donc tous deux liés au vide et reliés entre eux dans le cas d’une observation. Les observations sur les deux paramètres ne sont donc pas indépendantes. Ce n’est pas, encore une fois, une limite de la connaissance mais un progrès de la connaissance. Le fait que les particules ne soient pas basiques mais fondées sur le vide quantique n’est pas plus une limité de la capacité de connaître ou de mesurer mais une découverte du fondement de la matière durable dans la matière virtuelle, celle du vide.

Le théorème de Gödel a montré les limites du raisonnement formel (par définitions, axiomes, lemmes, théorèmes). Mais la logique scientifique n’est nullement tenue de se contenter de la logique formelle. Elle a, au contraire, de multiples raisons de se fonder sur la logique dialectique (qui refuse le principe d’identité, le principe du tiers exclus, le tout égal à la somme des parties, les hypothèses de la théorie des ensembles, la linéarité de la conception de la causalité et autres présupposés du formalisme).

L’indéterminisme philosophique, qui prétend s’appuyer sur des développements de la science contemporaine apporte de l’eau au moulin du fatalisme religieux, du mysticisme, du paranormal, du pessimisme social et cela va dans le sens de toutes les tentatives d’accuser la science, et la philosophie liée à la science, de tous les crimes en réalité commis par la société capitaliste et son idéologie. Détourner la colère des peuples du système capitaliste et de sa pensée unique est le but réel de ceux qui prétendent relativiser et remettre en question la démarche scientifique. Il est vrai que le monde des scientifiques ne combat en rien la société capitaliste et pas davantage dans le domaine idéologique, pas plus que les autres milieux sociaux. Mais cela ne permet pas de jeter aux orties tout ce que la science nous apprend sur nous-mêmes et sur le monde.

En fait, indétermination et détermination sont aussi étroitement liés et imbriqués de manière dynamique et contradictoire que le sont la vie et la mort, le stable et l’instable, l’unité et la diversité, l’ordre et le désordre, le rigide et le souple, etc…

La physique quantique, par exemple, n’a fait dans ses inégalités d’Heisenberg, que souligner qu’on augmente nécessairement l’indétermination d’un paramètre dès qu’on précise la détermination du paramètre correspondant pour le même objet quantique. Ce dernier a donc des caractéristiques qui mêlent inextricablement détermination et indétermination.

La théorie du chaos et les structures dissipatives de Prigogine ont dévoilé au sein de la matière et de la vie une imbrication complète du prédictible et de l’imprédictible, de l’ordre et du désordre, de l’équilibre et du déséquilibre, de la structuration et de la déstructuration.

La biologie, le développement, l’évolution, l’immunologie et la génétique ont multiplié les exemples dans lesquels apparaissent des formes diverses d’imbrication d’ordre et de désordre, du hasard et de la nécessité, de la détermination et de l’indétermination. Les interactions moléculaires, macro-moléculaires, cellulaires, organiques, microbiennes, bactériologiques, des espèces, des groupes d’espèces ont montré que la stabilité est un produit d’agitations au hasard et inversement.

La recherche en physique a certes mené aux équations de Newton, d’Einstein, de Maxwell, de De Broglie et de Schrödinger, mais, en même temps, ces lois n’empêchent nullement que la matière est plus que jamais, à différents niveaux, contrainte à conserver sa part d’imprédictibilité. Le moment où le noyau de l’atome instable va exploser, le moment où l’atome émet ou absorbe un photon, le cas où un photon est réfléchi ou réfracté par une surface réfléchissante, etc, ces cas obéissent à des lois probabilistes et on ne peut donc pas en tirer plus qu’une probabilité sur plusieurs événements opposés. La physique quantique, comme la biologie du vivant, ou la science sociale sont des domaines dans lesquels des lois déterministes coexistent en permanence avec le probabilisme.

N’est-il pas clair que l’on ne peut pas prévoir en combien de morceaux ce vase va se casser s’il tombe ? N’est-il pas vrai que nul ne peut dire si une observation au niveau quantique a mesuré une particule ou l’a créée ? N’est-il pas bien connu qu’on est incapable de prédire une éruption volcanique ou un tremblement de terre ? N’est-il pas vrai qu’on ne peut prédire une supernova ou un sursaut gamma ?

L’interaction, à tous les niveaux, entre phénomènes lents et rapides, ayant un temps caractéristique très différent, entraîne ce type de situations qui ressemblent parfois à un ordre pur et parfois à un désordre pur mais ne sont que des combinaisons parfaitement entremêlées entre ordre et désordre.

Ces différences importantes de temps caractéristiques des deux phénomènes contradictoires imbriqués permettent d’étudier des phénomènes comme appartenant apparemment à des domaines différents, mais comme, à certaines échelles, ils se confrontent nécessairement et que cela a des conséquence aux échelles voisines, il est impossible de conserver cette image à tous les niveaux et le faire mène inévitablement à des conclusions en contradiction avec l’observation. Les changements lents et progressifs sont nécessairement produits par des changements brutaux et discontinus et en produisent eux-mêmes également.

Il ne faut pas conclure de cette imbrication irrémédiable de la détermination et de l’indétermination que l’homme ne pourra jamais…, que l’homme ne saura jamais… mais seulement que cette recherche se complexifie sans cesse car on peut sans cesse pousser les limites de l’observation sans avoir achevé de comprendre.

Comment s’est depuis longtemps posé la question

Les métaphysiciens, les penseurs de la logique formelle et tous ceux qui emploient le sens commun opposent diamétralement hasard et nécessité, déterminisme et indéterminisme, ordre et désordre, loi et absence de loi, liberté et causalité, etc… La réalité n’obéit pas à leur diktat : ou ceci ou cela exclusivement. Elle montre tout autre chose : une imbrication.La matière, la vie, l’homme, la société, l’économie, c’est à la fois du hasard et des lois et les deux sont inséparables. Il n’y a pas de hasard pur et pas de déterminisme pur.

Bien avant la théorie dite du chaos déterministe, on a vu des imbrications entre ces « contraires ». Cette imbrication signifie qu’il y a toujours un désordre au sein d’un ordre et ainsi de suite. Le déterminisme n’est pas l’opposé diamétral de l’indéterminisme. C’est l’agitation qui est la base sur laquelle se fondent les lois. C’est de l’agitation que nait la température, la pression, et bien d’autres paramètres qui vont obéir à ces lois. La physique n’a pas attendu les lois quantiques pour trouver des paramètres fondés sur l’aléatoire mais qui obéissent à des lois. La thermodynamique a elle aussi connu cela. Même les lois de la gravitation dévoilent la même chose comme l’affirme Poincaré dans sa loi des trois corps.

L’imbrication dialectique des contraires n’est nullement une limitation des sciences, un échec du déterminisme, un indéterminisme, ni un triomphe d’irrationnel comme cela a été trop souvent dit à l’étourdi. C’est déjà une loi. C’est un des éléments du déterminisme du monde.

Il est faux de dire que la science ou que le marxisme sont des déterminismes purs. Il n’existe que des réalités contradictoires et elles sont toutes des mélanges à toutes les échelles entre ordre et désordre, déterminismes et agitation aléatoire. Par exemple, la génétique est fondée sur un mixage de lois et de hasards. Ainsi, l’héritage génétique va nécessairement composer l’héritage du père et celui de la mère, mais c’est le hasard qui tranche pour savoir quels gènes du père et quels gènes de la mère.

Le déterminisme est la théorie selon laquelle la succession des événements et des phénomènes est due au principe de causalité, ce lien pouvant parfois être décrit par une loi physico-mathématique qui peut ou non fonder le caractère prédictif de ces derniers.

Il est à remarquer que même les lois mathématiques n’ont pas toutes un caractère prédictif. Cela dépend si elles manifestent une sensiblité aux conditions initiales. Car alors il faudrait connaître les paramètres avec une précision infinie pour prédire. Certaines lois mènent à plusieurs solutions et il est ipossible par l’utilisation seule de la loi de prédire laquelle sera choisie. Enfin, la réalité peut être une superposition d’états comme c’est le cas en physique quantique. Le résultat d’une expérience n’est plus prédictible qu’en termes de probabilité. Cela ne veut pas dire qu’il n’y a pas de loi et que la nature ferait n’importe quoi. Enfin, il y a l’imbrication ordre/désordre, avec par exemple ordre à une échelle fondé sur un désordre à une autre échelle. C’est un type d’ordre très courant et qui mène à des lois avec des paramètres fondés par l’agitation. Du coup le désordre pur n’existe pas et l’ordre pur non plus, ni au niveau humain ni au niveau matériel.

Le déterminisme pur affirme qu’il y a déterminisme à toutes les échelles et dans toutes les interactions. C’est le déterminisme dit universel. Il ne peut pas ête accepté car la réalité du monde ne s’y conforme pas. Aucun domaine ne mène à une détermination absolue. Même l’adage « les mêmes causes produisent les mêmes effets » ne peut pas être pris au pied de la lettre car il n’est jamais possible de se remettre exactement dans une situation où existent exactement les mêmes conditions de départ.

Le déterminisme ne doit être confondu ni avec le fatalisme ni avec le nécessitarisme. Le nécessitarisme affirme la nécessité des phénomènes en vertu du principe de causalité, qui fait que, les mêmes causes produisant les mêmes effets, rien n’arrive qui ne soit nécessaire et qui ne pouvait être prédit de toute éternité. Si le nécessitarisme relève essentiellement de la philosophie, le déterminisme relève au premier chef de la science. La distinction pourra sembler subtile, mais ce qui démarque fondamentalement le déterminisme du nécessitarisme, c’est que la nécessité déterministe n’est pas une nécessité philosophique ou spéculative, mais une nécessité calculable en fait, en droit ou, du moins, en hypothèse.

L’idée du déterminisme universel fut esquissée la première fois par le baron d’Holbach :

« Dans un tourbillon de poussière qu’élève un vent impétueux ; quelque confus qu’il paraisse à nos yeux, dans la plus affreuse tempête excitée par des vents opposés qui soulèvent les flots, il n’y a pas une seule molécule de poussière ou d’eau qui soit placée au hasard, qui n’ait sa cause suffisante pour occuper le lieu où elle se trouve, et qui n’agisse rigoureusement de la manière dont elle doit agir. Un géomètre qui connaîtrait exactement les différentes forces qui agissent dans ces deux cas, et les propriétés des molécules qui sont mues, démontrerait que, d’après les causes données, chaque molécule agit précisément comme elle doit agir, et ne peut agir autrement qu’elle ne fait. »
— Paul Henri Thiry d’Holbach, Système de la nature

D’Holbach se distingue des nécessitaristes tels que Spinoza ou Hobbes en affirmant la calculabilité de la nécessité. Mais c’est à l’astronome et mathématicien Pierre-Simon de Laplace, que revient d’avoir affirmé le déterminisme universel dans toute sa rigueur :

« Nous devons envisager l’état présent de l’univers comme l’effet de son état antérieur, et comme la cause de celui qui va suivre. Une intelligence qui, pour un instant donné, connaîtrait toutes les forces dont la nature est animée et la situation respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour soumettre ces données à l’analyse, embrasserait dans la même formule les mouvements des plus grands corps de l’univers et ceux du plus léger atome : rien ne serait incertain pour elle, et l’avenir, comme le passé, serait présent à ses yeux. L’esprit humain offre, dans la perfection qu’il a su donner à l’astronomie, une faible esquisse de cette intelligence. Ses découvertes en mécanique et en géométrie, jointes à celles de la pesanteur universelle, l’ont mis à portée de comprendre dans les mêmes expressions analytiques les états passés et futurs du système du monde. En appliquant la même méthode à quelques autres objets de ses connaissances, il est parvenu à ramener à des lois générales les phénomènes observés, et à prévoir ceux que les circonstances données doivent faire éclore. »

— Pierre-Simon de Laplace, Essai philosophique sur les probabilités (1814)

En vertu du déterminisme universel, l’intelligence qui connaîtrait avec une absolue précision la position et l’énergie de tout objet dans la position initiale pourrait calculer l’évolution de l’univers à tout moment du temps. Déterminisme est dans ce cas synonyme de prédictibilité. Cependant, il existe des systèmes déterministes formellement non prédictibles (voir Problème de l’arrêt).

Le déterminisme social est le modèle sociologique qui établit la primauté de la société sur l’individu.

Le déterminisme comme notion mathématique vit le jour avec la formalisation des mathématiques à la fin du XIXe siècle et au début du XXe siècle et devint une notion centrale de la calculabilité avec l’apparition de la théorie des automates au milieu du XXe siècle. L’apparition de l’informatique quantique à la fin du XXe siècle et celle de la conception forte de la thèse de Church-Turing, baptisée thèse de Church–Turing–Deutsch, permet de concevoir une synthèse entre le déterminisme calculatoire et le déterminisme physique promus par l’école de la physique numérique dont la proposition « it from bit » est devenu l’emblème.

L’hypothèse du déterminisme universel a gouverné la science du XIXe siècle. Elle a été remise en cause par la physique moderne au XXe siècle :

Le fameux principe d’incertitude d’Heisenberg (1927), qui implique l’impossibilité de connaître avec une infinie précision la position et la vitesse d’une particule par rapport à un même temps donné, contrairement aux données requises par le « génie » de Laplace ; on ne peut les connaître qu’à l’aide d’une fonction de probabilité. Cependant, le déterminisme ne disparaît pas totalement en physique quantique, puisque ces probabilités peuvent être calculées exactement à partir de l’état initial du système considéré selon des lois rigoureusement déterministes (par exemple, l’équation de Schrödinger en mécanique quantique non relativiste).

Toutefois, contrairement à l’hypothèse du déterminisme classique, le principe d’incertitude semble impliquer que l’Univers obéit au libre jeu du hasard et de la nécessité. Albert Einstein affirma à ce sujet : « Dieu ne joue pas aux dés », ce à quoi Niels Bohr répondit : « Einstein, cessez de dire à Dieu ce qu’il doit faire ! » (selon d’autres : « Comment savoir à quoi Dieu joue ? »). Mais la physique quantique n’invaliderait que le déterminisme universel : le déterminisme régional reste un principe d’explication physique incontournable pour nombre de phénomènes.

Le principe d’incertitude d’Heisenberg n’invalide pas (à lui seul) le déterminisme universel. En effet : une intelligence intérieure à l’univers ne sera probablement jamais en mesure de connaître exactement l’état de l’univers entier à un instant donné, mais cela n’invalide en rien la théorie du déterminisme universel, puisque la possibilité de connaître l’état de l’univers n’est ni un prérequis ni une conséquence nécessaire du déterminisme universel.
La physique quantique est un modèle empirique et statistique qui décrit le comportement des particules et des rayonnements sans rien dire de leur nature intrinsèque.

Deux des plus grands physiciens, Albert Einstein et Henri Poincaré, ont montré qu’un apparent désordre dominait la physique ôtant sa prédictibilité au déterminisme. « Dès que l’instabilité est incorporée, la signification des lois de la nature prend un nouveau sens. Elles expriment désormais des possibilités. Elles affirment le devenir et non plus seulement l’être. Elles décrivent un monde de mouvements irréguliers (...). Ce désordre constitue précisément le trait fondamental de la représentation microscopique applicable aux systèmes auxquels la physique avait, depuis le 19ème siècle, appliqué une description évolutionniste (...). » défend le physicien-chimiste Ilya Prigogine dans « La fin des certitudes ».

Il est impossible de savoir dans quel état va être une particule que l’on va capter, impossible de prédire à quel moment un atome excité va émettre un photon, impossible de deviner à quel moment un noyau radioactif instable va se décomposer de manière radioactive, impossible de prévoir si un photon va traverser le miroir ou se réfléchir, etc… Les physiciens espéraient que leur science allait devenir prédictible en atteignant le niveau des particules. Au contraire, plus on s’approche des particules dites élémentaires, plus l’imprédictibilité s’accroît !

Cela ne veut pas dire que l’agitation trépidante de tels phénomènes les rende inaptes à l’étude et sujets seulement à la contingence. Tout n’est pas possible, loin de là. Une loi permet de déterminer les possibles mais pas de trancher celui qui sera adopté par la dynamique. Car ce qui le choisit, c’est la loi du niveau inférieur. La dynamique est décrite seulement par des lois dites statistiques parce qu’elle découle d’un phénomène déterministe rapide imbriqué (interactif, contradictoire et combiné) dans un phénomène déterministe beaucoup plus lent. Croyant que le caractère statistique des lois menait à l’indéterminisme, les physiciens avaient déjà manifesté leur rejet de cette façon de voir face aux découvertes du physicien Ludwig Boltzmann qui étudiait l’agitation moléculaire.

« Pour certains physiciens, tels Max Planck et surtout Ludwig Boltzmann, il (le second principe de la thermodynamique) fut aussi le symbole d’un tournant décisif. La physique pouvait enfin décrire la nature en termes de devenir ; elle allait pouvoir, à l’instar des autres sciences, décrire un monde ouvert à l’histoire. (...) A tous les niveaux, la science redécouvre le temps. » racontent le physicien Ilya Prigogine et la philosophe Isabelle Stengers dans « Entre le temps et l’éternité ».

C’est un mode de fonctionnement que l’on appelle une crise, une « transition de phase » avec « interaction d’échelles ». Il n’est pas dans la suite logique du passé. Rien ne le laissait prévoir. Même après coup, personne ne peut prétendre qu’on aurait pu le deviner. Une expérience illustre parfaitement le fait que cette physique soit à la fois aléatoire et déterministe : celle des photons jumeaux. Deux photons lumineux appelés jumeaux sont émis en même temps dans deux directions opposées par une même source. On effectue une mesure habituellement considérée comme aléatoire : celle su spin du photon (assimilable à un moment de rotation magnétique) et on remarque que les deux photons ont des spin corrélés. Cela signifie que les mesures ne sont pas au hasard. Ou plus exactement qu’il existe un mécanisme (il reste à dévoiler lequel) déterministe par lequel la mesure de spin n’est pas n’importe laquelle. Jusque là, le spin sembler obéir seulement à une probabilité ce qui signifiait qu’individuellement il aurait agi de façon complètement désordonnée. Le fait que les deux spins des deux photons jumeaux soient corrélés rappelle que le caractère probabiliste du spin du photon montre que ce caractère probabiliste du spin ne signifie pas qu’il n’obéisse pas à des lois. Par contre, ces lois sont fondées sur un désordre collectif sous-jacent, celui du vide.

C’est ce désordre qu’on appelle un peu rapidement du hasard, alors que l’ordre est appelé loi. Cette séparation n’est pas valable : la loi fonctionne sur la base du désordre et le désordre est relié à des lois ou plutôt les fonde. Parler de « pur hasard » n’est pas une aide parce que le désordre est inséparable de l’ordre. Le déterminisme strict n’est pas plus opérant. Nier le désordre et chercher des lois éternelles, fixes ne répond pas non plus au problème que nous posent les phénomènes naturels.

Depuis Newton et sa loi de la gravitation apparemment complètement prédictive, on a cru expulser complètement le hasard (plus exactement le désordre) du fonctionnement de la nature. L’obéissance à des règles mathématiques nous apparaissant diamétralement opposée au hasard. Actuellement, dans le sens opposé et dans tous les domaines des sciences, on remarque l’action d’un hasard (ou plus exactement d’une agitation désordonnée mais déterministe). Il est lui-même dû à des phénomènes interactifs qui ne sont pas au même niveau d’ordre hiérarchique que les éléments. C’est la source de ce fameux « pur hasard ». L’exemple classique est la rencontre du promeneur et de la tuile qui tombe du toit. Les deux phénomènes sont déterministes. Leur rencontre, fortuite, est la cause de la mort du promeneur, l’événement final qui apparaît du pur hasard.

L’imprédictibilité du fonctionnement de la matière est assimilée par erreur à de un indéterminisme fondamental de la nature. La tuile aurait très bien pu tomber une demi minute plus tôt ou plus tard, laissant vivant le promeneur. Le « résultat final », la mort du promeneur, n’était pas programmé. Nous voilà loin de la physique ? Pas tant que cela. Le moment où un électron change de couche dans l’atome, le moment où il émet un photon, la direction de ce photon, le spin de ce photon, le moment où un noyau instable se décompose (radioactivité), le mouvement d’un photon qui traverse un nouveau milieu (se réfracte-t-il ou se réfléchit-il), tous ces phénomènes sont liés au hasard et ne sont pas prédictibles. Cependant tous ces éléments ne sont pas exactement au hasard puisqu’ils obéissent à des lois probabilistes. Le caractère probabiliste signifie que sur un grand nombre de cas, il y a des lois. La probabilité est bel et bien liée à un déterminisme, même si celui-ci ne se déroule pas au même niveau.

Tout comme les « hasards » de l’Histoire sont le mode d’expression de son déterminisme, dans la matière ils sont une composante permanente de l’histoire de la matière. Dans cette histoire, un détail (la tuile qui tombe) peut devenir déterminant pour un événement brutal (la mort du promeneur) et entraîner une véritable bifurcation du cours du développement. Ainsi, en chimie-biologie, la catalyse produit de tels tournants de l’histoire d’une réaction ou d’une série rétroactive de réactions, d’une auto-organisation des réactions biochimiques. Un seuil de concentration d’une molécule fait basculer une réaction chimique dans le sens inverse. De même, une petite différence locale de concentration de matière aurait permis à Jupiter de devenir une étoile. Et cela a changé toute l’histoire de la terre. Qui sait si la vie aurait pu apparaître sur notre planète tournant autour d’un système d’étoiles doubles, avec ce que cela entraîne comme augmentation de température ? Un tout petit peu moins de matière dans le soleil qui serait resté froid et nous serions de la matière glacée sans vie, dérivant dans l’espace ! Une toute petite différence de distance des supernovae les plus proches et les noyaux lourds n’auraient pu être formés à notre proximité. Les poussières qui ont constitué le monde terrestre n’auraient pas existé…etc.

Le fonctionnement climatique est une dynamique auto-organisée où les structures globalement stables sont fondées sur l’instabilité, et où coexistent des rétroactions positives et négatives qui rendent impossible la prédictibilité du fait de la sensibilité aux conditions initiales. Le climat est même le premier domaine scientifique dans lequel les caractéristiques de chaos déterministe aient été mis en évidence, avec les travaux de Lorenz en 1963. Cette année là, Edward Lorenz du Massachusetts Institute of Technology, spécialiste en météorologie, fait tourner sur un ordinateur les équations physiques connues qui relient les trois paramètres les plus fondamentaux de la météorologie : température, pression et vent. C’est ce que l’on appelle des équations différentielles non linéaires, le terme « différentielles » signifiant qu’elles relient des petites différences des paramètres.

On n’est pas capable de résoudre ces équations et d’en déduire une fonction permettant de calculer la relation directe entre les paramètres et, du coup, la suite des événements si on connaît les conditions initiales. Par contre on peut partir de ces conditions et rajouter de petites variations en les calculant par les équations différentielles. Et involontairement, parce qu’il avait été prendre entre temps un café dit la légende, Lorenz a relancé son calcul à partir de deux conditions initiales très légèrement différentes du fait d’une modification des approximations. Il s’est aperçu de ce que l’on appelle maintenant la sensibilité aux conditions initiales qui signifie que même la plus petite différence des paramètres entraîne que la position n’est plus sur la même couche de la courbe et, très vite, cela cause des divergences considérables et irrémédiables. D’autre part, il a montré que cela se produisait avec seulement trois facteurs. Il est parvenu à montrer qu’il y avait bien une loi avec un attracteur mais c’est un attracteur étrange, feuilleté, fractal.

Un attracteur signifie que pour chaque série de valeurs des variables il y a un seul point possible. Un attracteur étrange signifie qu’avec une valeur très proche des variables on peut passer très vite dans une tout autre zone. Ce qui était très difficile à établir sur ordinateur quand Lorenz l’a fait est très simple aujourd’hui : sur un ordinateur personnel, les mathématiciens peuvent faire tourner les équations de Lorenz sur un logiciel mathématique appelé Maple 5 et retrouver très facilement l’attracteur étrange. Pas plus que nous, l’ordinateur ne peut résoudre les équations mais il peut calculer rapidement des valeurs par variations successives et construire l’attracteur point par point. On retrouve là une figure appelée " le papillon ", à deux branches construit pas séries de couches feuilletées sous forme fractale.

Vous pouvez vous dire : d’accord pour le moment on ne dispose pas de modèles suffisants pour prédire mieux mais on s’améliore et on va bientôt y parvenir. On finira sûrement par mieux comprendre le fonctionnement des nuages et du couple atmosphère-océan. C’est faux. On ne cesse de mieux comprendre oui mais on ne peut pas prédire. La limite de prédictibilité n’est pas due à un manque de connaissances mais à la nature même du phénomène. La nature des fonctions est divergente et on mesure cette divergence par une constante appelée de Lyapounov qui décide de la manière exponentielle dont un petit écart va s’accentuer. Les écarts fins comme entre deux nuages deviennent sensibles pour un temps de quatre jours. Le chaos entraîne qu’il y a une limite réelle à la prédictibilité qui n’est pas due aux limites des capacités de l’opérateur.

Le caractère chaotique du climat pose un autre problème aux modélisateurs qui ont prédit la hausse des températures par effet de serre causé par l’homme. En effet, des variables rétroactives positivement et négativement ne peuvent être utilement approchées et encore moins moyennisées. Lorenz avait d’ailleurs intitulé sa thèse de 1972 devant l’Association américaine pour l’avancement de la science : " Prédictibilité : le battement des ailes d’un papillon au Brésil peut-il déclencher une tornade au Texas ? ". C’était bien sûr une boutade à ne pas prendre au pied de la lettre puisque le but du raisonnement de Lorenz était justement de dire que l’on ne pouvait pas isoler une petite instabilité pour en faire un fait à part. Et Lorenz lui-même s’était chargé de traduire en termes scientifiques : " Le comportement de l’atmosphère est-il instable par rapport à des perturbations de faible amplitude ? " Et il soulignait l’impossibilité de calculer puisque toute approximation changeait la suite de l’histoire du climat. Or le modèle météo qui prédit le temps à trois jours est celui qui a servi aux prévisionnistes à annoncer la hausse notable des températures dans cinquante ou cent ans et fonctionne sur des valeurs moyennes. Rappelons que la méthode consiste non seulement à effectuer des moyennes mais en ayant préalablement retiré les valeurs considérées comme hors normes.

Ce n’est pas une manière de tricher mais une manière classique en recherche physique pour essayer de faire apparaître la loi ou la régularité. Par contre, quand on retire ces valeurs dites excessives, on ne peut plus dire que la moyenne réelle des températures du globe augmente. Et cela d’autant moins qu’un grand nombre des centres de mesure se situe près des villes que l’on sait réellement être des centres du réchauffement par effet de serre. Mais l’occupation minuscule de la surface du globe par les villes ne permet pas d’en déduire que l’ensemble de l’atmosphère voit sa température augmenter notablement. Si on indique des valeurs des augmentations de température suivant qu’on a pris des stations météos proches de grandes villes ou de moins grandes, plus il y a de grandes villes, plus la température augmente. Au contraire, en bas, la température, correspondant à des centres loin des grandes villes, n’augmente quasiment pas.

On s’aperçoit que l’on a formé un concept de température globale qui est purement théorique et n’est pas forcément opérant pour décrire une quelconque évolution climatique réelle. On a ensuite produit une corrélation que l’on a transformée en loi fondamentale sans disposer d’une description réelle des mécanismes. Le paramètre choisi a le défaut d’être unique au lieu d’intégrer des interactions avec pression et vents. En plus, ce n’est pas un bon paramètre car la température globale corrigée des variations brutales à petites échelles n’est pas réelle. On constate qu’il y a eu des glaciations alors que la température globale n’avait baissé que de quatre degrés. On remarque par contre des chutes beaucoup plus importantes sans refroidissement global. C’est que cette température moyenne n’est pas une bonne description des phénomènes et, au moins, n’est pas suffisante. Ce n’est pas la température globale qui est pertinente en climatologie réelle et en histoire des climats mais ce sont les différences locales et régionales qu’il faut examiner en liaison avec les autres paramètres de vent, de pression, d’humidité et de pluviosité. Ainsi une glaciation suppose surtout que les glaces formées l’hiver ne pourront fondre du fait d’un été insuffisant. Ce n’est pas une moyenne entre hiver et été qui intervient. Ce n’est pas non plus une moyenne entre les pôles et les autres zones. Enfin intervient la circulation de l’énergie entre zones mais pas la moyenne entre ces zones, ce qui n’est pas du tout la même chose. Par exemple, la présence ou l’absence de courants marins n’est pas indiquée dans de telles moyennes qui ne décrivent nullement la dynamique du climat. Ainsi, sans modification de la moyenne, les différences peuvent s’accentuer, modifiant tout le climat. En fait, le problème que pose la prédiction est fondamental et relié au caractère de la dynamique de l’atmosphère qui est appelée " la turbulence ".

On constate que des fluides, même dans les situations les plus simples ont des évolutions imprédictibles. Il suffit pour cela d’examiner une simple fumée de cigarette. En 1971, Ruelle et Takens en ont trouvé l’explication. Ils ont montré que la turbulence n’est pas descriptible, comme on le croyait, par une somme de fonctions quasi-périodiques mais par le chaos déterministe avec un attracteur étrange. Une visualisation sur un ordinateur puissant, un Cray 2, effectuée par Marie Farge du laboratoire de météorologie dynamique de l’Ecole normale supérieure présente la formation spontanée de structures tourbillonnaires en sens opposés dans un champ obéissant à des lois de type chaos déterministe. C’est le cas des anticyclones et des dépressions, comme on l’a montré précédemment mais aussi des mouvements des masses d’air, ou des courants marins. La transmission de l’énergie de la terre à l’atmosphère implique également des processus non-linéaires. C’est un mécanisme fondamental puisque c’est l’océan qui, couvrant 71 % de la surface du globe, absorbe la plus grande partie de l’énergie solaire et la transmet à l’atmosphère, grâce à des échanges très complexes. On trouve également des figures chaotiques dans les mouvements de l’atmosphère, entre les différentes couches. Ce phénomène, appelé cellules de convection a été bien étudié. On a montré que c’est un phénomène chaotique. Rappelons que les équations de Lorenz, présentées précédemment, ne sont rien d’autre que l’écriture d’équations physiques connues de la convection avec frottement pour les fluides, équations appelées de Navier-Stokes. Ce sont ces équations un peu simplifiées par Lorenz qui lui ont permis de mettre en évidence le chaos, c’est-à-dire à un apparent désordre obéissant à des lois non-linéaires. Les rouleaux de convection interactifs règlent les relations entre atmosphère et sol, entre atmosphère et mer et entre haute et basse atmosphère et enfin entre zones de diverses latitudes. Ces courants, loin d’être linéaires, sont turbulents. Ils sont fondamentaux dans la météo car l’essentiel de l’énergie des déplacements d’air est dans ces mouvements.

La théorie du chaos décrit dans quelles conditions un système est ou peut sembler « prédictible » ou non (voire est non prédictible au sens de Poincaré, von Neumann et Lorenz). Le déterminisme est lié au principe de causalité (dans les mêmes conditions, les mêmes causes produisent les mêmes effets) ; la théorie du chaos précise que des causes quasiment identiques peuvent dans le cas général produire des effets totalement divergents et en ce sens, s’écarte du principe de causalité. Tel est le cas des prévisions météorologiques et du phénomène de « l’aile de papillon » (voir : effet papillon).
La notion de structure dissipative est due à Ilya Prigogine. Elle aborde des phénomènes et propriétés des systèmes non-linéaires, et donc potentiellement non prédictibles, c’est-à-dire chaotiques, selon un point de vue différent.

Le principe d’incertitude d’Heisenberg et la théorie du chaos remettent en cause la prédictibilité des systèmes dans le cas général (par opposé aux systèmes linéaires), et non pas leur caractère déterministe au sens restreint de causal. Ils ne contredisent en aucun sens le principe de causalité. On peut considérer qu’au sens classique le sens de déterminisme n’est pas causalité ni prédictibilité, mais l’hypothèse que causalité implique prédictibilité. C’est cela dont la physique moderne et la théorie des systèmes ont montré qu’il s’agit d’une illusion, qui ne peut être vraie que dans des cas particuliers.

D’autre part, le principe de causalité lié au déterminisme suppose l’identité des causes, ce qui n’est possible, en toute rigueur, que dans certains cas, comme une modélisation mathématique, et non en physique où l’on ne peut parler que de causes semblables (ou pseudo-identiques), ce qui suffit pour les constructeurs et l’industrie en général, mais non pour les phénomènes fortement sensibles aux conditions initiales (voir en particulier les cas mis en évidence par la théorie du chaos).

Le déterminisme ne doit pas être confondu avec l’idée de prédestination des jansénistes ou de Blaise Pascal, qui est une idée purement théologique, concernant d’ailleurs moins la série des événements que le salut ou la réprobation de l’âme après la mort.

Déterminisme génétique

On est très loin aujourd’hui des conceptions d’un Claude Bernard qui affirmait : « Il faut admettre comme un axiome expérimental que chez les êtres vivants aussi bien que dans les corps bruts les conditions d’existence de tout phénomène sont déterminées de manière absolue. »

L’interprétation de l’évolution des espèces nécessite un autre phénomène, en plus de la sélection naturelle découverte par Darwin : c’est la capacité des systèmes chaotiques à l’auto-organisation, c’est-à-dire un déterminisme fondé sur des processus aléatoires. Le terme d’auto-organisation souligne qu’une structure a une capacité spontanée à apparaître.

La vie est effectivement une question d’organisation spontanée des processus dynamiques du vivant et pas seulement de programme génétique préétabli comme on l’a cru jusqu’à très récemment. La clef de notre fonctionnement ne réside pas seulement dans le contenu chimique du génome mais dans les interactions des gènes entre eux. Ces interactions fonctionnent selon un mode d’organisation, les chaînes de réactions entre molécules établissant spontanément des relations.

C’est ce mode d’organisation qui décide si un gène est actif ou inactif. En effet, les gènes, qui sont des portions d’ADN, n’agissent pas n’importe quand pour produire des protéines. Ils le font dans un certain ordre et à un certain moment qui leur est indiqué par d’autres gènes. De plus ils ne s’arrêtent pas non plus d’eux-mêmes. L’activation, tout comme l’arrêt, est due à ce que l’on appelle des rétroactions, c’est-à-dire que le produit de la réaction biochimique peut l’accélérer ou la freiner. Suivant les cas, on parlera de rétroaction positive ou négative. Le mécanisme peut être résumé ainsi : un gène produit une protéine et cette protéine, produite à une certaine concentration, entraîne une réaction laquelle rétroagit sur le gène de départ.

L’activité d’un gène peut ainsi être multipliée ou, au contraire, bloquée. C’est cette suite d’actions et de réactions successives qui constitue le processus et l’organisation de la vie. C’est un véritable organigramme non linéaire avec des rétroactions, des boucles qui sont favorablement activées en fonction de l’activation des boucles voisines.

N’est vivant que ce qui entre dans ces cycles sans fin. Aucune vie n’existe sans liaison avec d’autres êtres vivants, sans échange de messages moléculaires permanent. Ces rétroactions peuvent s’autoréguler, c’est-à-dire se coordonner entre elles. Elles peuvent mener à la formation de cycles presque réguliers.

Ce sont des oscillateurs, des horloges produites par l’existence d’attracteurs. Mais ces attracteurs ne sont pas périodiques. Les cycles sont adaptatifs et interactifs. Des oscillateurs chimiques de type chaotique sont capables de se structurer, de se synchroniser. Dans ce cas l’ordre n’abolit jamais le désordre et ne mène pas à l’équilibre stable. Une telle structure est décrite par un nombre plus restreint de paramètres. Il obéit donc à une loi, tout en étant fondé sur le désordre et le hasard. Cet état spontanément structuré est capable de produire un nouvel ordre lorsqu’il est amené au delà d’un seuil critique.

La biochimie des macromolécules est bien à la base du vivant, mais la composition chimique de l’ADN, des gènes ou des protéines n’en est pas le point essentiel. Ce qui compte, c’est le mode de fonctionnement, ce sont les relations entre gènes qui sont nécessaires pour que ces gènes s’expriment. Un gène peut en effet très bien être présent, mais silencieux. Il est inactif parce que d’autres cycles voisins ne sont pas encore entrés en activité et qu’ils sont nécessaires, pour lui donner le signal de démarrage. Je ne prends qu’un seul exemple : une maladie génétique qu’un individu a contracté à la naissance peut ne s’exprimer qu’à un certain âge. C’est dû au fait que l’expression du gène ne se réalise que lorsque d’autres cycles sont également activés, des cycles liés à l’horloge du vieillissement. La compréhension du rôle des gènes a donc été complètement révisée à la suite de recherches récentes.

Il n’y a pas longtemps, on croyait que les gènes déterminent directement l’être vivant, chaque gène fixant à lui seul un caractère, un organe, et la composition chimique de l’ADN déterminant le type d’une cellule. Maintenant on sait que la diversification cellulaire n’est pas fondée sur un changement de l’ADN. Les nombreux types de cellules différentes que contient un être vivant ont le même ADN et ce qui les différencie c’est seulement l’ordre d’activation de l’ensemble des gènes. Il s’agit d’un véritable organigramme de réactions qui s’enchaînent. On croyait qu’il fallait des gènes différents pour produire des animaux de différentes espèces, qu’un singe était un singe parce qu’il avait des gènes de singe et un ours des gènes d’ours.

Sur ce plan, le clonage a changé complètement notre point de vue. On s’est aperçu qu’un gène d’ours peut très bien fonctionner sur une fourmi et inversement. Si on inocule un gène qui commande la fabrication d’un oeil de mouche à une mouche drosophile, il lui pousse un oeil supplémentaire. Mais que se passe-t-il si on inocule un gène d’oeil de souris à cette mouche drosophile ? Le premier motif d’étonnement c’est que le gène de souris fonctionne très bien sur une mouche. Mais que va-t-il produire ? Est-ce un oeil de souris, un oeil de mouche ou une bizarrerie ? On pourrait se dire que cela devrait être un oeil de souris puisque le gène vient d’une souris ... En effet, on sait que la souris n’a pas du tout la même structure de l’oeil que la mouche. Eh bien non, c’est un oeil tout à fait normal de mouche qui va apparaître sur la drosophile ! Et l’inverse est vrai également : si on inocule à une grenouille un gène de fourmi, il poussera un oeil de plus et ce sera un oeil de grenouille. On a montré que la commande de fabrication d’un oeil en général est utilisable sur n’importe quel animal capable de faire fonctionner un oeil. On démontre ainsi que ce gène donne seulement l’ordre « fait pousser un oeil » et que cet ordre est commun aux diverses espèces vivantes, ou du moins interchangeable. Des gènes homéotiques, comme celui de l’oeil, sont ceux qui pilotent non seulement la formation d’un organe, mais tout le développement embryonnaire. Nous allons voir au cours de l’exposé que c’est justement sur les gènes homéotiques qu’ont été faites les découvertes récentes les plus révolutionnaires.

C’est au stade embryonnaire que l’on va peut-être réussir à comprendre la capacité d’évolution de la vie. La phylogénie, c’est-à-dire l’étude des filiations et de la formation des grands groupes hiérarchisés et emboîtés : phylum, embranchement, classe, ordre, famille, genre, espèce, cette arborescence n’est plus séparable de l’ontogénie, c’est-à-dire de la formation d’un individu pilotée par la génétique du développement. En effet, au niveau de l’embryon, niveau où les diverses espèces sont les plus proches les unes des autres, on a peut-être trouvé pour la première fois un mécanisme génétique qui permettrait à la fois de trouver le point commun des espèces vivantes, des changements d’espèces et une interaction avec le milieu.

La découverte de la structure du fonctionnement des gènes homéotiques, ces gènes qui déterminent le plan du corps lors de sa fabrication embryonnaire est une véritable révolution dans la compréhension de la génétique. Leur intervention détermine le rythme d’une série d’actions enchaînées qui est fondamentale puisqu’elle décide de l’ordre dans lequel sont fabriquées les différentes parties du corps dans l’embryon. Ces gènes contrôlent en particulier l’ordre de formation des différents segments de tous les êtres segmentés. Le processus est le même pour produire un oeil que pour fabriquer un thorax, une patte ou une antenne, c’est la hiérarchie d’interconnexion des gènes du développement qui intervient. Il y a trois niveaux : le gène qui donne l’ordre de produire l’organe, celui qui indique le plan de fabrication de l’organe, celui qui le fabrique. Et cette organisation est hiérarchique. Le gène régulateur décide qu’un oeil va être produit et sur quelle zone. Il commande un ensemble de gènes architectes qui donnent le plan de fabrication. Ceux-ci commandent une série de gènes ouvriers qui produisent l’organe. Ce mécanisme a des conséquences très importantes pour la compréhension de l’évolution. En particulier, il rend possible un changement génétique brutal, inconcevable jusque là. Avec deux ou trois variations sur des gènes de régulation qui contrôlent le fonctionnement de milliers de gènes de structure, on réalise une modification globale d’un être vivant, de son mode de vie et de sa morphologie.

On pensait qu’il fallait des milliers de toutes petites mutations sur des gènes de structure pour produire un tel changement qui ne pouvait être effectif que sur des centaines de millions d’années. Cette recherche a également permis une découverte fondamentale : il y a une base commune à tous les gènes homéotiques, partie commune de l’ADN appelée l’homéoboite (homéobox en anglais, ou hox). L’homéoboite, trouvée notamment par le chercheur suisse Walter Ghering, est d’une importance considérable pour la génétique et l’évolution. C’est probablement une découverte aussi fondamentale que celle de la sélection naturelle par Darwin, de l’hérédité par Mendel, des mutations génétiques par Morgan et enfin de la molécule d’ADN par Crick et Watson. Elle permet de comprendre l’origine commune de tous les êtres vivants et leur capacité à passer d’une espèce à une autre. Elle explique aussi pourquoi des gènes d’une espèce peuvent agir sur d’autres espèces car elles agissent sur l’homéoboite.

Les gènes qui pilotent le développement se sont révélés les mêmes pour tous les êtres pluricellulaires et leur relation avec les différents segments du corps sont également les mêmes. Chaque gène homéotique a ses homologues chez d’autres espèces, homologue ressemblant, ayant le même type d’action et capable d’être remplacé l’un par l’autre. Dans cette expérience, on remplace le gène eyeless de la mouche par le gène pax-6 de la souris et le résultat est le même : la production d’un oeil de mouche. Les gènes qui gouvernent la division cellulaire, appelés les synthagmes, se sont également avérés être presque les mêmes chez la levure et chez l’homme. Les protéines, elles aussi, ont assez peu de différences d’une espèce à une autre. On constate ainsi que des protéines régulatrices d’un être vivant peuvent fonctionner chez les autres êtres vivants.

L’homéodomaine est la partie commune des protéines liées aux gènes homéotiques qui est probablement ce qui nous reste de l’origine commune des êtres vivants. La comparaison entre une protéine de mouche et une protéine de levure du boulanger permet une comparaison dans l’homéodomaine, cette partie commune aux protéines du développement. Le lien entre homéodomaine de l’ADN et l’homéoboite des protéines montre combien le fait de trouver des éléments génétiques communs dans le fonctionnement de la mouche et de la levure du boulanger, et même toute une zone commune qui pilote le développement, est extraordinaire. L’origine commune du vivant est désormais visible et se retrouve au niveau de toute la biologie moléculaire, des gènes comme des protéines. La biologie moléculaire n’a donc fait que rapprocher des espèces qui ont des différences morphologiques et comportementales considérables et de rappeler qu’elles appartiennent toutes à un seul et même phénomène qui n’est apparu qu’une fois : la vie.

Tous les êtres vivants ont presque les mêmes protéines de structure qui se sont révélées, en plus, être les régulateurs de la multiplication cellulaire. La fameuse double hélice est une suite de bases A, G, C, T, reliant les deux brins de l’ADN et fondant un véritable alphabet dont les lettres sont formées de trois bases, soit un codon. Chaque codon permet de fabriquer un acide aminé spécifique. Par exemple le codon GCA correspond à l’acide aminé alanine. Cela signifie que les lettres et les mots de l’ADN sont transformés en lettres et en mots du langage des protéines. Cet échange d’information entre ADN et protéines, qui est le processus basique de la vie, est également le même pour tous les êtres vivants. Il en va de même pour les enzymes, molécules fondamentales pour la catalyse des réactions. L’enzyme triose phosphate isomerase fait le même travail chez l’homme et chez la bactérie E.coli et a des séquences de gènes à 46 % identique chez ces deux êtres vivants, distants en termes d’évolution de milliards d’années. L’histone est une protéine qui n’a changé que de 1% si on compare celle des vaches à celle de petits pois, soit en 1,2 milliards d’années d’évolution.

Dans sa conférence inaugurale de l’ « Université de tous les savoirs » organisée à l’occasion de l’entrée dans l’an 2000, François Jacob déclarait : « une surprise a été de découvrir à quel point les molécules sont conservées au cours de l’évolution. Pas seulement les protéines de structure comme les hémoglobines, pas seulement les enzymes comme la pepsine mais aussi les protéines de régulation qui dirigent par exemple le développement de l’embryon et déterminent la forme de l’animal. »

Toutes les espèces vivantes, aussi apparemment diverses dans leur morphologie, leur fonctionnement et leur mode de vie, ont la même origine et ne sont que des produits de divers changements d’une même forme d’organisation de la matière, la vie. Toutes les structures biochimiques de base sont presque les mêmes pour les êtres vivants, tout juste bricolées différemment et ce qui est justement une modification du mode d’organisation. Comme le disait François Jacob dans sa conférence : « ce qui distingue un papillon d’un lion, une poule d’une mouche, c’est moins une différence dans les constituants chimiques que dans l’organisation et la distribution de ces constituants. Ce qui les rend différents c’est plus un changement dans le temps d’expression et dans la quantité relative des différents produits des gènes au cours du développement de l’embryon que les petites différences observées dans la structure de ces produits. »

Puisque chimiquement les constituants de la génétique sont très proches d’une espèce à une autre et sont interchangeables, d’où vient donc la prodigieuse diversité morphologique et physiologique du vivant ? Si l’animal qui vole a des ailes, ce n’est pas parce qu’il a des gènes d’aile alors que nous aurions des gènes de patte. La raison en est simple : ces gènes sont les mêmes. Le caractère historique de la vie sera donc à chercher ailleurs, dans le type de dynamique du vivant. On va désormais chercher cette différenciation plutôt dans le fonctionnement des gènes entre eux que dans le déchiffrage du génome, et c’est là un changement considérable de perspective. Ce qui fait de nous un mammifère plutôt qu’un insecte ne serait pas tant des différences de matériel génétique que des différences de structuration, c’est-à-dire d’ordre des interconnexions des réactions biochimiques de ces gènes. Dans le processus vivant, il y a en effet une multitude de rétroactions des gènes entre eux. On appelle rétroaction, des réactions successives où les produits de la réaction relancent celle-ci ou, au contraire, la bloquent.

C’est ce phénomène de boucle de rétroaction qui détermine à quel moment dans l’ensemble du processus le gène entrera en action, pendant combien de temps et quel gène il activera ou inhibera ensuite. Ce qui compte pour l’action du gène n’est pas seulement son contenu biochimique mais son expression, c’est-à-dire s’il est activé ou inhibé par la rétroaction d’autres gènes. Et c’est aussi quel gène il active ou inhibe lui aussi.

Le gène ne peut plus être considéré isolément mais comme un élément d’une structure. C’est l’environnement qui dit à un gène quand il doit commencer à produire des protéines et quand il doit s’arrêter. Ce sont des rétroactions entre gènes, via les protéines, qui transmettent l’information. Les protéines ne sont pas simplement des produits passifs des gènes ; elles ont une capacité enzymatique, c’est-à-dire qu’elles sont indispensables à l’accélération de certaines réactions biochimiques précises.

Les gènes n’agissent pas indépendamment, mais de concert avec des gènes maîtres ; on devrait dire des gènes chefs d’orchestre. Mais c’est un curieux concert puisqu’ils ne connaissent pas la symphonie. Ils n’ont pas la partition et même, on peut dire que celle-ci n’est pas écrite par avance. Chaque gène joue un bout musical mais c’est sur place qu’il apprend à quel moment il entre en action. C’est son voisin qui lui dit : « à toi de jouer ». Le moment n’est pas fixe et dépend du désordre des messages entre molécules. La signification de l’action du gène est elle-même définie par les autres gènes en action et pas par un gène seul.

La manière de jouer n’est donc jamais entièrement identique et pourtant ça marche car cela s’ordonne par interaction. C’est au niveau de l’organisation des séries de réactions biochimiques, de leur ordre et de leur rythme, que l’on a été amenés à appeler horloge biochimique, que résiderait la différence essentielle entre les espèces. Et ce ne serait pas un ordre figé, une horloge périodique, mais un ordre émergent dont le cycle est produit à chaque fois par la synchronisation des rythmes issus des réactions biochimiques. C’est un ordre fondé sur le désordre parce que les manières qu’ont les molécules d’entrer en contact puis de se séparer sont multiples et aléatoires.

C’est l’organisation collective spontanée des messages chimiques des cellules entre elles, aussi bien que des rétroactions des gènes entre eux, qui détermine le fonctionnement d’un être vivant. La fabrication d’un individu fonctionne selon le même type de cybernétique des relations biochimiques, mais réalisée au niveau de l’embryon. Elle détermine le type d’individu qui va être produit. Cela signifie que le contenu biochimique du même ADN permet de produire d’autres êtres vivants, à condition de changer la succession des gènes activés, la durée et le moment où ils sont stimulés. Il y a un organigramme des cycles d’interactions des gènes mais cette organisation n’est pas acquise définitivement : elle se construit à chaque fois spontanément sur la base de contacts moléculaires aléatoires. Si elle donne à peu près le même résultat à chaque fois, c’est que des processus sont là pour guider et contraindre ce hasard. Mais pourquoi parler de hasard dans le fonctionnement génétique ? Il semble pourtant que l’ADN ne doive rien au hasard et que, sauf erreur, il se copie identiquement dans le messager (l’ARNm) et détermine ainsi exactement le produit.

Les gènes sont en effet alignés sur le filament d’ADN et leur action se produit dans l’ordre chronologique correspondant à l’ordre où ils se présentent sur le filament. En fait, le mécanisme est différent. Et d’abord, les gènes qui figurent sur le filament n’interviennent pas nécessairement car, pour être actifs, ils doivent être activés par d’autres gènes précédents. Ils ne décident pas eux-mêmes ni de leur mise en activité, ni de son intensité ni de son moment de déclenchement, ni de sa fin. D’autre part, les segments d’ADN ne sont pas en majorité des gènes, c’est-à-dire des producteurs de protéines. La plupart des segments de l’ADN ont d’autres rôles et notamment celui d’activer et de désactiver ces gènes. Cela est très important puisque sinon un gène ne commencerait pas à produire les protéines spécifiques qu’il est censé produire mais aussi qu’une fois activé, il ne s’arrêterait pas d’en produire.

Ce sont les protéines produites par le gène ou d’autres gènes qui vont envoyer ces messages de DEBUT et de FIN au gène. Et, sans la rétroaction de ces protéines, l’ADN serait incapable d’orienter son propre fonctionnement. C’est comme un livre qui n’existerait que s’il est lu et qui s’écrirait au fur et à mesure qu’il est lu, en fonction du lecteur. Or quand on lit une page, on sait que l’œil ne se contente pas de suivre les mots ligne après ligne, mais saute puis revient d’avant en arrière. La lecture de l’ADN n’est pas non plus un phénomène linéaire. Les interactions des gènes passent par une cascade de réactions biochimiques fondées sur les protéines et qui se produisent en grande partie au hasard. Ce n’est pas un programme écrit mais un processus. C’est une histoire dans laquelle le chemin est toujours différent, même si des contraintes permettent que le résultat soit semblable le plus souvent. Il existe des processus servant à éliminer des produits inadéquats qui sont continuellement formés, et pas seulement de manière accidentelle. Cette similitude du résultat, c’est-à-dire de l’individu au sein de l’espèce, ne doit pas laisser croire qu’il s’agit d’un simple mécanisme de copie comme le laisse entendre le terme de reproduction.

La vie n’est pas un mécanisme de photocopie. La diversité du processus par lequel a lieu la reproduction provient de la manière aléatoire dont les protéines se plient et se replient. En effet, la forme qu’elles prennent dans l’espace détermine les molécules auxquelles elles peuvent se lier. Cette thèse consiste donc à dire que la vie est un processus d’agitation qui n’est jamais stabilisé mais qui est fréquemment canalisé par des contraintes de fonctionnement. Le code génétique ne se comporte pas comme une partition musicale, comme un programme génétique qu’il suffit d’appliquer, du type programme informatique. Ou alors ce serait comme une partition avec des bifurcations possibles à chaque groupe de notes dans laquelle on pourrait d’un seul coup passer d’un morceau de Beethoven à du Ravel ou à du Bach ! En fait, contrairement à ce que l’on pensait, l’ADN n’est pas un pilote qui sait d’avance où il va, ni un chef d’orchestre qui décide au coup par coup.

Il n’y a aucun pilotage finaliste c’est-à-dire aucune action en vue d’un but à atteindre fixé. C’est la succession des réactions au hasard qui s’auto-organise. Ce qui amène ce hasard à s’organiser de lui-même, c’est principalement la capacité spontanée des protéines à reconnaître spécifiquement les molécules sur lesquelles elles peuvent se fixer. La fixation est lâche, rapidement dénouée et la protéine peut ainsi changer très vite de contacts, de forme et d’orientation. Le lien est fondé sur la proximité de surface des molécules en trois dimensions. C’est également un contact volumique dans une zone bien précise (de type clef/serrure), qui permet à une enzyme de catalyser la réaction, c’est-à-dire d’en réguler la vitesse. Les différences de vitesse de réaction sont déterminantes car elles règlent l’ensemble de l’évolution temporelle. Le rôle enzymatique des protéines est donc déterminant. Les contacts entre protéines et gènes se font par des liaisons non-covalentes c’est-à-dire peu coûteuses en énergie, par rapport à des réactions chimiques classiques, dites covalentes parce qu’elles nécessitent la mise en commun d’électrons de la couche extérieure de l’atome ou électrons de valence.

Les liaisons qui interviennent en biochimie sont lâches et capables de se dénouer à grande vitesse et facilement. Ce ballet des protéines permet au fonctionnement de la vie d’être efficace, précis et rapide. C’est de l’épigénétique plus que de la génétique, car la reconnaissance des formes et les contacts de surface sont plus importants que les substrats chimiques. C’est donc le fonctionnement génétique d’ensemble plus que la composition chimique des gènes, qui changerait d’une espèce à une autre. Du coup, le passage apparemment infranchissable entre les espèces ne le serait plus, puisque c’est presque à partir du même matériel biochimique que l’on passerait d’un animal à un autre. Il suffit qu’un phénomène brutal fasse sauter le verrou qui empêche la diversité de s’exprimer. Si l’évolution est un changement de l’ordre hiérarchique de l’action des gènes au moment de la fabrication de l’individu, il suffit d’un ou deux changements sur un gène régulateur du développement pour causer une modification morphologique radicale. En effet, un gène régulateur pilote une quantité d’autres gènes et du coup peut produire des modifications d’espèces.

En temps normal, cette variation ne se produit pas car elle est inhibée par des protéines de protection. C’est seulement en cas de choc que ce garde-fou est levé, ouvrant la voie à de multiples variations possibles de l’expression des gènes. En somme, je suis en train de vous dire qu’un ou deux petits changements d’horloge de la fabrication d’un singe suffisent à produire un homme. C’est effectivement un choc pour nous qui nous croyons toujours si différents, si supérieurs bien sûr ! L’apparente fixité de l’espèce ne serait qu’un gel des potentialités.

La diversité qui existerait toujours au sein du matériel génétique serait seulement gelée momentanément et susceptible d’être réveillée par un réchauffement suffisamment brutal. Ce parallèle avec le processus de gel/réchauffement de l’eau, du passage de l’état solide à l’état liquide n’est pas fait par hasard car il s’agit là aussi d’un saut qualitatif. Une bouffée de biodiversité serait un processus du même type que le changement d’état de la matière inerte, un phénomène critique avec seuil et saut d’un état à un autre. On connaît bien ce type de situations dans lesquelles une petite perturbation peut entraîner un changement d’ordre et qui, pourtant, peuvent perdurer très longtemps pour peu que le processus maintienne les conditions juste en dessous de ce seuil critique. La dialectique hasard/nécessité du vivant serait du même type que la transformation gaz/liquide ou liquide/solide ou encore aimantation/désaimantation.

Ce serait un phénomène du type transition désordre/ordre, ou chaos/antichaos pour reprendre le terme de Stuart Kauffman. Dans de tels phénomènes que l’on appelle critiques, une petite modification d’un facteur peut suffire à entraîner un saut brutal de l’évolution. Cela est dû au fait que lorsque l’on s’approche d’un seuil critique, toutes les échelles où se produit le phénomène interagissent et causent un saut qualitatif, une modification de structure à grande échelle. Cependant les structures de la vie se maintiennent malgré les fluctuations du milieu intérieur et extérieur. On a montré en effet que, dans les phénomènes critiques, la rapidité de la transmission de l’information est le critère de la conservation des structures. Une structure peut être durable si elle est capable de se transformer pour s’adapter à l’agitation de l’environnement.

Cela explique que le fonctionnement obéisse fréquemment à des structures fractales qui sont très rapides en termes de communication de l’information. Je rappelle qu’une fractale est une structure qui existe à plusieurs échelles et qui est similaire aux divers niveaux où on la rencontre. On la trouve souvent dans la nature car c’est la structure qui réalise la plus grande surface dans un volume fixé. Cette remarque peut se généraliser en disant que c’est la structure qui permet de satisfaire une contrainte à une échelle, et le maximum de souplesse à une autre.

La formation de telles structures est donc favorisée spontanément sans qu’il soit nécessaire d’en indiquer la commande et la forme par avance. Ces structures maintiennent leur forme globale jusqu’à ce que les fluctuations franchissent un seuil où le changement a lieu brutalement. L’auto-organisation signifie que le chaos est capable d’augmenter de niveau de structuration, en fondant des groupes et des associations ou des groupes de groupes et ainsi de suite et cela spontanément, c’est-à-dire sans action extérieure. Des processus au hasard s’ordonnent d’eux-mêmes, se hiérarchisent, constituent des organigrammes stables ou, du moins, durables. Des fonctions nouvelles, des organes nouveaux peuvent apparaître, des êtres vivants peuvent coopérer, s’associer, créer des co-évolutions, sans qu’il y ait besoin d’un donneur d’ordre ni d’une finalité qui pousse et oriente cette évolution.

La coopération touche tous les niveaux du vivant depuis les coopérations entre espèces jusqu’aux coopérations entre cellules. Ainsi la formation de la cellule eucaryote avec un noyau cellulaire est issue de la coopération entre deux cellules, de même que la formation des mitochondries et des chloroplastes qui sont des organes spécialisés de la cellule ont été le produit de l’introduction d’êtres vivants au sein de celle-ci.

Inversement, la spécialisation est également un mécanisme interne du vivant. C’est une vision très différente de celle qui était diffusée encore récemment. Le réductionnisme génétique précédent considérait que les gènes nous déterminent complètement, au point que certains courants poussant jusqu’au bout la thèse des néo-darwiniens, comme la sociobiologie, ont été jusqu’à chercher dans les gènes l’explication des phénomènes sociaux et y ont trouvé une justification du racisme ou de l’inégalité sociale. Ils se sont servis des notions de « lutte pour la vie » et de « maintien des plus aptes », de celle de progrès de l’évolution, pour expliquer que les plus pauvres sont les moins aptes et les racistes pour prétendre que l’homme noir serait plus proche du primate alors que l’homme blanc serait l’aboutissement de l’évolution !

A l’inverse, la théorie du chaos s’oppose à la notion de supériorité entre les étapes de l’évolution car elle contredit que l’évolution obéisse à un progrès. Elle souligne que la diversité existe de manière potentielle au sein du matériel génétique et montre l’importance des processus et de l’histoire par rapport à la seule composition chimique des molécules.

Quels déterminismes, quels indéterminismes ?

Depuis la célèbre fiction forgée par Laplace en 1814 dans ses Essai philosophique sur les probabilités – dite du démon de Laplace, abondamment commentée dans ce Matière première –, qui voit une intelligence infinie calculer selon certaines lois tous les états du monde, le déterminisme est un cadre central de la connaissance scientifique. Pourtant, de nombreux débats parcourent cette idée. Existe-t-il un seul paradigme déterministe, dont les modifications seraient en fait des variantes, ou faut-il pluraliser les déterminismes selon les sciences (biologiques, historiques et sociales, etc.) et les positionnements philosophiques ?

Face aux limites des modèles déterministes et du cadre laplacien, qu’il s’agisse de mécanique classique, de mécanique quantique, de biologie, des sciences humaines ou de philosophie, doit-on accepter l’écart entre l’horizon de notre connaissance et sa mise en pratique, éventuellement en nuançant l’idéal laplacien, ou faut-il au contraire tenter de dépasser tout paradigme déterministe ? Tombe-t-on alors nécessairement dans l’indéterminisme ontologique, comme on l’a souvent affirmé précipitamment ? Enfin, philosophiquement, quelles sont les implications d’un déterminisme conséquent, en particulier sur le plan moral ?

Le déterminisme est la théorie selon laquelle toute action humaine est entièrement due à des événements précédents, et non par l’exercice de la volonté. En philosophie, la théorie est basée sur le principe métaphysique que d’un événement sans cause est impossible. Le succès de scientifiques à découvrir les causes de certains comportements et dans certains cas, effectuer son contrôle tend à soutenir ce principe.

Il y a désaccord sur la formulation adéquate du déterminisme - centrale en cause la philosophie qui ne cesse d’être controversée. Un déterminisme physique, qui a son origine dans l’atomisme de Démocrite et Lucrèce, est la théorie que l’interaction humaine peut être réduite à des relations entre la diversité biologique, entités chimiques ou physiques, ce qui est fondamental pour la formulation moderne sociobiologie et de la neuropsychologie. Le déterminisme historique de Karl Marx, d’autre part, est transpersonnelle et surtout économique. Contrairement à ces deux formulations, le déterminisme psychologique - les fondements philosophiques de la psychanalyse - est la théorie que les objectifs, les besoins et désirs des individus sont au cœur de l’explication du comportement humain. Le comportement récent de déterminisme BF Skinner est une modification de ce point de vue, en ce que Skinner réduit tous les états psychologiques internes de comportement observable publiquement. Son stimulus - réponse compte moderne utilise également des analyses statistiques et probabilistes de la causalité.
Jean Paul Sartre et d’autres philosophes contemporains ont fait valoir que le déterminisme est contestée par l’introspection, qui révèle les actions à la suite de nos propres choix et non nécessitées par les événements antérieurs ou des facteurs externes. Déterministes répondre que de telles expériences de la liberté sont des illusions et que l’introspection est une méthode peu fiable et non scientifique pour comprendre le comportement humain.

Ce point de vue a été modifié dans la communauté scientifique, cependant, avec l’énonciation du principe d’incertitude par le physicien Werner Heisenberg. Ramifications de son travail en mécanique quantique conduit Heisenberg d’affirmer que le scientifique, autant d’un participant en tant qu’observateur, interfère avec la nature même de la neutralité et l’objet en question. Son travail est également question de savoir si il est possible de déterminer un cadre objectif à travers lequel on peut distinguer la cause de l’effet, et si on peut connaître un effet objectif si l’on est toujours une partie de sa cause.
Déterminisme est parfois confondue avec la prédestination et le fatalisme, mais en tant que tel, il affirme que ni les affaires humaines ont été arrangés par un être hors de l’ordre de causalité, ni qu’une personne a un destin inévitable.

Dans la discussion philosophique, la volonté est habituellement associé à la raison comme l’une des deux activités complémentaires de l’esprit. La volonté est considérée comme la faculté de choix et de décision, alors que la raison en est que de délibération et d’argumentation. Ainsi, un acte rationnel serait un exercice de la volonté effectuée après délibération.

La volonté a figuré en bonne place dans la pensée de nombreux philosophes, parmi lesquels le 19e siècle penseurs Arthur Schopenhauer et Friedrich Wilhelm Nietzsche. Historiquement, le débat a porté sur la question de la volonté de liberté, une question de première importance pour l’analyse de l’action humaine et la responsabilité morale.

Les philosophes ont souvent pensé que les personnes ne sont responsables que pour les actions qu’ils ont la possibilité soit de faire ou de ne pas faire ou de vouloir ou de ne pas vouloir. Si tous les actes, y compris les actes de la volonté, sont prédéterminés, alors cette option ne semble pas exister.

Dans la philosophie de l’esprit, la question est de savoir si des raisons dans l’esprit sont identiques avec ou réductibles à des événements dans le cerveau et, le cas échéant, si les événements physiques déterminent les choix, les décisions et les actes. Une grande variété de réponses a été proposé, y compris ceux issus de la psychanalyse freudienne et les différentes formes du behaviorisme. Certains philosophes dans la tradition analytique ont fait valoir que le déterminisme est une question des causes et des décisions d’une question de motivation et que les deux s’excluent mutuellement. La question reste controversée.

Comment Marx et Engels posaient la question

« Ce qu’on affirme nécessaire, écrivait Engels, est composé de purs hasards et le prétendu hasard est la forme sous laquelle se cache la nécessité. La causalité linéaire est suffisante pour des phénomènes simples. Mais cette forme simpliste de détermination ne suffit lorsqu’on se trouve devant des systèmes complexes et sensibles. (...) Le hasard n’est pas la négation de la causalité et du déterminisme ; il est la négation dialectique de la nécessité, expression de la richesse des déterminations des systèmes physiques. »

Extraits de « Sciences et dialectiques de la nature »

« D’après la conception matérialiste de l’histoire, le facteur déterminant dans l’histoire est, en dernière instance, la production et la reproduction de la vie réelle. Ni Marx, ni moi n’avons jamais affirmé davantage. Si, ensuite, quelqu’un torture cette proposition pour lui faire dire que le facteur économique est le seul déterminant, il la transforme en une phrase vide, abstraite, absurde. La situation économique est la base, mais les divers éléments de la superstructure – les formes politiques de la lutte de classes et ses résultats, – les Constitutions établies une fois la bataille gagnée par la classe victorieuse, etc., – les formes juridiques, et même les reflets de toutes ces luttes réelles dans le cerveau des participants, théories politiques, juridiques, philosophiques, conceptions religieuses et leur développement ultérieur en systèmes dogmatiques, exercent également leur action sur le cours des luttes historiques et, dans beaucoup de cas, en déterminent de façon prépondérante la forme. Il y a action et réaction de tous ces facteurs au sein desquels le mouvement économique finit par se frayer son chemin comme une nécessité à travers la foule infinie de hasards (c’est-à-dire de choses et d’événements dont la liaison intime entre eux est si lointaine ou si difficile à démontrer que nous pouvons la considérer comme inexistante et la négliger). Sinon, l’application de la théorie à n’importe quelle période historique serait, ma foi, plus facile que la résolution d’une simple équation du premier degré.
Nous faisons notre histoire nous-mêmes, mais, tout d’abord, avec des prémisses et dans des conditions très déterminées. Entre toutes, ce sont les conditions économiques qui sont finalement déterminantes. Mais les conditions politiques, etc., voire même la tradition qui hante les cerveaux des hommes, jouent également un rôle, bien que non décisif. Ce sont des causes historiques et, en dernière instance, économiques, qui ont formé également l’Etat prussien et qui ont continué à le développer. Mais on pourra difficilement prétendre sans pédanterie que, parmi les nombreux petits Etats de l’Allemagne du Nord, c’était précisément le Brandebourg qui était destiné par la nécessité économique et non par d’autres facteurs encore (avant tout par cette circonstance que, grâce à la possession de la Prusse, le Brandebourg était entraîné dans les affaires polonaises et par elles impliqué dans les relations politiques internationales qui sont décisives également dans la formation de la puissance de la Maison d’Autriche) à devenir la grande puissance où s’est incarnée la différence dans l’économie, dans la langue et aussi, depuis la Réforme, dans la religion entre le Nord et le Sud. On parviendra difficilement à expliquer économiquement, sans se rendre ridicule, l’existence de chaque petit Etat allemand du passé et du présent ou encore l’origine de la mutation consonnantique du haut allemand qui a élargi la ligne de partage géographique constituée par les chaînes de montagnes des Sudètes jusqu’au Taunus, jusqu’à en faire une véritable faille traversant toute l’Allemagne.
Mais, deuxièmement, l’histoire se fait de telle façon que le résultat final se dégage toujours des conflits d’un grand nombre de volontés individuelles, dont chacune à son tour est faite telle qu’elle est par une foule de conditions particulières d’existence ; il y a donc là d’innombrables forces qui se contrecarrent mutuellement, un groupe infini de parallélogrammes de forces, d’où ressort une résultante – l’événement historique – qui peut être regardée elle-même, à son tour, comme le produit d’une force agissant comme un tout, de façon inconsciente et aveugle. Car, ce que veut chaque individu est empêché par chaque autre et ce qui s’en dégage est quelque chose que personne n’a voulu. C’est ainsi que l’histoire jusqu’à nos jours se déroule à la façon d’un processus de la nature et est soumise aussi, en substance, aux mêmes lois de mouvement qu’elle. Mais de ce que les diverses volontés – dont chacune veut ce à quoi la poussent sa constitution physique et les circonstances extérieures, économiques en dernière instance (ou ses propres circonstances personnelles ou les circonstances sociales générales) – n’arrivent pas à ce qu’elles veulent, mais se fondent en une moyenne générale, en une résultante commune, on n’a pas le droit de conclure qu’elles sont égales à zéro. Au contraire, chacune contribue à la résultante et, à ce titre, est incluse en elle. Je voudrais, en outre, vous prier d’étudier cette théorie aux sources originales et non point de seconde main, c’est vraiment beaucoup plus facile. Marx a rarement écrit quelque chose où elle ne joue son rôle. Mais, en particulier, Le 18 Brumaire de Louis Bonaparte est un exemple tout à fait excellent de son application. Dans Le Capital, on y renvoie souvent. Ensuite, je me permets de vous renvoyer également à mes ouvrages Monsieur E. Dühring bouleverse la science et Ludwig Feuerbach et la fin de la philosophie classique allemande, où j’ai donné l’exposé le plus détaillé du matérialisme historique qui existe à ma connaissance. C’est Marx et moi-même, partiellement, qui devons porter la responsabilité du fait que, parfois, les jeunes donnent plus de poids qu’il ne lui est dû au côté économique. Face à nos adversaires, il nous fallait souligner le principe essentiel nié par eux, et alors nous ne trouvions pas toujours le temps, le lieu, ni l’occasion de donner leur place aux autres facteurs qui participent à l’action réciproque. Mais dès qu’il s’agissait de présenter une tranche d’histoire, c’est-à-dire de passer à l’application pratique, la chose changeait et il n’y avait pas d’erreur possible. Mais, malheureusement, il n’arrive que trop fréquemment que l’on croie avoir parfaitement compris une nouvelle théorie et pouvoir la manier sans difficulté, dès qu’on s’en est approprié les principes essentiels, et cela n’est pas toujours exact. Je ne puis tenir quitte de ce reproche plus d’un de nos récents “ marxistes ”, et il faut dire aussi qu’on a fait des choses singulières. »

F. Engels

Lettre à Joseph Bloch

21-22 septembre 1890

« La liberté n’est pas dans une indépendance rêvée à l’égard des lois de la nature, mais dans la connaissance de ces lois et dans la possibilité donnée par là même de les mettre en oeuvre méthodiquement pour des fins déterminées. Cela est vrai aussi bien des lois de la nature extérieure que de celles qui régissent l’existence physique et psychique de l’homme lui-même, - deux classes de lois que nous pouvons séparer tout au plus dans la représentation, mais non dans la réalité. La liberté de la volonté ne signifie donc pas autre chose que la faculté de décider en connaissance de cause. Donc, plus le jugement d’un homme est libre sur une question déterminée, plus grande est la nécessité qui détermine la teneur de ce jugement ; tandis que l’incertitude reposant sur l’ignorance, qui choisit en apparence arbitrairement entre de nombreuses possibilités de décision diverses et contradictoires, ne manifeste précisément par là que sa non-liberté, sa soumission à l’objet qu’elle devrait justement se soumettre. La liberté consiste par conséquent dans l’empire sur nous-même et sur la nature extérieure, fondé sur la connaissance des nécessités naturelles ; ainsi, elle est nécessairement un produit du développement historique. Les premiers hommes qui se séparèrent du règne animal, étaient, en tout point essentiel, aussi peu libres que les animaux eux-mêmes ; mais tout progrès de la civilisation était un pas vers la liberté. Au seuil de l’histoire de l’humanité il y a la découverte de la transformation du mouvement mécanique en chaleur : la production du feu par frottement ; au terme de l’évolution qui nous a conduits jusqu’aujourd’hui, il y a découverte de la transformation de la chaleur en mouvement mécanique : la machine à vapeur. - Et malgré la gigantesque révolution libératrice que la machine à vapeur accomplit dans le monde social (elle n’est pas encore à moitié achevée) il est pourtant indubitable que le feu par frottement la dépasse encore en efficacité libératrice universelle. Car le feu par frottement a donné à l’homme pour la première fois l’empire sur une force de la nature et, en cela, l’a séparé définitivement du règne animal. La machine à vapeur ne réalisera jamais un bond aussi puissant dans l’évolution de l’humanité malgré tout le prix qu’elle prend à nos yeux comme représentante de toutes ces puissantes forces de production qui en découlent, ces forces qui permettent seules un état social où il n’y aura plus de différences de classes, plus de souci des moyens d’existence individuels, et où il pourra être question pour la première fois d’une liberté humaine véritable, d’une existence en harmonie avec les lois connues de la nature. Mais à quel point toute l’histoire de l’humanité est encore jeune et combien il serait ridicule d’attribuer quelque valeur absolue à nos conceptions actuelles, cela ressort du simple fait que toute l’histoire passée peut se caractériser comme l’histoire de la période qui va de la découverte pratique de la transformation du mouvement mécanique en chaleur à celle de la transformation de la chaleur en mouvement mécanique. »

F. Engels dans L’Anti-Dühring

« Selon la conception matérialiste, le facteur déterminant, en dernier ressort, dans l’histoire, c’est la production et la reproduction de la vie immédiate. Mais, à son tour, cette production a une double nature. D’une part, la production de moyens d’existence, d’objets servant à la nourriture, à l’habillement, au logement, et des outils qu’ils nécessitent ; d’autre part, la production des hommes mêmes, la propagation de l’espèce. Les institutions sociales sous lesquelles vivent les hommes d’une certaine époque historique et d’un certain pays sont déterminées par ces deux sortes de production : par le stade de développement où se trouvent d’une part le travail, et d’autre part la famille. Moins le travail est développé, moins est grande la masse de ses produits et, par conséquent, la richesse de la société, plus aussi l’influence prédominante des liens du sang semble dominer l’ordre social. Mais, dans le cadre de cette structure sociale basée sur les liens du sang, la productivité du travail se développe de plus en plus et, avec elle, là propriété privée et l’échange, l’inégalité des richesses, la possibilité d’utiliser la force de travail d’autrui et, du même coup, la base des oppositions de classes : autant d’éléments sociaux nouveaux qui s’efforcent, au cours des générations, d’adapter la vieille organisation sociale aux circonstances nouvelles, jusqu’à ce que l’incompatibilité de l’une et des autres amène un complet bouleversement. La vieille société basée sur les liens du sang éclate par suite de la collision des classes sociales nouvellement développées : une société nouvelle prend sa place, organisée dans l’État, dont les subdivisions ne sont plus constituées Par des associations basées sur les liens du sang, mais par des groupements territoriaux, une société où le régime de la famille est complètement dominé par le régime de la propriété, où désormais se développent librement les oppositions de classes et les luttes de classes qui forment le contenu de toute l’histoire écrite, jusqu’à nos jours. »

F. Engels dans L’origine de la famille, de la propriété privée et de l’Etat

Qu’est-ce que le déterminisme pour la science actuelle ?

Le déterminisme, relation dialectique entre hasard et nécessité

Déterminisme et chaos

Déterminisme et théorie quantique

Déterminisme et hasard

La question du déterminisme

La théorie du chaos déterministe

Causalité et déterminisme

Chaos classique et quantique

Messages

  • « Le déterminisme historique ne se manifeste jamais avec autant de force qu’en période révolutionnaire ; celle-ci, en effet, met à nu les rapports de classes et porte les problèmes et les contradictions à leur plus haut degré d’acuité. En de telles périodes, la lutte des idées devient l’arme la plus directe des classes ennemies ou des fractions d’une seule et même classe. C’est précisément ce caractère qu’a revêtu, dans la Révolution russe, la lutte contre le trotskysme ». Le lien qui relie des raisonnements parfois essentiellement scolastiques aux intérêts matériels de certaines classes ou couches sociales est apparu, en l’espèce, tellement évident, qu’un jour viendra où cette expérience historique fera l’objet d’un chapitre spécial dans les manuels scolaires du matérialisme historique. »

    Léon Trotsky, La révolution défigurée

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.