English German Espagnol Portugese Chinese Japanese Arab Rusian Italian Norvegian Dutch Hebrew Polish Turkish Hindi
Accueil du site > 01 - Livre Un : PHILOSOPHIE > LIVRE UN - Chapitre 07 : Des contradictions dynamiques > L’auto-organisation ou l’ordre spontanément issu du désordre

L’auto-organisation ou l’ordre spontanément issu du désordre

dimanche 21 février 2010, par Robert Paris, Tiekoura Levi Hamed

Les philosophes et les scientifiques ont longtemps cherché un ordre au-delà de l’apparent désordre. Du coup, ils ont isolé des éléments ordonnés comme l’atome, la cellule, d’ADN, l’Etat et ont cherché à en faire le principe de base fondamental. Aujourd’hui, une image nouvelle apparaît dans tous les domaines. Il ne s’agit plus d’un ordre sous-jacent mais d’un désordre d’un type particulier. Il n’est pas indéterministe et il est capable de produire à une certaine échelle un ordre.

"On a montré, in vitro, que des neurones isolés de calamar géant ou des petits réseaux isolés de cochon d’inde ou de certains crustacés présentent une dynamique chaotique. (...) Henri Korn et Philippe Faure ont confirmé l’existence (du chaos déterministe) en étudiant l’activité synaptique de neurones de poissons. (...) Même si l’activité des neurones isolés est chaotique, la dynamique du champ moyen peut être régulière : le chaos au niveau neuronal n’implique pas le chaos à grande échelle. Ainsi, le comportement dynamique du cerveau résulte d’une dynamique interne riche, complexe et à plusieurs échelles."

Hughes Berry et Bruno Cessac

dans "Du chaos dans les neurones"

Métamorphoses constructives et destructives de la neige

Radiographie enregistrée lors de la croissance de dendrites colonnaires.(alliage : Al – 3,5 % pds Ni ; G = 7 K/cm ; V = 40 µm/s) Expérience réalisée à l’ESRF (European Synchrotron Radiation Facility) Grenoble.

La croissance dendritique

Windows Media Video - 1.4 Mo

Petit film sur l’auto-organisation

Loin de l’équilibre, le film

Structures dissipatives loin de l’équilibre

« Loin de l’équilibre, les processus irréversibles sont source de cohérence. L’apparition de cette activité cohérente de la matière – des « structures dissipatives » - nous impose un nouveau regard, une nouvelle manière de nous situer par rapport au système que nous définissons et manipulons. Alors qu’à l’équilibre et près de l’équilibre, le comportement du système est, pour des temps suffisamment longs, entièrement déterminé par les conditions aux limites, nous devrons désormais lui reconnaître une certaine autonomie qui permet de parler des structures loin de l’équilibre comme de phénomènes d’ « auto-organisation ». (…) Un système physico-chimique peut donc devenir sensible, loin de l’équilibre, à des facteurs négligeables près de l’équilibre. (…) La notion de « sensibilité » lie ce que les physiciens avaient l’habitude de séparer : la définition du système et son activité. (…) C’est l’activité intrinsèque du système qui détermine comment nous devons décrire son rapport à l’environnement, qui engendre donc le type d’intelligibilité qui sera pertinente pour comprendre ses histoires possibles. (…) On retrouve la notion de sensibilité associée à celle d’instabilité, puisqu’il s’agit, dans ce cas, de la sensibilité du système à lui-même, aux fluctuations de sa propre activité. (…) Nous pouvons décrire un système à l’équilibre à partir des seules valeurs moyennes des grandeurs qui le caractérisent, parce que l’état d’équilibre est stable par rapport aux incessantes fluctuations qui perturbent ces valeurs, parce que ces fluctuations sont vouées à la régression. (…) Le fait que tel ou tel événement puisse « prendre sens », cesser d’être un simple bruit dans le tumulte insensé de l’activité microscopique, introduit en physique cet élément narratif dont nous avons dit qu’il était indispensable à une véritable conception de l’évolution. (…) ces questions ne renvoient ne renvoient pas à une ignorance contingente et surmontable, mais définissent la singularité des points de bifurcation. En ces points, le comportement du système devient instable et peut évoluer vers plusieurs régimes de fonctionnement stables. En de tels points, une « meilleure connaissance » ne nous permettrait pas de déduire ce qui arrivera, de substituer la certitude aux probabilités. (…) La physique des phénomènes loin de l’équilibre a démontré le rôle constructif des phénomènes irréversibles. Nous pouvons désormais affirmer que le message de l’entropie n’a pas pour objet les limites de nos connaissances, ou des impératifs pratiques. (…) Il définit les contraintes intrinsèques à partir desquelles se renouvellent le sens et la portée des questions que ce monde nous autorise à poser. (…) Nous avons surtout souligné les dimensions négatives du chaos dynamique, la nécessité qu’il implique d’abandonner les notions de trajectoire et de déterminisme. Mais l’étude des systèmes chaotiques est également une ouverture ; elle crée la nécessité de construire de nouveaux concepts, de nouveaux langages théoriques. Le langage classique de la dynamique implique les notions de points et de trajectoires, et, jusqu’à présent, nous-mêmes y avons eu recours alors même que nous montrions l’idéalisation – dans ce cas illégitime – dont elles procèdent. Le problème est maintenant de transformer ce langage, de sorte qu’il intègre de manière rigoureuse et cohérente les contraintes que nous venons de reconnaître. Il ne suffit pas, en effet, d’exprimer le caractère fini de la définition d’un système dynamique en décrivant l’état initial de ce système par une région de l’espace des phases, et non par un point. Car une telle région, soumise à l’évolution que définit la dynamique classique, aura beau se fragmenter au cours du temps, elle conservera son volume dans l’espace des phases. C’est ce qu’exprime un théorème général de la dynamique, le théorème de Liouville. Toutes les tentatives de construire une fonction entropie, décrivant l’évolution d’un ensemble de trajectoires dans l’espace des phases, se sont heurtées au théorème de Liouville, au fait que l’évolution d’un tel ensemble ne peut être décrite par une fonction qui croîtrait au cours du temps. Or, un argument simple permet de montrer l’incompatibilité, dans le cas d’un système chaotique, entre le théorème de Liouville et la contrainte selon laquelle toute description définit le « pouvoir de résolution » de nos descriptions ; il existera toujours une distance r telle que nous ne pourrons faire de différence entre des points plus proches l’un de l’autre (…) La nouvelle description des systèmes dynamiques chaotiques substitue au point un ensemble correspondant à un fragment de fibre contractante. Il s’agit d’une description non locale, qui tient compte de la contrainte d’indiscernabilité que nous avons définie. Mais cette description n’est pas relative à notre ignorance. Elle donne un sens intrinsèque au caractère fini de nos descriptions : dans le cas où le système n’est pas chaotique, où l’exposant de Lyapounov est de valeur nulle, nous retrouvons la représentation classique, ponctuelle, et les limites mises à la précision de nos mesures n’affectent plus la représentation du système dynamique. Cette nouvelle représentation brise également la symétrie temporelle. (…) Là où une seule équation d’évolution permettait de calculer l’évolution vers le passé ou vers le futur de points eux-mêmes indifférents à cette distinction, nous avons maintenant deux équations d’évolution différentes. L’une décrirait l’évolution d’un système vers un équilibre situé dans le futur, l’autre décrirait l’évolution d’un système vers un équilibre situé dans le passé. L’un des grands problèmes de l’interprétation probabiliste de l’évolution vers l’équilibre était que la représentation probabiliste ne donne pas sens à la distinction entre passé et futur. (…) La nouvelle description dynamique que nous avons construite incorpore, en revanche, la flèche du temps (…) Les comportements dynamiques chaotiques permettent de construire ce pont, que Boltzmann n’avait pu créer, entre la dynamique et le monde des processus irréversibles. La nouvelle représentation de l’objet dynamique, non locale et à symétrie temporelle brisée, n’est pas une description approximative, plus pauvre que la représentation classique. Elle définit au contraire cette représentation classique comme relative à un cas particulier. (…) Nous savons aujourd’hui que ces derniers (les systèmes non-chaotiques), qui dominèrent si longtemps l’imagination des physiciens, forment en fait une classe très particulière. (…) C’est en 1892, avec la découverte d’un théorème fondamental par Poincaré ( la loi des trois corps), que se brisa l’image homogène du comportement dynamique : la plupart des systèmes dynamiques, à commencer par le simple système « à trois corps » ne sont pas intégrables. Comment comprendre cet énoncé ? Depuis les travaux de Hamilton, on sait qu’un même système dynamique peut être représenté de différentes manières équivalentes par une transformation dite canonique (ou unitaire) (…) L’hamiltonien du système est la grandeur qui détermine son évolution temporelle. Parmi toutes les transformations unitaires, il en existe une qui permet d’aboutir à une représentation privilégiée du système. C’est celle qui fait de l’énergie, c’est-à-dire de l’hamiltonien, une fonction des seuls moments, et non plus des positions. Dans une telle représentation, les mouvements des différentes particules du système sont décrits comme s’ils ne dépendaient plus des positions relatives des particules, c’est-à-dire comme si elles n’étaient plus en interaction. (…) Les mouvements possibles de tels systèmes ont donc la simplicité des mouvements libres. (…) Or, en 1892, Poincaré montra qu’en général il est impossible de définir la transformation unitaire qui ferait des « actions » des invariants du système. La plupart des systèmes dynamiques n’admettent pas d’invariants en dehors de l’énergie et de la quantité de mouvement, et dès lors ne sont pas intégrables. La raison de l’impossibilité de définir les invariants du mouvement qui correspondent à la représentation d’un système dynamique intégrable tient à un mécanisme de résonance. (…) Le mécanisme de résonance peut être caractérisé comme un transfert d’énergie entre deux mouvements périodiques couplés dont les fréquences sont entre elles dans un rapport simple. Ce sont ces phénomènes de résonance – mais, cette fois, entre les différents degrés de liberté qui caractérisent un même système dynamique – qui empêchent que ce système soit mis sous une forme intégrable. La résonance la plus simple entre les fréquences se produit quand ces fréquences sont égales, mais elle se produit aussi à chaque fois que les fréquences sont commensurables, c’est-à-dire chaque fois qu’elles ont entre elles un rapport rationnel. Le problème se complique du fait que de manière générale les fréquences ne sont pas constantes. (…) Ce qui fait que, dans l’espace des phases d’un système dynamique, il y aura des points caractérisés par une résonance, alors que d’autres ne le seront pas. L’existence des points de résonance interdit en général la représentation en termes de variables cycliques, c’est-à-dire une décomposition du mouvement en mouvements périodiques indépendants. Les points de résonance, c’est-à-dire les points auxquels les fréquences ont entre elles un rapport rationnel, sont rares, comme sont rares les nombres rationnels par rapport aux nombres irrationnels. Dès lors, presque partout dans l’espace des phases, nous aurons des comportements périodiques de type habituel. Néanmoins, les points de résonance existent dans tout le volume fini de l’espace des phases. D’où le caractère effroyablement compliqué de l’image des systèmes dynamiques telle qu’elle nous a été révélée par la dynamique moderne initiée par Poincaré et poursuivie par les travaux de Kolmogoroff, Arnold et Moser. Si les systèmes dynamiques étaient intégrables, la dynamique ne pourrait nous livrer qu’une image statique du monde, image dont le mouvement du pendule ou de la planète sur sa trajectoire képlérienne constituerait le prototype. Cependant l’existence des résonances dans les systèmes dynamiques à plus de deux corps ne suffit pas pour transformer cette image et la rendre cohérente avec les processus évolutifs étudiés précédemment. Lorsque le volume reste petit, ce sont toujours les comportements périodiques qui dominent. (…) Cependant, pour les grands systèmes, la situation s’inverse. Les résonances s’accumulent dans l’espace des phases, elles se produisent désormais non plus en tout point rationnel, mais en tout point réel. (…) Dès lors, les comportements non périodiques dominent, comme c’est le cas dans les systèmes chaotiques. (…) Dans le cas d’un système de sphères dures en collision, Sinaï a pu démontrer l’identité entre comportement cinétique et chaotique, et définir la relation entre une grandeur cinétique comme le temps de relaxation (temps moyen entre deux collisions) et le temps de Lyapounov qui caractérise l’horizon temporel des systèmes chaotiques. (…) Or, l’atome en interaction avec son champ constitue un « grand système quantique » auquel, nous l’avons démontré, le théorème de Poincaré peut être étendu. (…) La « catastrophe » de Poincaré se répète dans ce cas : contrairement à ce que présupposait la représentation quantique usuelle, les systèmes caractérisés par l’existence de telles résonances ne peuvent être décrits en termes de superposition de fonctions propres de l’opérateur hamiltonien, c’est-à-dire d’invariants du mouvement. Les systèmes quantiques caractérisés par des temps de vie moyens, ou par des comportements correspondants à des « collisions », constituent donc la forme quantique des systèmes dynamiques au comportement chaotique (…) L’abandon du modèle des systèmes intégrables a des conséquences aussi radicales en mécanique quantique qu’en mécanique classique. Dans ce dernier cas, il impliquait l’abandon de la notion de point et de loi d’évolution réversible qui lui correspond. Dans le second, il implique l’abandon de la fonction d’onde et de son évolution réversible dans l’espace de Hilbert. Dans les deux cas, cet abandon a la même signification : il nous permet de déchiffrer le message de l’entropie. (…) La collision, transfert de quantité de mouvement et d’énergie cinétique entre deux particules, constitue, du point de vue dynamique, un exemple de résonance. Or, c’est l’existence des points de résonance qui, on le sait depuis Poincaré, empêche de définir la plupart des systèmes dynamiques comme intégrables. La théorie cinétique, qui correspond au cas d’un grand système dynamique ayant des points de résonance « presque partout » dans l’espace des phases , marque donc la transformation de la notion de résonance : celle-ci cesse d’être un obstacle à la description en termes de trajectoires déterministes et prédictibles, pour devenir un nouveau principe de description, intrinsèquement irréversible et probabiliste. C’est cette notion de résonance que nous avons retrouvée au cœur de la mécanique quantique, puisque c’est elle qu’utilisa Dirac pour expliquer les événements qui ouvrent un accès expérimental à l’atome, l’émission et l’absorption de photons d’énergie spécifique, dont le spectre constitue la véritable signature de chaque type d’atome. (…) Le temps de vie, qui caractérise de manière intrinsèque un niveau excité, dépend, dans le formalisme actuel de la mécanique quantique, d’une approximation et perd son sens si le calcul est poussé plus loin. Dès lors, la mécanique quantique a dû reconnaître l’événement sans pouvoir lui donner de sens objectif. C’est pourquoi elle a pu paraître mettre en question la réalité même du monde observable qu’elle devait rendre intelligible. (…) Pour expliquer les transitions électroniques spontanées qui confèrent à tout état excité un temps de vie fini, Dirac avait dû faire l’hypothèse d’un champ induit par l’atome et entrant en résonance avec lui. Le système fini que représente l’atome isolé n’est donc qu’une abstraction. L’atome en interaction avec son champ est, lui, un « grand système quantique », et c’est à son niveau que se produit la « catastrophe de Poincaré ». L’atome en interaction avec le champ qu’il induit ne constitue pas, en effet, un système intégrable et ne peut donc pas plus être représenté par l’évolution de fonction d’onde qu’un système classique caractérisé par des points de résonance ne peut être caractérisé par une trajectoire. C’est là la faille que recélait l’édifice impressionnant de la mécanique quantique. (…) Il est significatif que, partout, nous ayons rencontré la notion de « brisement de symétrie ». Cette notion implique une référence apparemment indépassable à la symétrie affirmée par les lois fondamentales qui constituent l’héritage de la physique. Et, en effet, dans un premier temps, ce sont ces lois qui ont guidé notre recherche. (…) La description à symétrie temporelle brisée permet de comprendre la symétrie elle-même comme relative à la particularité des objets autrefois privilégiés par la physique, c’est-à-dire de situer leur particularité au sein d’une théorie plus générale. »

Extrait de « Le temps et l’éternité » d’Ilya Prigogine et Isabelle Stengers

Site : Matière et révolution

Contribution au débat sur la philosophie dialectique

du mode de formation et de transformation

de la matière, de la vie, de l’homme et de la société

www.matierevolution.fr

Sommaire du site

Pourquoi ce site ?

Pour nous écrire, cliquez sur Répondre à cet article


Le terme d’auto-organisation désigne l’émergence spontanée et dynamique d’une structure spatiale, d’un rythme ou d’une structure spatiotemporelle (se développant dans l’espace et le temps) sous l’effet conjoint d’un apport extérieur d’énergie et des interactions à l’oeuvre entre les éléments du système considéré. De nombreux exemples biologiques répondent à cette définition. Le plus emblématique est l’établissement du fuseau mitotique, structure transitoire qui réalise la ségrégation des chromosomes lors de la division cellulaire. Il a été montré que ce fuseau, ancré sur les parois de la cellule-mère, est un assemblage dynamique de filaments, les microtubules, et de moteurs moléculaires (protéines capables de se mouvoir et d’exercer des forces sur ces filaments). Les exemples abondent aussi aux échelles supérieures : développement de colonies de bactéries, variation périodique des populations dans un système prédateur-proie, déplacement cohérent d’un banc de poissons, fourmilières. La notion n’est pas spécifique au vivant : elle s’applique à la synchronisation d’oscillateurs couplés, aux ondes observées dans certains systèmes chimiques alimentés en continu, à l’apparition de motifs périodiques dans un liquide chauffé par le dessous (cellules de convection), à la formation des dunes, des rivages, ou même des galaxies.

Genèse de la notion d’auto-organisation Cette notion est apparue au milieu du XXčme siècle, à la croisée des mathématiques et de l’informatique, avec les travaux de J. Von Neumann sur les automates cellulaires (modèles numériques discrets où l’état d’une cellule évolue en fonction de l’état des voisines), et ceux de N. Wiener, fondant la cybernétique (étude en parallèle de l’organisation, des mécanismes de contrôle et de la communication dans les systèmes vivants et artificiels). Suivirent un article fondateur d’A. Turing (1952) sur la morphogenèse (conception de modèles où le couplage de réactions chimiques et de la diffusion des réactifs produit des motifs en bandes) et les travaux d’I.Prigogine sur les structures dissipatives (structures stationnaires hors d’équilibre où la dissipation d’énergie entretient une organisation locale). Toutes ces études soulignèrent l’importance des rétroactions, des non linéarités et du caractère ouvert et hors d’équilibre des systèmes pour qu’il y apparaisse des formes stables et reproductibles sans plan d’ensemble ni prescription extérieure. L’essentiel était dit. Les ouvrages ultérieurs d’H. Von Foerster (1962), d’H. Haken (1977) et de H. Atlan (1979) achevèrent d’établir et de populariser la notion d’auto organisation. Les recherches portent aujourd’hui sur sa mise en évidence expérimentale et sur l’élaboration de modèles opératoires, dans différents domaines allant de la biologie à la linguistique, en passant par la physique et les sciences sociales.

Les mécanismes de l’auto-organisation

Le préfixe "auto" souligne qu’il peut apparaître des phénomènes collectifs robustes dans un ensemble d’éléments en interaction, sans qu’il y ait besoin ni d’un chef d’orchestre, ni d’une préparation initiale inhomogène, ni de conditions extérieures biaisant les interactions ou la dynamique individuelle. Le terme central d’"organisation" suggère une apparition d’ordre et renvoie aux notions d’entropie et d’information. Par exemple, une structure spatiale va émerger d’un mélange homogène de composants. En termes techniques, on parle d’une diminution (locale) de l’entropie. Il n’y a en cela nulle violation du second principe de la thermodynamique puisque le système est ouvert : la diminution d’entropie se fait aux dépens d’une consommation d’énergie. Une partie de l’énergie absorbée par les organismes vivants sert ainsi à maintenir leur organisation dynamique. Les structures auto-organisées sont hors d’équilibre, car parcourues de flux de matière et d’énergie. Elles s’évanouissent si on coupe les flux entrants : il est par exemple impossible de figer et d’isoler un fuseau mitotique. Ces structures nous apparaissent stationnaires si les flux entrants compensent les flux sortants. Pour ętre non triviales, elles doivent découler de compétitions entre des tendances contradictoires, par exemple une amplification locale (instabilité) contrebalancée par un mécanisme d’inhibition plus global. Elles manifestent une brisure de la symétrie présente initialement, typiquement amorcée par une fluctuation, amplifiée par les non linéarités et stabilisée par un mécanisme de rétroaction ; cette brisure de symétrie se traduit dans l’apparition de formes ou de rythmes. Les interactions doivent donc être non linéaires mais elles peuvent être ŕ courte portée (i.e. entre éléments voisins) et présenter une composante aléatoire. Du fait de ces principes communs ŕ tous les phénomènes auto organisés, des modèles trčs similaires se rencontrent dans des domaines trčs différents et à des échelles trčs différentes (dynamique des populations et réactions chimiques, par exemple). Une notion parfois confondue avec l’auto-organisation , mais en réalité plus faible, est la relaxation vers un état d’équilibre : lorsque l’énergie des différents états du système (par exemple les différentes conformations d’une protéine) dessine un paysage complexe, le système peut spontanément évoluer vers une situation plus ordonnée, si celle-ci est assez favorable énergétiquement pour compenser le coût entropique de l’ordre (cela correspond pour la protéine ŕ se replier dans une structure bien déterminée). En autorisant le franchissement de barrières énergétiques, le bruit permet une plus large exploration des états possibles, et conduit ŕ des états plus ordonnés, ce qu’on fait lorsqu’on secoue une boîte remplie de billes pour les tasser ou dans la technique métallurgique du recuit.

Enjeux et prolongements de la notion d’auto-organisation Une propriété des structures auto-organisées est d’être très sensibles aux variations des paramètres contrôlant les interactions ; jointe à la sélection naturelle, elle donne une grande capacité d’adaptation. Plus généralement, lorsque les propriétés globales rétroagissent sur les propriétés des éléments, on peut observer une stabilisation spontanée du système dans un état critique (présentant des fluctuations à toutes les échelles d’espace et de temps) : on parle de criticalité auto-organisée. En biologie, des mécanismes d’auto-organisation semblent impliqués dans l’homéostasie, l’établissement de la polarisation cellulaire, les réseaux métaboliques, la différenciation cellulaire et le développement ; la notion d’auto-organisation doit ainsi être coordonnée ŕ celles de signal et de programme génétique, également invoquées pour expliquer ces phénomènes. D’autres applications sont les mouvements de foule, l’évolution des systèmes de villes, l’adaptation des écosystèmes, les structures cognitives où l’auto-organisation rejoint la notion d’apprentissage. L’auto-organisation a ainsi apporté l’idée que des formes stables et statistiquement reproductibles peuvent découler d’un équilibre dynamique, mettant en jeu des règles locales et stochastiques. Il s’agit d’un phénomène essentiellement collectif : les propriétés globales ne peuvent se réduire à celles d’un ou plusieurs éléments isolés ; on rejoint là les notions (encore inachevées) d’émergence et de complexité.

Simon Diner

FORMES et AUTO-ORGANISATION

L’art est essentiellement la création de formes et toute perception de formes peut constituer le départ d’une expérience artistique. Mais la reconnaissance des formes est une opération délicate où interviennent des facteurs objectifs, liés aux facteurs généraux de la perception et de la connaissance, et des facteurs contextuels liés à la culture (conditions socio-historiques, choix philosophiques, représentation du monde). Il en est de même pour les caractères artistiques et esthétiques. Si l’art se définit de manière très générale comme une manifestation d’expression et d’expressivité, assumant un flirt incessant entre art et sémiotique, le rôle essentiel des formes apparaît précisément dans leur fonction de support d’identité et d’expression, et donc de communication .

Ce jeu complexe des formes dans la détermination de l’art explique l’assimilation fréquente des concepts d’art et de forme, comme cela apparaît clairement dans la dénomination d’ « Univers des formes » utilisée dans la dénomination d’une histoire universelle des arts publiée dans la seconde moitié du XX ème siècle. Ou bien encore dans l’écriture par un historien d’art comme Henri Focillon d’un livre intitulé « La vie des formes ». Comme l’a si bien dit le philosophe A.N. Whitehead : « Art is the imposing of a pattern on experience, and our aesthetic enjoyment is recognition of the pattern” ( Dialogues. June 1943).

La notion de forme est si générale et va tellement au delà d’une simple caractérisation d’objets matériels, mais s’étend à la langue, à la musique ou au comportement, que la tentation a été fréquente de lui donner une existence autonome. C’est ainsi que Platon envisageait l’existence de formes séparées de la matière (les fameuses idées), alors qu’Aristote ne l’admettait pas dans sa doctrine hylémorphique. Un débat qui n’en finit plus et qui se trouve au cœur des différentes conceptions de la forme. Ce qui n’est pas sans influence sur les pratiques artistiques, témoin l’art abstrait qui cherche à s’emparer de la forme pure. Les « purs rapports » évoqués par Mondrian.

La forme désigne cet aspect de l’être qui en marque l’identité en lui assurant spécificité et stabilité. Exister, c’est exister en tant qu’un et le même. Il y a là l’expression d’une totalité qui exprime une différentiation spécifique et une résistance au changement. C’est à travers la définition de la forme et sa reconnaissance que se produit la connaissance de l’être. La forme est une modalité d’existence de l’être, ce qui fait qu’une chose est ce qu’elle est. Concept que la scholastique latine désignait par quiddité, tout en introduisant le mot forma, pour rendre les mots grecs idea, eidos, morphe et ritmos. A ce stade linguistique il faudrait adjoindre au mot forme, les termes de figure et de structure (structuralisme), pour équilibrer la diversité anglaise de form, shape et pattern.

La philosophie grecque a montré que la réflexion sur la forme est à la base de deux conceptions du monde.

Une conception où les formes sont données à priori, formes abstraites et transcendantes auxquelles la nature sensible se conforme. C’est la théorie platonicienne des Idées : une idée est ce qui est toujours identique à soi même (stabilité), ce qui est l’unité d’une multiplicité et ce qui est pris comme modèle pour faire une chose ou accomplir une action. Une conception où la diversité de la nature proviendrait de l’assemblage de formes simples données par avance. Une conception atomistique* du monde. La vision atomique et moléculaire du monde ne procède pas autrement aujourd’hui. Elle renforce des positions très répandues en psychologie où l’on pense que la perception a pour objets immédiats des formes élémentaires (Théorie de la Gestalt). Vision commune à celle des catégories de l’entendement de Kant ou à la conception des achétypes inconscients de Jung. La conception atomistique domine jusqu’à présent le champ de la biologie moléculaire.

Une autre conception pense que la forme est en puissance dans la matière et s’actualise par la matière sans que l’on puisse séparer la matière de la forme. La forme est un tout qui actualise la matière en s’actualisant. C’est là l’esprit de la doctrine hylémorphique d’Aristote, qui donne naissance à une conception où la matière et le mouvement se conjuguent pour créer la forme. La forme est alors un Tout qui transcende la matière et ne résulte pas de la simple addition des propriétés de ses parties. Une propriété émergente.

Une transcendance qui hante l’histoire de la philosophie naturelle dans l’esprit d’un néo-aristotélisme. Leibniz, Goethe, Schelling, Husserl, D’Arcy Thompson, Waddington, la Gestalt Theorie, Türing, Thom et la Théorie des catastrophes, en sont les héros.

Cette conception a connu au XXème siècle des développements scientifiques majeurs dans le cadre de la théorie des systèmes dynamiques, qui a mis en évidence des mécanismes d’apparition de formes. Ces mécanismes exploitent la propriété mathématique (physique) de nonlinéarité, à l’origine du phénomène de transcendance de la forme. Ils exploitent souvent le phénomène de brisure de symétrie et peuvent se manifester dans des régimes dynamiques loin de l’équilibre (structures dissipatives). Grâce à l’ordinateur, on a pu créer des formes nouvelles, comme les fractals, qui permettent de mieux comprendre les formes reconnues dans la nature.

Du point de vue contemporain, la forme est un compromis entre l’information (originalité, diversité, surprise) et l’intelligibilité (calculabilité, discursivité, réductibilité à un discours). Trop d’information tue la forme. Un phénomène stochastique (chaotique) n’a pas de forme, car il est un trop plein d’information non réductible à un algorithme (complexité algorithmique). Cette complexité le rend rebelle à toute prévisibilité au moyen d’un discours.

Le Vide, quel qu’il soit, est une absence de forme, à la fois par absence d’information et aussi sans doute par excès. Loin d’être Rien, il est au contraire le Vide par surdétermination au delà du raisonnable. En fait la forme n’est pas une manifestation en soi (une substance pour ainsi dire), même si elle donne à la matière son caractère de substance selon l’hylémorphisme aristotélicien. Toute réflexion sur l’absence de forme, comme réflexion essentielle sur les conditions de l’apparition de la forme, souligne le caractère contextuel et relationnel de la forme. La forme ne prend sens que vis à vis d’autres formes ou comparée à la non forme. La non forme est la condition d’existence de la forme. On retrouve là aussi en écho la distinction entre forme accidentelle et forme substantielle, que l’on pourrait dénommer forme normale, car elle oppose le normal au pathologique.

« Tout vient du fond et y retourne » disait Joan Miro. C’est que la forme ne prend corps que si elle traduit une différence. Nous ne percevons que des différences, comme l’a si bien exprimé Gregory Bateson dans sa conférence « Form, substance and difference » (1970).

Déjà au début du siècle Ferdinand de Saussure, créateur de la linguistique, et Ernest Cassirer, l’auteur des « Formes Symboliques », critiquaient le substantialisme et défendaient la priorité des notions fonctionnelles ( qui ne sont pas dérivées des objets mais servent à former le notion d’objet). Ainsi Ferdinand de Saussure écrit dans le texte inédit « De l’essence double du langage » :

« Il y a dans la langue ni signes ni significations, mais des différences de signes et des différences de significations lesquelles 1° n’existent absolument les unes que par les autres (dans les deux sens) et sont donc inséparables et solidaires ; mais 2° n’arrivent jamais à se correspondre directement. »

Le concept de forme ne prend ainsi son sens véritable que dans le cadre de la théorie de l’information, où selon le mot de Bateson, l’information est une différence qui fait la différence.

Toutes les expressions artistiques ont recours à la construction de fonds pour mieux affirmer le forme par contraste et la problématique figure-fond mise à l’honneur par la psychologie gestaltiste est récurrente dans bien des domaines.

Le vide et le fond sont un même combat pour l’expressivité de la forme. Il est clair que toute phénoménologie de la forme doit tenir compte des mécanismes de perception de la forme (Cf. Perception des formes). Une des plus grande découverte du XX ème siècle est de montrer la possibilité de création spontanée de formes au sein d’un système en évolution. C’est l’auto-organisation.

On parle d’auto-organisation lorsqu’un système abandonné à lui même, hormis des interactions peu spécifiques avec l’environnement, tend à devenir plus organisé. C’est là une propriété inattendue et contre intuitive, si l’on croît qu’un système abandonné à lui même tend à se désorganiser, et que l’ordre provient d’une intervention extérieure, une intelligence humaine ou divine. Les doctrines de l’auto-organisation reposent sur l’exploitation des propriétés des systèmes non linéaires, tout en utilisant souvent des idées assez vagues sur l’organisation, la forme ou l’ordre.

Le terme d’auto-organisation semble avoir été introduit par le cybernéticien W. Ross Ashby, mais ne s’est répandu que dans les année 70 lors de l’explosion de l’étude des systèmes dynamiques non linéaires initiée par les mathématiciens soviétiques.

En fait la théorie des auto–oscillations selon Andronov (1928) constitue un paradigme fondateur pour l’auto-organisation, dans le cas particulier des formes périodiques. Les auto-oscillateurs sont responsables de la plupart des phénomènes temporels périodiques observés ou créés. Un émetteur radio, une horloge ou un laser sont des systèmes auto-oscillants typiques, comme le sont des systèmes chimiques (Réaction de Belousov-Zhabotinsky) ou des systèmes biologiques comme le cœur ou les rythmes de la production hormonale. Les instruments de musique à corde frottée ou à vent sont des auto-oscillateurs, et les sons qu’ils produisent sont totalement structurés par les propriétés physiques de tels systèmes. Les auto-oscillateurs sont en fait comme la plupart des systèmes auto-organisés des systèmes non-linéaires ouverts avec entrée d’énergie (ou de matière ) et dissipation d’énergie (ou de matière ).

On peut considérer l’auto-organisation comme une adaptation à des contraintes extérieures peu spécifiques et désordonnées (aléatoires même), fondée sur les propriétés intrinsèques du système. Cette adaptation munit la forme de propriétés de stabilité particulières. La forme constitue une stabilité des choses face à la contingence du réel. La production de formes par la morphogenèse biologique est le signe indubitable de la stabilité des organismes vivants. Mais il ne s’agit sans doute pas de n’importe quelle stabilité. Aux yeux du grand mathématicien René Thom, il s’agit de la stabilité structurelle. Dans son livre historique « Stabilité structurelle et morphogenèse » (1972), à la page 31, il livre le fond de sa pensée :

« La notion de stabilité structurelle est à mes yeux, une notion clé dans l’interprétation des phénomènes, de quelque discipline que ce soit (sauf peut être en physique quantique)...... observons seulement que les formes subjectivement identifiables, les formes pourvues d’une dénomination, représentées dans le langage par un substantif, sont nécessairement des formes structurellement stables. »

De fait le mécanisme général d’apparition de formes par brisure spontanée de symétrie correspond au rétablissement d’une stabilité structurelle, là où la symétrie en empêchait la présence.

La brisure de symétrie a été pour la première fois reconnue comme fondamentale pour l’apparition des formes par le génie mathématique qu’était Alan Turing en 1952. Toute l’activité de Turing avait jusque là été totalement consacrée aux ordinateurs et à la logique, depuis la fameuse machine de Turing, modèle idéal de l’ordinateur jusqu’à un des premiers calculateurs électroniques Colossus. Mais Turing s’intéressait à ce qu’il considérait comme le problème fondamental de la biologie : rendre compte des figures et des formes. Vu son passé et l’esprit de l’époque dominé par la génétique, on aurait pu penser qu’il aurait essayé de décrire l’apparition de la forme comme le résultat d’un calcul programmé dans les gênes. Mais précisément c’est ce qu’il ne voulait pas, cherchant à éliminer un mécanisme d’apparition des formes biologiques lié à un dessein extérieur génétique ou divin.

Fortement influencé par d’Arcy Thompson, il crée une théorie de l’apparition de formes par instabilité des solutions d’équations de réaction-diffusion. Il s’appuie pour cela sur les propriétés de bifurcation des solutions d’équations différentielles, qui accompagne la variation d’un paramètre du système avec changement qualitatif profond lorsque ce paramètre passe par une valeur critique. Un état préalablement stable devient instable. Une distribution homogène de matière créée par une réaction chimique se mue en une distribution exhibant une forme, c’est à dire que l’on assiste à une brisure de symétrie. Cette brisure provient de l’amplification soudaine des petites irrégularités (fluctuations) réellement présentes dans la situation symétrique.

Ce mécanisme d’apparition de formes par brisure de symétrie dans des équations non-linéaires de réaction-diffusion a mis en place le premier paradigme important de création dynamique de la forme. Il a été largement confirmé par la théorie et l’expérience.

L’effervescence scientifique provoquée par le développement de la théorie des systèmes dynamiques et de la physique non linéaire, a donné naissance à diverses écoles ou courants de pensée, regroupés autour de certaines personnalités. Le rôle de ces écoles et de leurs inspirateurs n’a peut être pas été tant dans de véritables découvertes que dans la médiatisation de toutes ces nouvelles idées. Une médiatisation accompagnée par la création de vocables, véritables slogans servant d’enseigne à ces écoles, et créant souvent autour de leurs doctrines un halo qui n’aide pas à juger de la diversité des approches.

L’Ecole de Bruxelles doit sa renommée à l’activité et au talent de son fondateur, I. Prigogine, prix Nobel de chimie. C’est une école de thermodynamique, regroupée autour du sigle : « structures dissipatives ». Elle étudie la formation de structures organisées dans les systèmes hors de l’équilibre. Elle se fonde sur des principes de minimum de production d’entropie et utilise la production en excès de l’entropie comme un moyen pour rechercher l’apparition d’une instabilité, génératrice de formes. Malgré de très nombreux travaux théoriques, en particulier sur des modèles de réactions chimiques, il ne semble pas que cette école ait véritablement fondé une science de l’apparition des formes.

L’Ecole de Francfort, dirigée par H. Haken, a adopté comme sigle le terme « Synergétique ». Théoricien du laser, Haken a cherché à généraliser la théorie des phénomènes exigeant la coopération entre de nombreux acteurs. Tout en encourageant de nombreux travaux dans ce domaine et en multipliant les colloques, Haken, rival de Prigogine, n’a pas formulé une véritable doctrine de l’origine des formes.

Alors que Prigogine et Haken sont des physiciens, ce sont des biologistes H. Maturana et F. Varela, qui ont tenté d’élaborer une doctrine générale des formes, valable pour les systèmes biologiques et les systèmes cognitifs. Leur concept central est celui « d’autopoièse » ou de machine autopoiètique, réalisé par un réseau de processus entrelacés. C’est une approche qui se situe dans une certaine tradition cybernétique qui considère à sa façon les phénomènes d’auto-organisation.

La théorie des catastrophes du mathématicien René Thom a acquit une grande célébrité. La personnalité de son auteur, médaille Field (le Nobel des maths ) de mathématiques, tout autant que les mystères mathématiques dont elle s’entoure, expliquent ce succès philosophique et médiatique.

Les catastrophes sont des variations discontinues apparaissant comme des réponses soudaines d’un système à une variation continue des conditions extérieures.

La théorie des catastrophes est née de l’union de la théorie des singularités et de la théorie des bifurcations des systèmes dynamiques (Poincaré, Andronov). Son objet n’est pas tout à fait défini. Thom la considère comme un état d’esprit et non comme une théorie au sens ordinaire. C’est un programme mathématique, dont l’application varie d’un spécialiste à l’autre, mais avec pour traits généraux une attention particulière pour le typique, la stabilité structurelle et le point de vue géométrique. La théorie classe les discontinuité du mouvement en terme d’un petit nombre de formes archétypales que Thom nomme les catastrophes élémentaires.

La théorie des catastrophes a été appliquée à l’optique géométrique et à l’optique physique, à l’hydrodynamique, à la stabilité des navires, à l’étude des battements cardiaques, à l’embryologie, à la sociologie, à la linguistique, à la psychologie expérimentale, à l’économie, à la géologie, à la théorie des particules élémentaires, à la modélisation de l’activité cérébrale et psychique.....

Elle peut sembler une science carrefour et constituer une vision du monde, c’est ce qui fait son aura.

La dernière grande idéologie de la forme est apparue à l’époque informatique et doit son développement à l’utilisation massive des ordinateurs. Elle est développée par un mathématicien informaticien, Stephen Wolfram, l’auteur de l’ensemble de programmes de calculs mathématiques connu sous le nom de « Mathematica ».

L’étude scientifique de la nature et de l’homme est envisagée à l’aide de programmes de calcul plutôt qu’à l’aide d’équations mathématiques (A new kind of science). Les phénomènes du monde sont considérés comme résultant de l’exécution de myriades de programmes simples. Le programme simple par excellence étant l’automate cellulaire. L’immense richesse des formes obtenues à l’aide d’automates cellulaires illustre et conforte ce point de vue. L’automate cellulaire devient un outil privilégié de création des formes, ce dont témoignent les travaux d’art numérique ( comme ceux de Bernard Caillaud ).

P. BALL. The self-made tapestry. Pattern formation in nature. Oxford University Press. 2001. Essentiel.

J. PETITOT. Forme. Encyclopaedia Universalis. Paris. 1989.

Y. BOULIGAND, ed. La morphogénèse : de la biologie aux mathématiques. Maloine. Paris. 1980.

Quelques ouvrages marquent l’histoire de la forme au XX ème siècle :

S. LEDUC. La biologie synthétique. A. Poinat. Paris. 1912 ( disponible en ligne sur http://www.peiresc.org/bs01.htm ) D’ARCY WENTWORTH THOMSON. On growth and form. 1917 Edition abrégée : Cambridge University Press. 1961. A.M. TURING. The chemical basis of morphogenesis. Phil. Trans. R. Soc. London B237, 37-72, 1952. (reproduit dans collected works of A.M. Türing. Morphogenesis, ed. P.T. Saunders. North Holland. 1992.). R. THOM. Stabilité structurelle et morphogénèse. Essai d’une théorie générale des modèles. Interéditions. Paris. 1972. B. MANDELBROT. The fractal geometry of nature. Freeman. 1982. H.O. PEITGEN and P.H. RICHTER. The beauty of fractals. Images of complex dynamical systems. Springer. 1988. Le départ de la mode des fractals. H. MEINHARDT. The algorithmic beauty of sea shells. Springer.1995.Lle triomphe du modèle de Türing de réaction-diffusion. S. WOLFRAM. A new kind of science. Wolfram Media. 2002. L’automate cellulaire roi. La physique non-linéaire et l’auto-organisation sont le sujet d’innombrables ouvrages ou publications, où auto- organisation et chaos déterministe se côtoient souvent. Le livre de G.Nicolis, Introduction to nonlinear science, Cambridge University Press, 1994, constitue une des meilleures introduction générale. On trouvera de nombreuses informations dans les chroniques de Cosma Shalizi : http://cscs.umich.edu/ crshalizi/no... Cf. en particulier : self-organization, pattern formation, dissipative structures, emergent properties, cellular automata... Consulter la FAQ Self-organizing systems (SOS) : http://www.calresco.org/sos/sosfaq.htm G. NICOLIS and I. PRIGOGINE. Self-organization in non equilibrium systems. From dissipative structures to order through fluctuations. Wiley. 1977. A.T. WINFREE. The geometry of biological time. Springer. 1980. V.S. ZYKOV. Modelling of wave processes in excitable media. Naouka. Moscou. 1984.(en russe) [ traduction anglaise Manchester University Press. 1988.] A. BABLOYANTZ. Molecules, dynamics and life. An introduction to self-organization of matter. Wiley. 1986. A.T. WINFREE. When time breaks down : The three dimensional dynamics of electrochemical waves and cardiac arythmies. Princeton University Press. 1987. L. GLASS and M.C. MACKEY. From clocks to chaos : The rythms of life. Princeton University Press. 1988. G. NICOLIS and I. PRIGOGINE. Exploring complexity. Freeman. 1989. G. NICOLIS. Physics of far from equilibrium systems and self-organization. Dans, P. Davies,ed. The new physics. Cambridge University Press.1989. P. GRINDROD. Patterns and waves. The theory and applications of reaction-diffusion equations. Oxford University Press.1991. E. MERON. Pattern formation in excitable media. Physics Reports. 218, 1-66, 1992. J.S. KIRKALDY. Spontaneous evolution of spatio-temporal patterns in materials. Rep. Prog. Phys. 55, 723-795, 1992. L.G. HARRISON. Kinetic theory of living pattern. Cambridge University Press.1993. S. KAUFFMAN. The origin of order. Self-organization and selection in evolution. Oxford university Press.1993. A. GOLDBETER. Biochemical oscillations and cellular rythms. The molecular bases of periodic and chaotic behaviour. Cambridge university Press. 1996. C. SHALIZI. Causal architecture, complexity and self-organisation in time series and cellular automata. Thesis. 2001. http://bactra.org/thesis La morphogenèse biologique donne lieu à des publications spécifiques. A.R. PEACOCKE. An introduction to the physical chemistry of biological organization. Oxford university Press. 1983 J. MURRAY. Mathematical biology. Springer . 1989. (dernière édition augmentée en 2 volumes. 2002 ). Les taches du léopard...... Présentation de l’œuvre de Turing, en particulier sur la phyllotaxie : http://www.swintors.net/jonathan/tu... A. GIERER. Generation of biological patterns and form : Some physical, mathematical and logical aspects. Prog. Biophys. Mol. Biol. 37, 1-47, 1981. H. MEINHARDT. Models of biological pattern formation. Academic Press.1982. H. MEINHARDT. Pattern formation in biology : a comparison of models and experiments. Rep. Prog. Phys. 55, 797-849, 1992 P. PRUSINKIEWICZ and A. LINDENMAYER. The algorithmic beauty of plants. Springer. 1990. P. PRUSINKIEWICZ, M. HAMMEL and R. MECH. Visual models of morphogenesis:a guided tour. http://www.cpsc.ucalgary.ca/project... J.A. KAANDORP. Fractal modelling : Growth and form in biology. Springer. 1994. J. MARZEC. A pragmatic approach to modeling morphogenesis. J. of Biological Systems. 7, 335-351, 1999. J. MARZEC. Mathematical morphogenesis. http://www.albany.edu/ cmarzec E. BEN JACOB, I. COHEN and H. LEVINE. The cooperative self-organization of microorganisms. Adv. Phys. 49, 395-554, 2000. S. CAMAZINE, J.L. DENEBOURG, A. FRANKS, J. SNEYD, G. THERAULAZ and E. BONABEAU. Self-organization in biological systems. Princeton University Press. 2001.

Auto-organisation

Résonance sur plaque vibrante

Structures auto-organisées dans les systèmes loin de l’équilibre, le film

Stuart Kauffman écrit dans « La complexité, vertiges et promesses » :

« J’ai volontairement écrit mon premier livre sur les origines de l’ordre (intitulé « Auto-organisation et sélection dans l’Evolution des espèces ») sans jamais définir l’auto-organisation. (...) J’étais beaucoup plus préoccupé de montrer des cas concrets d’auto-organisation. (...) L’autocatalyse est un cas concret d’auto-organisation. Lorsque vous augmentez la diversité moléculaire des espèces dans un système, la diversité des réactions qu’elle peut engendrer augmente plus rapidement que la diversité des espèces. (...) On peut démontrer mathématiquement qu’une transition de phase survient lorsque la diversité moléculaire augmente. Ce qui qualifie un phénomène émergent, c’est une propriété collective qui n’est présente dans aucune des molécules individuelles. Les lois qui gouvernent les systèmes émergents sont en relation avec les lois mathématiques des transition de phase survenant dans de tels systèmes, et plus généralement dans tout ce qui se passe à un niveau supérieur à celui des molécules individuelles. »

Zip - 2.3 Mo

Un film montrant une auto-organisation

La reconnaissance de l’existence de multiples processus d’auto-organisation dans la nature, vivante et non vivante, est d’origine relativement récente. Autrefois, on en était restés à l’idée de la tendance naturelle au désordre. Se fondant sur le mélange des gaz, l’établissement d’une température et d’une pression moyennes, sur l’étude des machines thermiques et des moteurs, la thermodynamique appelait entropie cette "tendance au désordre maximum". Aujourd’hui, nous reconnaissons la capacité spontanée de la nature à produire de l’ordre : formation d’une étoile, d’un nuage, d’un flocon de neige, d’un cristal. L’exemple le plus éclatant est celui de la vie. En permanence, des cellules se spécialisent, se distribuent des rôles, interagissent.

LA CONVECTION ET L’AUTO-ORGANISATION

Motifs convectifs auto-organisés se formant dans de l’eau très chaude

L’AUTO-ORGANISATION DU FLOCON DE NEIGE Le flocon de neige est une structure complexe (une très grande variété de types de flocons) qui est produite par auto-organisation. Des procédures simples d’agrégation dendritique permettent de construire progressivement le flocon en fonction de la température, de la pression et de la densité. Il n’y a pas de modèle préétabli du résultat final qui se construit petit à petit en mêlant progression aléatoire et lois physique et géométrique d’agrégation. Il n’y pas deux flocons identiques. Chaque pas de construction est irréversible et est une bifurcation du schéma.

Formation de la neige et de la glace

EXEMPLE DE STRUCTURE DISSIPATIVE AUTO-ORGANISÉE Une plaque métallique est reliée à un générateur de fréquences sonores. Un sable très fin est disposé sur le dessus. Pour certaines fréquences bien précises, des structures géométriques apparaissent.

Transition de phase dans une croissance/diffusion auto-organisée

Un exemple de l’ordre issu du désordre : la matière

Maurice Jacob dans "Au coeur de la matière" :

"Au coeur de la matière et à l’échelle du cosmos

La nature est plus riche que notre imagination. On peut démonter les molécules en atomes. On peut arracher les électrons d’un atome et séparer les protons et les neutrons qui constituent son noyau. On découvre les différents niveaux de la matière qui mettent en jeu des constituants de plus en plus élémentaires. (...) La masse, cette propriété que l’on pensait intrinsèquement associée à un objet et qui résultait de l’addition des masses de ses constituants, une masse que l’on associait à chaque particule avant de considérer les forces auxquelles ellles pouvaient être soumises, cette masse devient un effet dynamique des actions auxquelles les constituants fondamentaux sont soumis. (...) Les particules élémentaires sont les quarks (qui forment notamment les protons et les neutrons) et les leptons (comme l’électron). (...) Les forces qui leur permettent d’interagir entre eux sont toutes du même type : elles prennent la forme particulière d’un échange de bosons. (...) L’un de ces bosons est le "grain de lumière", le photon. (...) Deux particules chargées s’attirent ou se repoussent en échangeant des photons. Au cours d’un choc, ou simplement accélérée, une particule chargée peut émettre un photon (...) dont la fréquence est proportionnelle à son énergie. (...) L’atome est formé d’un tout petit noyau entouré d’un "nuage" d’électrons. Le rayon du noyau est cent mille fois plus petit que celui de l’atome, mais il contient pratiquement toute la masse. l’atome est donc pratiquement vide mais son volume, extrêmement vaste par rapport à celui du noyau, est rempli par le mouvement incessant des électrons qui se concentrent sur des couches successives. Le noyau a une charge positive et les électrons ont uen charge négative. Ils sont tous attirés par le noyau mais tournoient à une distance respectable. L’atome est globalement neutre, la charge totale des électrons étant compensée par celle des protonsqui se trouvent dans son noyau. (....) En physique quantique, il faut renoncer à considérer une particule comme parfaitement localisable. (...) Ce flou quantique peut heurter l’intuition naturelle (...) ne peut-on envisager l’observation d’un électron pendant un temps très court durant lequel il ne pourrait parcourir qu’une petite partie de la distance associée à ce flou quantique ? C’est possible mais on ne peut plus distinguer dans ce cas l’électrons des multiples autres particules (paires d’électrons et de positrons fugitifs du vide) qui peuvent être librement émises et réabsorbées durant ce temps très court. (...) Le vide est animé par la création continuelle et la disparition rapide de paires électron-positron (le positron est l’antiparticule de l’électron). Ce sont des paires virtuelles (...) L’électron de charge négative va attirer les positrons de ces paires virtuelles en repoussant leurs électrons. En approchant de l’électron, le photon va se voir entouré d’un "nuage" de charge positive dû aux positrons virtuels attirés. Il aura l’impression que la charge de l’électron est plus faible que celle annoncée. (...) la masse des particules vient de la structure du vide qui s’est figé au début de l’évolution de l’Univers (...) La diversité de la matière sort de la structure du vide. (...) le vide bouillonne d’activité, il peut même exister sous plusieurs formes et manifester une structure. (...) Ce bouillonnement d’activité est de nature quantique."

Répondre à cet article