English German Espagnol Portugese Chinese Japanese Arab Rusian Italian Norvegian Dutch Hebrew Polish Turkish Hindi
Accueil du site > 07 - Livre Sept : SOCIOLOGIE > 7-6 Ecologie

7-6 Ecologie

mardi 18 mars 2008, par Robert Paris

Voici un article de Friedrich Engels qui prouve bien que les fondateurs du marxisme n’ignoraient pas l’écologie dont ils avaient apprécié la découverte par le socialiste Fourier :

"Les gens qui, en Mésopotamie, en Grèce, en Asie mineure et autres lieux essartaient les forêts pour gagner de la terre arable, étaient loin de s’attendre à jeter par là les bases de l’actuelle désolation de ces pays, en détruisant avec les forêts les centres d’accumulation et de conservation de l’humidité. Les Italiens qui, sur le versant sud des Alpes, saccageaient les forêts de sapins, conservées avec tant de soins sur le versant nord, n’avaient pas idée qu’ils sapaient par là l’élevage de haute montagne sur leur territoire ; ils soupçonnaient moins encore que, ce faisant, ils privaient d’eau leurs sources de montagne pendant la plus grande partie de l’année et que celles ci, à la saison des pluies, allaient déverser sur la plaine des torrents d’autant plus furieux. Ceux qui répandirent la pomme de terre en Europe ne savaient pas qu’avec les tubercules farineux ils répandaient aussi la scrofule. Et ainsi les faits nous rappellent à chaque pas que nous ne régnons nullement sur la nature comme un conquérant règne sur un peuple étranger, comme quelqu’un qui serait en dehors de la nature, mais que nous lui appartenons avec notre chair, notre sang, notre cerveau, que nous sommes dans son sein, et que toute notre domination sur elle réside dans l’avantage que nous avons sur l’ensemble des autres créatures, de connaître ses lois et de pouvoir nous en servir judicieusement." (Friedrich Engels, Le rôle du travail dans la transformation du singe en homme)

Un article du CEA de 2008 montre que le changement de climat est une véritable révolution qui n’est pas fondée sur une température globale mais sur le taux de poussières venues des déserts dans l’air des pôles

Evolution au cours des derniers 800 000 ans des deux gaz à effet de serre de l’atmosphère les plus importants après la vapeur d’eau : le dioxyde de carbone (courbe bleue) et le méthane (courbe verte)

Cette courbe prouve-t-elle que la teneur en gaz entraîne une hausse de température ou bien que ces diverses quantités ont augmenté du fait d’un facteur agissant en même temps sur chacune comme le volcanisme sous-marin ?

La température du globe sur 450.000 ans

Le physicien Per Bak dans « Quand la nature s’organise » : « Un effort assez important fut entrepris il y a de cela environ trente ans, à l’aube de l’ère informatique, afin de réaliser des prédictions globales qui furent regroupées dans un rapport du Club de Rome intitulé « Halte à la croissance ? On espérait ainsi prévoir, entre autres choses, l’accroissement de la population humaine et son impact sur les ressources naturelles. Le projet fut un échec cuisant car les résultats dépendaient de facteurs imprévisibles qui n’étaient pas pris explicitement en compte dans le projet. Il est très possible que les prévisions sur le réchauffement du globe soient de la même eau. Bien que nous ayons une bonne compréhension de la physique climatique, ce sont là des prédictions à long terme concernant un système complexe. »

Site Matière et Révolution

www.matierevolution.fr

Pourquoi ce site ?

Pour nous écrire, cliquez sur Répondre à cet article

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

A- Pollution et réchauffement climatique, vrai ou faux ?

B- Nuisances du nucléaire

C- Dangers des OGM

D- Ecologie et sociologie

E- Ecologie et lutte des classes

Un « réchauffement global » ?

L’évolution de la Terre est-elle prédictible ? La dynamique chaotique de la Terre et de son climat

En 1889, le mathématicien et physicien Henri Poincaré cherchait à répondre lui aussi à cette question de la stabilité du système solaire. Son mémoire intitulé "sur le problème des trois corps et les équations de la dynamique" remporta le prix du concours ouvert à Stockholm par le roi Oscar II entre les mathématiciens du monde entier, apportant à Poincaré une notoriété internationale. Et c’est dans l’étude du système solaire que l’on a découvert pour la première fois un phénomène chaotique ! En effet, il devait montrer que la gravitation avait beau obéir à des lois, celles-ci engendraient le chaos, cette imbrication d’ordre et de désordre que l’on appelle chaos déterministe. Je rappelle que déterministe signifie un phénomène issu de lois. Poincaré a ainsi montré que certaines lois non-linéaires, les lois de l’attraction universelle de Newton en l’occurrence, peuvent engendrer des mouvements chaotiques. Poincaré a également montré qu’un mouvement chaotique peut paraître stable durant quelques dizaines ou centaines de millions d’années avant de quitter la zone de stabilité appelée par lui « un îlot » de stabilité. Et pour cette étude il a considérablement simplifié le problème du système solaire. Il a étudié le mouvement de trois corps. Poincaré a ainsi découvert en étudiant mathématiquement la loi de Newton pour ces trois corps qu’on y trouvait des possibilités nombreuses de mouvements imprédictibles. Etonné et en même temps déçu, il aurait déclaré : « si j’avais su qu’en étudiant les lois de la physique on ne pourrait rien prédire, j’aurais préféré me faire boulanger ou postier que physicien et mathématicien ! »

Mais Poincaré avait rapidement compris que ce n’était pas une faiblesse personnelle qui l’empêchait ainsi de pénétrer le fonctionnement de la nature mais une propriété fondamentale de ce fonctionnement et de sa relation avec l’entendement humain. N’oublions pas que Poincaré, même s’il était un grand scientifique, a plutôt souligné le caractère humain et sensible de l’activité intellectuelle de la science. Je le cite commentant l’activité de la découverte scientifique et expliquant qu’entre deux périodes de travail conscient, il se réalise un travail inconscient. "Le moi inconscient ou, comme on dit, le moi subliminal, joue un rôle capital dans l’invention mathématique [...] le moi subliminal n’est nullement inférieur au moi conscient ; il n’est pas purement automatique, il est capable de discernement, il a du tact, de la délicatesse ; il sait choisir, il sait deviner. ... les phénomènes inconscients privilégiés, ceux qui sont susceptibles de devenir conscients, ce sont ceux qui, directement ou indirectement, affectent le plus profondément notre sensibilité. On peut s’étonner de voir invoquer la sensibilité à propos de démonstrations mathématiques qui, semble-t-il, ne peuvent intéresser que l’intelligence. Ce serait oublier le sentiment de la beauté mathématique, de l’harmonie des nombres et des formes, de l’élégance géométrique. C’est un vrai sentiment esthétique que tous les vrais mathématiciens connaissent." Je citait un passage du chapitre « L’invention mathématique », dans l’ouvrage « Science et méthode » de Poincaré.

Et l’un des résultats de ses travaux sera de relativiser le caractère purement objectif des énoncés scientifiques. Il montre que la science reste une conjecture et non un domaine du certain comme on l’a longtemps cru de façon un peu prétentieuse, à la suite de Laplace. Selon lui, la science est une activité humaine et la relation entre l’homme et la nature reste une recherche sans réponse finale. La meilleure preuve en est que ses propres travaux allaient être rapidement contredits puisqu’il concluait que le système solaire était stable ce que, par la suite, il allait lui-même corriger. Par contre, il a inventé à cette occasion la plupart des méthodes théoriques aujourd’hui appliquées dans un domaine qui n’existait pas à l’époque : l’étude des systèmes dynamiques, autrement appelée chaos déterministe. Il va notamment inventer des méthodes d’étude de systèmes pris dans leur ensemble sans étudier les éléments du système pris un par un, méthode particulièrement novatrice. Il va étudier non une seule trajectoire mais l’ensemble des trajectoires possibles et leur relation entre elles. Enfin, il va montrer que les phénomènes physiques sont du domaine de la géométrie et non des formules mathématiques. Je le répète, sa conclusion est qu’avec trois corps interagissant par attraction gravitationnelle on a déjà du chaos c’est-à-dire un phénomène obéissant à la propriété de la sensibilité aux conditions initiales : un tout petit changement de celles-ci peut entraîner un grand changement de la suite de l’évolution. Rappelons que cette thèse révolutionne la conception que l’on avait de la gravitation depuis Newton. Ce dernier pensait que si l’on connaissait précisément les positions et les vitesses de tous les corps célestes on pouvait connaître à tout moment la suite des positions. Poincaré infirme cette thèse. Essayons d’expliquer pourquoi.

Je vous rappelle que pour deux corps, du moment que l’on connaît la masse des deux corps et les données de position et de vitesse à l’instant initial on peut calculer les positions des deux corps à tout instant. On connaît en effet une solution analytique qui indique le mouvement et il y a une seule trajectoire possible qui est une ellipse. On pourrait imaginer que l’on est certain d’avoir une solution puisque l’on connaît les équations du mouvement mais ce n’est pas du tout le cas. La plupart des équations mathématiques non-linéaires n’ont pas du tout de solution ou ont une infinité de solutions. Une solution analytique est une formule qui indiquera positions et déplacements à tout instant. Les équations ne permettent pas de le dire. Les équations de Newton relient par une formule les diverses dérivées de ces quantités, c’est-à-dire position, vitesse et accélération. Lorsque l’on peut revenir des dérivées aux quantités elles-mêmes on dit que le système d’équations est intégrable mais généralement ce n’est pas le cas. Un exemple bien connu d’intégration est l’équation du mouvement d’un boulet de canon si on connaît la vitesse initiale et l’angle de lancement. Et justement dans le cas du système solaire, en se contentant de trois corps, Poincaré a montré que le système n’est pas intégrable. Il n’y a pas de solution analytique des équations de Newton du mouvement. Poincaré en a même expliqué la raison : il n’y a pas assez d’équations par rapport au nombre d’inconnues. Ce que l’on appelle les inconnues ce sont les positions des corps et leurs variations. Les équations indiquent la conservation d’un certain nombre de quantités qui ne peuvent que s’échanger et non diminuer ou augmenter : l’énergie, la quantité de mouvement et la quantité de rotation. Il a montré que la multiplicité des trajectoires très proches et imbriquées rend improbable que le système soit intégrable. Les équations ne sont pas assez nombreuses pour en déduire une solution. Il a également montré qu’il en découle une infinité de trajectoires possibles et que l’on n’a aucun moyen de trancher entre elles. En plus la proximité des trajectoires signifie qu’une petite perturbation peut faire sauter le corps d’une trajectoire à une autre imperceptiblement avec du coup un avenir tout à fait différent au bout d’un certain temps. Quelle en est la raison ? Dans le mouvement des trois corps, aucun n’est négligeable. A tout instant la position d’un corps et son mouvement sont modifiés par la position précédente d’un autre corps qui est elle-même modifiée par celle du troisième. C’est ce qui rend impossible les approximations. Impossible par conséquent de dire que tel objet est trop petit pour influencer le système sur le long terme. Impossible de dire que telle modification de distance est négligeable puisqu’elle peut entraîner un changement de trajectoire qui peut être considérable sur le long terme. Impossible même de distinguer l’une des planètes comme un objet indépendant du système. Impossible aussi de distinguer passé et présent. En effet, la position d’une planète dépend de l’ensemble des positions précédentes, de toute l’histoire passée du système. C’est ainsi que, pour prédire, il faudrait connaître avec une précision infinie l’ensemble des conditions précédentes et pas seulement les conditions initiales, c’est-à-dire à un instant donné, du système. Du coup, les trajectoires possibles étant infiniment proches les unes des autres, il suffit d’un petit changement dans les conditions initiales ou d’une petite imprécision pour changer relativement vite l’ensemble de l’histoire de tout le système. Poincaré venait de découvrir le premier domaine d’étude d’un phénomène d’un type nouveau : le chaos déterministe.

Parmi les successeurs des travaux de Poincaré, il convient d’abord de citer Kolmogorov, Arnold et Moser. Ces trois scientifiques vont reprendre le travail de Poincaré et montrer en 1962 dans un théorème appelé KAM de leurs initiales que, dans certaines conditions initiales particulières, il peut y avoir stabilité. Il y a alors des mouvements quasi périodiques et des perturbations suffisamment petites ne peuvent éloigner durablement la planète de sa trajectoire. . Ils ont donc fait la démonstration que, si les masses et les inclinaisons des ellipses parcourues restent faibles, ces trajectoires restent contraintes à n’évoluer qu’autour d’une espèce de tuyau refermé sur lui-même et appelé le tore. Cette contrainte entraîne une garantie de stabilité, une espèce de garde fou pour le mouvement. Mais le débat n’était pas achevé pour autant car d’autres physiciens allaient montrer que le théorème KAM s’applique bien à des interactions entre plusieurs corps mais pas au système solaire qui ne satisfait pas aux conditions initiales nécessaires. Ainsi, en 1998, les savants américains Sussman et Wisdom intègrent le mouvement de Pluton sur un ordinateur et ce mouvement s’avère chaotique. Ils démontrent que ce mouvement obéit à ce que l’on appelle la « sensibilité aux conditions initiales » ou encore la propriété de divergence exponentielle. Exponentielle signifie ici qu’une perturbation au lieu d’additionner ses effets les multiplie et c’est là que réside la source du chaos. En effet, ces deux scientifiques ont calculé que l’incertitude sur les conditions initiales est multiplié par trois tous les 20 millions d’années. Cela signifie qu’en 400 millions d’années, durée sur laquelle on cherche à obtenir une réponse de stabilité, la position de Pluton est complètement imprédictible. L’incertitude est en effet multipliée par trois à la puissance vingt soit 3.486.784.401. Une erreur d’un centimètre se traduit au bout de 400 millions d’années par une modification du résultat de trois milliards et demi de centimètres ! ! Mais c’est surtout dans la foulée des travaux de Jacques Laskar, directeur de recherches au bureau des longitudes de Paris qu’ont été faites les principales découvertes tendant à prouver le caractère chaotique du système solaire. Il a notamment mis en équation le calcul des perturbations qui permet d’extrapoler pour trouver les positions des planètes et il a montré que ce calcul n’était pas valable sur un temps de plusieurs centaines de millions d’années. Les calculs que nous faisons pour positionner les planètes ne sont pas faux mais ils ne sont pas extrapolables pour en déduire la position d’une planète sur une aussi longue durée. La raison ne provient pas d’une erreur ni d’une approximation mais du principe lui-même du calcul. Toute petite approximation entraîne sur un temps aussi long une modification considérable du fait du caractère exponentiel des divergences. Comment ces perturbations peuvent-elles se multiplier ainsi au lieu de simplement s’additionner ? L’explication provient de la rétroaction qui se produit parfois entre deux trajectoires, c’est-à-dire qu’elles ont des fréquences que l’on dit accrochées ou en résonance. Sont en résonance deux phénomènes réguliers dont les périodes sont dans un rapport simple par exemple un sur deux ou trois sur cinq. Dès que deux phénomènes sont dans ce cas, ils interagissent bien plus que la proportion de leur cause. C’est ce qui se produit avec une personne poussant en résonance une balançoire. Cela a pour effet d’accumuler des effets d’entraînement pouvant aller jusqu’au tour complet. Or le rapport entre les périodes des mouvements de Saturne et Jupiter autour du Soleil est exactement dans la fraction 2 sur 5. Cela signifie qu’ils vont se trouver à intervalle régulier dans des positions susceptibles de déformer leurs trajectoires et toujours dans le même sens. On constate d’autres résonances dans les mouvements planétaires comme la résonance entre les mouvements de précession des orbites de la terre et de Mars, comme la résonance entre les mouvements de précession de Mercure, Vénus et Jupiter. La précession est l’un des paramètres caractérisant le mouvement d’une planète. Du coup, il est difficile de dire si une forte augmentation de l’excentricité du mouvement elliptique d’une planète ne serait pas possible dans un intervalle de cent millions d’années, augmentation pouvant donner une énergie suffisante pour que cette planète sorte du système solaire. L’augmentation de l’excentricité du mouvement elliptique peut causer un choc entre deux planètes comme le montrent les extrapolations de calcul effectuées par Laskar dans une simulation sur ordinateur des équations sur dix milliards d’années. Ce seraient également ces mouvements chaotiques causés par des résonances qui expliqueraient la capacité de certaines trajectoires d’entraîner le corps hors du système, expliquant ainsi les trous dans la ceinture de Kirkwood des astéroïdes (un million de blocs rocheux de moins d’un kilomètre de diamètre qui voyagent entre Jupiter et Mars.)

La dynamique chaotique du climat

Introduction à la météorologie et à la question du réchauffement

Le chaos déterministe climatique Le fonctionnement climatique est une dynamique auto-organisée où les structures globalement stables sont fondées sur l’instabilité, et où coexistent des rétroactions positives et négatives qui rendent impossible la prédictibilité du fait de la sensibilité aux conditions initiales. Le climat est même le premier domaine scientifique dans lequel les caractéristiques de chaos déterministe aient été mis en évidence, avec les travaux de Lorenz en 1963. Cette année là, Edward Lorenz du Massachusetts Institute of Technology, spécialiste en météorologie, fait tourner sur un ordinateur les équations physiques connues qui relient les trois paramètres les plus fondamentaux de la météorologie : température, pression et vent. C’est ce que l’on appelle des équations différentielles non linéaires, le terme « différentielles » signifiant qu’elles relient des petites différences des paramètres. On n’est pas capable de résoudre ces équations et d’en déduire une fonction permettant de calculer la relation directe entre les paramètres et, du coup, la suite des événements si on connaît les conditions initiales. Par contre on peut partir de ces conditions et rajouter de petites variations en les calculant par les équations différentielles. Et involontairement, parce qu’il avait été prendre entre temps un café dit la légende, Lorenz a relancé son calcul à partir de deux conditions initiales très légèrement différentes du fait d’une modification des approximations. Il s’est aperçu de ce que l’on appelle maintenant la sensibilité aux conditions initiales qui signifie que même la plus petite différence des paramètres entraîne que la position n’est plus sur la même couche de la courbe et, très vite, cela cause des divergences considérables et irrémédiables. D’autre part, il a montré que cela se produisait avec seulement trois facteurs. Il est parvenu à montrer qu’il y avait bien une loi avec un attracteur mais c’est un attracteur étrange, feuilleté, fractal Un attracteur signifie que pour chaque série de valeurs des variables il y a un seul point possible. Un attracteur étrange signifie qu’avec une valeur très proche des variables on peut passer très vite dans une tout autre zone. Ce qui était très difficile à établir sur ordinateur quand Lorenz l’a fait est très simple aujourd’hui : sur un ordinateur personnel, les mathématiciens peuvent faire tourner les équations de Lorenz sur un logiciel mathématique appelé Maple 5 et retrouver très facilement l’attracteur étrange. Pas plus que nous, l’ordinateur ne peut résoudre les équations mais il peut calculer rapidement des valeurs par variations successives et construire l’attracteur point par point. On retrouve là une figure appelée " le papillon ", à deux branches construit pas séries de couches feuilletées sous forme fractale. Examinons l’importance de cette découverte du chaos déterministe en météorologie en reprenant la question du réchauffement. Et d’abord il importe de constater que le modèle qui fonde les thèses de l’IPCC est linéaire, et cela pour une raison fondamentale : la principale conséquence du modèle ultra-simple de Lorenz est l’inutilité de vouloir prédire par une modélisation puisque même la plus simple des modélisations du climat diverge. L’IPPC n’a fait que le confirmer : le moindre des changements dans les données change tout dans le résultat. D’autre, part l’IPCC et tous les autres prédictionnistes ont été contraints de modéliser plusieurs interactions connues comme non-linéaires par du linéaire. Un exemple flagrant est celui de la pluviométrie. Il est impossible de faire rentrer dans un modèle le fonctionnement des nuages et leur manière de produire de la pluie. Du coup, ils se sont contentés du degré d’hygrométrie de l’air qui est plus simplement mesurable. Et ils ont décidé que c’était une approximation valable de considérer que la pluviométrie est proportionnelle au degré d’hygrométrie, ce qui est une contre vérité. Un autre exemple de la décision non formulée de prendre comme à-priori le linéaire est celui du gaz carbonique : les prédictionnistes ont décidé que plus l’homme produisait du CO², plus il y en a dans l’air, ce qui ne correspond même pas aux observations. Il y a un autre point pour lequel la conception linéaire est un non-dit fondamental. C’est le raisonnement : " si l’évolution actuelle continue encore pendant cinquante ou cent ans alors il se passera ceci ou cela ... ". Il y a là un tour de passe-passe conceptuel. Si le CO² produit double, le CO² atmosphérique double, alors l’hygrométrie suit et la pluviométrie également. On peut y rajouter maintenant la fonte des neiges dans la même proportion, et ainsi de suite : la montée des eaux, les inondations, les sécheresses, les maladies et j’en passe. Malheureusement pour ces prédictionnistes, déjà le seul couple atmosphère-océan qui est le fondement du climat a un comportement connu comme non-linéaire. La linéarité marche assez bien lorsqu’une perturbation progresse régulièrement d’heure en heure, par exemple avec les perturbations venues sur l’Europe de l’Atlantique. On a alors une assez bonne précision sur trois-quatre jours même si on se contente, sans modéliser le climat global, de dire que le climat va subir une simple translation d’ouest en est corrigée par les vents dominants. Par contre, dès qu’il y a une discontinuité, on revient à l’inattendu. Les modèles, si on les fait marcher en arrière à partir des données actuelles, ne prédisent pas du tout le climat passé : non seulement les âges glaciaires pas même le dernier âge glaciaire appelé petit âge glaciaire et qui s’est produit dans les années 1600 ou les périodes de réchauffement mais pas même la dureté de la tempête de 1999 ! Comment pourraient-ils prétendre à prédire le réchauffement dans cent ans ? Par conséquent, même avec des perfectionnements dans les capacités de calcul des ordinateurs et dans les modèles, c’est pour des raisons de fond que l’on risque de ne jamais pouvoir prédire le climat 100 ans à l’avance comme prétendent le faire les experts de l’IPCC. Et bien des climatologues leur reprochent cette fausse prédiction pour dans cent ans alors que l’on ignore tout des autres facteurs du climat non pas dans cent ans mais même dans dix ans ! Les remarques sur quelques années n’indiquent pas la suite des événements à long terme : cent ans n’indiquent pas une évolution à grande échelle. L’unité de raisonnement sur le climat global est 10 000 ans et les glaciations s’échelonnent sur environ 100 000 ans. Pour concevoir l’erreur que cela représente, imaginez que l’on note les valeurs du cours d’une action en bourse en début de séance quinze fois pendant les trois premières minutes et qu’on en déduise qu’elle va augmenter en fin de journée, chacun comprend que l’on ne peut que se tromper. Il en va de même sur des prédictions sur le climat global avec seulement des mesures sur quelques années. Ce sont des observations qui ne sont pas à la bonne échelle. Vous pouvez vous dire : d’accord pour le moment on ne dispose pas de modèles suffisants pour prédire mieux mais on s’améliore et on va bientôt y parvenir. On finira sûrement par mieux comprendre le fonctionnement des nuages et du couple atmosphère-océan. C’est faux. On ne cesse de mieux comprendre oui mais on ne peut pas prédire. La limite de prédictibilité n’est pas due à un manque de connaissances mais à la nature même du phénomène. La nature des fonctions est divergente et on mesure cette divergence par une constante appelée de Lyapounov qui décide de la manière exponentielle dont un petit écart va s’accentuer. Les écarts fins comme entre deux nuages deviennent sensibles pour un temps de quatre jours. Le chaos entraîne qu’il y a une limite réelle à la prédictibilité qui n’est pas due aux limites des capacités de l’opérateur. Le caractère chaotique du climat pose un autre problème aux modélisateurs qui ont prédit la hausse des températures par effet de serre causé par l’homme. En effet, des variables rétroactives positivement et négativement ne peuvent être utilement approchées et encore moins moyennisées. Lorenz avait d’ailleurs intitulé sa thèse de 1972 devant l’Association américaine pour l’avancement de la science : " Prédictibilité : le battement des ailes d’un papillon au Brésil peut-il déclencher une tornade au Texas ? ". C’était bien sûr une boutade à ne pas prendre au pied de la lettre puisque le but du raisonnement de Lorenz était justement de dire que l’on ne pouvait pas isoler une petite instabilité pour en faire un fait à part. Et Lorenz lui-même s’était chargé de traduire en termes scientifiques : " Le comportement de l’atmosphère est-il instable par rapport à des perturbations de faible amplitude ? " Et il soulignait l’impossibilité de calculer puisque toute approximation changeait la suite de l’histoire du climat. Or le modèle météo qui prédit le temps à trois jours est celui qui a servi aux prévisionnistes à annoncer la hausse notable des températures dans cinquante ou cent ans et fonctionne sur des valeurs moyennes. Rappelons que la méthode consiste non seulement à effectuer des moyennes mais en ayant préalablement retiré les valeurs considérées comme hors normes. Ce n’est pas une manière de tricher mais une manière classique en recherche physique pour essayer de faire apparaître la loi ou la régularité. Par contre, quand on retire ces valeurs dites excessives, on ne peut plus dire que la moyenne réelle des températures du globe augmente. Et cela d’autant moins qu’un grand nombre des centres de mesure se situe près des villes que l’on sait réellement être des centres du réchauffement par effet de serre. Mais l’occupation minuscule de la surface du globe par les villes ne permet pas d’en déduire que l’ensemble de l’atmosphère voit sa température augmenter notablement. Si on indique des valeurs des augmentations de température suivant qu’on a pris des stations météos proches de grandes villes ou de moins grandes, plus il y a de grandes villes, plus la température augmente. Au contraire, en bas, la température, correspondant à des centres loin des grandes villes, n’augmente quasiment pas. On s’aperçoit que l’on a formé un concept de température globale qui est purement théorique et n’est pas forcément opérant pour décrire une quelconque évolution climatique réelle. On a ensuite produit une corrélation que l’on a transformée en loi fondamentale sans disposer d’une description réelle des mécanismes. Le paramètre choisi a le défaut d’être unique au lieu d’intégrer des interactions avec pression et vents. En plus, ce n’est pas un bon paramètre car la température globale corrigée des variations brutales à petites échelles n’est pas réelle. On constate qu’il y a eu des glaciations alors que la température globale n’avait baissé que de quatre degrés. On remarque par contre des chutes beaucoup plus importantes sans refroidissement global. C’est que cette température moyenne n’est pas une bonne description des phénomènes et, au moins, n’est pas suffisante. Ce n’est pas la température globale qui est pertinente en climatologie réelle et en histoire des climats mais ce sont les différences locales et régionales qu’il faut examiner en liaison avec les autres paramètres de vent, de pression, d’humidité et de pluviosité. Ainsi une glaciation suppose surtout que les glaces formées l’hiver ne pourront fondre du fait d’un été insuffisant. Ce n’est pas une moyenne entre hiver et été qui intervient. Ce n’est pas non plus une moyenne entre les pôles et les autres zones. Enfin intervient la circulation de l’énergie entre zones mais pas la moyenne entre ces zones, ce qui n’est pas du tout la même chose. Par exemple, la présence ou l’absence de courants marins n’est pas indiquée dans de telles moyennes qui ne décrivent nullement la dynamique du climat. Ainsi, sans modification de la moyenne, les différences peuvent s’accentuer, modifiant tout le climat. En fait, le problème que pose la prédiction est fondamental et relié au caractère de la dynamique de l’atmosphère qui est appelée " la turbulence ". On constate que des fluides, même dans les situations les plus simples ont des évolutions imprédictibles. Il suffit pour cela d’examiner une simple fumée de cigarette. En 1971, Ruelle et Takens en ont trouvé l’explication. Ils ont montré que la turbulence n’est pas descriptible, comme on le croyait, par une somme de fonctions quasi-périodiques mais par le chaos déterministe avec un attracteur étrange. Une visualisation sur un ordinateur puissant, un Cray 2, effectuée par Marie Farge du laboratoire de météorologie dynamique de l’Ecole normale supérieure présente la formation spontanée de structures tourbillonnaires en sens opposés dans un champ obéissant à des lois de type chaos déterministe. C’est le cas des anticyclones et des dépressions, comme on l’a montré précédemment mais aussi des mouvements des masses d’air, ou des courants marins. La transmission de l’énergie de la terre à l’atmosphère implique également des processus non-linéaires. C’est un mécanisme fondamental puisque c’est l’océan qui, couvrant 71 % de la surface du globe, absorbe la plus grande partie de l’énergie solaire et la transmet à l’atmosphère, grâce à des échanges très complexes. On trouve également des figures chaotiques dans les mouvements de l’atmosphère, entre les différentes couches. Ce phénomène, appelé cellules de convection a été bien étudié. On a montré que c’est un phénomène chaotique. Rappelons que les équations de Lorenz, présentées précédemment, ne sont rien d’autre que l’écriture d’équations physiques connues de la convection avec frottement pour les fluides, équations appelées de Navier-Stokes. Ce sont ces équations un peu simplifiées par Lorenz qui lui ont permis de mettre en évidence le chaos, c’est-à-dire à un apparent désordre obéissant à des lois non-linéaires. Les rouleaux de convection interactifs règlent les relations entre atmosphère et sol, entre atmosphère et mer et entre haute et basse atmosphère et enfin entre zones de diverses latitudes. Ces courants, loin d’être linéaires, sont turbulents. Ils sont fondamentaux dans la météo car l’essentiel de l’énergie des déplacements d’air est dans ces mouvements.

Chaos et fractales sont sans cesse présents en climatologie. J’en cite seulement quelques exemples. Le plus connu est certainement la formation des cristaux de neige, avec les transitions de phase d’un type de structure à un autre. L’avalanche est un des effets de pointe bien connu. Par contre, il est plus rare d’entendre parler de fractale à propos d’une surface d’eau. L’expression surface suggère d’ailleurs que c’est un plan qui sépare l’eau liquide et la vapeur d’eau de l’atmosphère. Cela est inexact, car sans cesse les bulles de gaz vont et viennent entre liquide et atmosphère si bien que l’interface est fractale. De même, le nuage, interface entre masse d’eau et d’air, est une fractale extrêmement dynamique et non un objet stable comme on se le représente parfois. L’état permanent du nuage est la turbulence. Pour le nuage, cette agitation fonde sa durabilité. Une perte d’agitation est synonyme d’augmentation de un niveau de l’ordre. Cela signifie un changement d’état de l’eau qui passe en de la vapeur d’eau au liquide. C’est le mécanisme de la pluie. Cela explique que la pluie est un phénomène brutal, parfois même très violent, et non une progression lente liée simplement au degré d’hygrométrie contrairement à sa modélisation par informatique. La raison de la formation de ce type de figures chaotiques est que le chaud et le froid ne se propagent pas de façon linéaire. On a pourtant tendance à se l’imaginer quand on parle de front froid ou de front chaud. Mais cette ligne de front théorique provient du fait que la masse d’air chaud passe au dessus de la masse d’air froid et pas qu’elles se pénètrent en se mélangeant. Pour les courants marins, c’est le même problème : l’interface entre eau chaude et froide est fractale.. Pour visualiser vous-mêmes ce phénomène, je vous conseille une petite expérience élémentaire, que vous pouvez aisément pratiquer chez vous. Versez de l’eau chaude dans votre baignoire puis, pour revenir à une température plus modérée, versez doucement de l’eau froide. L’eau froide et l’eau chaude vont se mélanger et vous pourrez alors observer des fractales et des tourbillons sur le fond blanc de la cuvette. Ce phénomène n’est pas limité à votre baignoire, mais fonde toute la climatologie des anticyclones et des dépressions des courants aériens ainsi que des courants marins. Dans votre bain, l’expérience s’arrêtera vite parce qu’il n’y aura bientôt plus de pôle chaud et de pôle froid. Mais pour la terre, les inégalités naturelles de réception d’énergie solaire entre équateur et pôles entretiennent la différence. Le mouvement climatique est donc permanent et auto-organisé. En permanence, de nouvelles structures apparaissent et disparaissent entraînant des bifurcations de l’histoire. Il en résulte un point essentiel : les échanges d’énergie entre pôle chaud et pôle froid sont non-linéaires. Ils sont fondés sur des bifurcations qui cassent la linéarité. La dynamique qui en résulte dépend des événements, c’est-à-dire de faits qui ont une échelle bien inférieure, et cette interaction d’échelles construit sans cesse de l’inattendu. Les modèles informatiques ont un défaut congénital car ils supposent que le climat correspondant à des paramètres donnés est fixée. Ce n’est pas exact. Le climat dépend de la dynamique et pas seulement des valeurs ponctuelles des paramètres. Le climat a une histoire. Il y a sans cesse des rétroactions et notamment celles qui sont dues au fait qu’une descente d’air froid provoque une remontée d’air chaud, qu’un anticyclone fabrique sans cesse une dépression, et aussi qu’une augmentation de pluviométrie dans une zone provoque une baisse dans la zone voisine. Que le climat soit du chaos déterministe ne devrait pas étonner. Les gaz et les liquides comme la terre obéissent à des lois physiques donc sont déterministes. Mais, il s’agit d’une dynamique dissipative puisque le climat a besoin sans cesse de son apport d’énergie solaire. Sans cette énergie, pas de différence entre pôles chaud et froid et pas de vents, de nuages, de pluies ni de courants marins. Or Prigogine a montré que toute dynamique déterministe fondée sur un phénomène dissipatif est non-linéaire. Il y a des discontinuités à toutes les échelles. Des structures apparaissent, changent ou disparaissent, sans qu’il y ait besoin de faire intervenir un facteur extérieur comme l’homme. Dans la turbulence des fluides, une simple fumée obéit à des lois connues de la physique et pourtant les formes qu’elle va prendre sont imprédictibles. Si les prévisionnistes ont cru savoir ce que serait le climat de demain, ils ont prédit une augmentation de température plus importante aux pôles, ce qui est contraire à la réalité observée. Je donne un seul exemple de l’imprédictibilité du climat. Il n’est pas nécessaire de modifier artificiellement le climat à grande échelle pour que se produise un changement de température de zones entières. Un petit fait aléatoire suffit. Supposez que dans la banquise un morceau casse et se détache : il peut alors dériver vers l’Angleterre. Ce petit incident peut entraîner un changement complet de climat dans l’Atlantique nord et, du coup, pour tout l’hémisphère nord. En fait, les AMP sont un tel phénomène, en plus petit. Les anticyclones sont un peu comme de petits morceaux atmosphériques de banquise qui dérivent vers le sud.

Pour conclure

Je voudrais finir sur cette question de la non-linéarité qui me semble philosophiquement et scientifiquement fondamentale. Elle a permis de nombreuses avancées en sciences. Pourtant elle ne semble pas acquise à tout le milieu scientifique, pour ne pas dire au delà. La modélisation par des fonctions chaotiques du message nerveux cérébral dont je vous avais parlé dans un exposé précédent vient de donner un beau et récent succès. En effet, l’équipe du professeur Beaulac de la Pitié-Salpétrière a pu ainsi mettre au point un appareil pour les épileptiques, permettant au malade de savoir quelques minutes avant la venue d’une crise. Je voudrais rappeler ce que l’on entend par non-linéarité et les propriétés qui font des lois non-linéaires des sources de l’inattendu : * les paramètres n’agissent pas de façon additive comme un gramme plus un gramme fait deux grammes ; exemple : un kilo de neige plus un autre kilo cela fait parfois une avalanche et la somme des causes n’entraîne pas seulement la somme des effets : la somme de deux petits nuages ne donne pas un gros nuage mais un nuage de type différent ou de la pluie * le tout n’est pas la somme de ses parties ; ainsi le climat d’une région n’est pas la somme de micro-climats locaux pas plus que ceux-ci ne sont la simple réplique du climat global, des phénomènes locaux peuvent l’emporter sur des phénomènes globaux, * et, de même, les événements à une échelle temporelle ne sont pas la somme des événements à l’échelle inférieure ; des événements à petite échelle peuvent très bien avoir plus d’influence que ceux à grande échelle : c’est la sensibilité aux conditions initiales qui provient des possibilités d’amplification, * les phénomènes sont fondés sur des contradictions qui, loin de s’annuler, se confortent et, du coup, l’ensemble ne mène pas à un équilibre mais à des structures fondées sur l’instabilité et c’est l’auto-organisation de ces structures qui est la base de l’innovation des phénomènes fondés sur la non-linéarité. La conception du chaos déterministe a modifié considérablement l’image que nous avions de ce que peuvent produire des lois naturelles. Et notamment, nous avons appris que la dynamique construite par des lois peut être évolutive, introduisant les modifications brutales et globales de toute une structure. J’avais tenté de le montrer la dernière fois à propos du vivant. Mais il en va de même pour la météo. La dynamique naturelle est capable sans changement extérieur non seulement de faire varier quantitativement une variable mais de modifier toute la structure, sans qu’il soit nécessaire de supposer que l’homme agit sur le climat. Bien sûr, en disant cela je ne m’oppose nullement à ce que l’on se préoccupe d’écologie. Mais est-il besoin pour défendre les forêts de prétendre qu’elles seraient le poumon de la planète ? Est-il nécessaire pour refuser la pollution comme une fatalité du monde industriel de menacer ce monde de toutes les catastrophes très hypothétiques du réchauffement global linéaire, de la montée des eaux, de la désertification et des inondations ? La baisse des émissions de gaz carbonique dans les villes est nécessaire pour avoir un air respirable pour les habitants et il n’est pas besoin d’arguments supplémentaires tirés par les cheveux. On sait que l’homme peut nuire au cadre naturel même s’il est incapable d’agir sur le climat global qui dépasse sans doute sa portée. Un simple prion ESB essaimant du fait de l’irresponsabilité de quelques décideurs, une simple pollution par une centrale nucléaire ou par des déchets enfouis dans l’océan peuvent tout à fait détruire l’environnement. Cela n’a plus besoin d’être prouvé, ni par l’effet de serre ni par un autre effet physique. Nous inventer des dangers imaginaires ne nous protégera pas des vrais dangers. Préserver notre cadre naturel est un bon objectif mais cela nécessite de le comprendre. Et tel était le but de mon exposé. Je voudrai conseiller deux ouvrages :
- " La dynamique du temps et du climat " de Marcel Leroux chez Dunod qui me semble l’ouvrage le plus clair sur l’évolution actuelle du climat et le lien avec les Anticyclones Mobiles Polaires, les fameux AMP,
- et un très gros ouvrage collectif très intéressant qui récapitule nos connaissances depuis la place de la terre dans l’espace à l’évolution de la vie et à l’homme, en passant par le climat et la tectonique des plaques : " Sciences de la terre et de l’univers " chez Vuibert. J’ai donc parcouru un certain nombre d’études du climat. Et je vous ai fait supporter tout cela pour vous dire finalement que je ne peux prédire le temps. Rappelez-vous qu’aucun météorologue n’avait prédit le caractère catastrophique qu’aurait la tempête de 1999 en France. Et c’est très loin d’être la seule fois qu’un épisode climatique brutal n’a pas pu être deviné par la simple lecture des évolutions qui l’ont précédé. La météorologie est, par nature, sujette à événements brutaux qu’aucun élément n’a indiqué et qui ne sont pas le produit d’une évolution lente précédente. Comme vous le voyez, la météorologie pousse à la modestie !

L’étude d’échantillons de glace de l’Antarctique (les carottes ont été prélevées dans des puits forés à proximité de la station russe Vostok) n’a pas démenti l’existence d’un rapport entre les paramètres tels que la teneur en gaz carbonique de l’atmosphère et le changement de sa température. Il importe cependant de savoir ce qui en est la cause et ce qui en est la conséquence.

Il a été établi que la courbe des variations de température dépassait toujours légèrement les changements de concentration du dioxyde de carbone (CO2). C’est donc la hausse des températures qui serait la cause. La chaleur réchauffe la couche supérieure de l’océan, ce principal conservateur du gaz carbonique (qui en recèle 60 à 90 fois plus que l’atmosphère), et un "effet champagne" se produit. Si la bouteille est chaude, un jet jaillit, alors que dans une bouteille refroidie, le gaz se montre passif.

En se réchauffant, l’océan commence à "expirer" davantage de gaz carbonique, qui s’élève dans l’atmosphère. Sa présence augmente le facteur anthropique (on ne peut pas nier ce fait de manière générale), mais sa proportion est très insignifiante et "ne fait pas la pluie ni le beau temps". Quoi qu’il en soit, au vu de l’actuel niveau d’émissions industrielles de gaz carbonique, se chiffrant entre 5 et 7 milliards de tonnes par an, la température sur Terre n’évoluera guère jusqu’en 2100. Et même si la concentration de "gaz à effet de serre" double, l’homme ne le sentira pas.

Non seulement le gaz carbonique ne produit aucun effet nuisible sur le climat, mais il peut même s’avérer utile étant donné qu’il stimule le développement de la vie sur la planète en jouant le rôle de "pain" pour les plantes. En témoigne notamment la "révolution verte", à savoir une augmentation brusque et universelle du rendement des cultures agricoles au milieu du XXe siècle. De nombreuses expériences ont démontré l’existence d’une dépendance directe entre le rendement et la teneur en CO2 de l’air.

L’influence du gaz carbonique se manifeste dans l’activité synoptique plutôt que dans les changements climatiques. Le CO2 absorbe le rayonnement infrarouge, c’est un fait. Supposons que dans les couches proches de la surface du sol, l’air s’est réchauffé à tel point que le gaz carbonique qu’il contient a absorbé le rayonnement infrarouge. Par conséquent, le rayonnement disparaît et son énergie est communiquée aux mouvements oscillatoires du gaz, ce qui entraîne une expansion et une perte de volume. L’air chaud monte dans la stratosphère et des flux froids en descendent, c’est-à-dire que les couches s’entremêlent. La température ne change guère, mais l’activité synoptique circule : cyclones, anticyclones, etc. s’accélèrent. Voilà ce qui explique les phénomènes naturels comme les ouragans, les tempêtes, les tornades, et ainsi de suite. Leur intensité peut effectivement dépendre de la concentration de CO2, c’est pourquoi la réduction de la teneur en gaz carbonique de l’atmosphère pourrait en effet donner un certain résultat dans la lutte contre ces sinistres.

Or, le CO2 n’a absolument rien à voir avec les changements globaux des températures. Et ce, ne serait-ce que parce que l’activité solaire, de par son énergie, est plusieurs milliers de fois plus puissante que l’ensemble de l’énergie produite par l’humanité. En somme, l’influence anthropique ne correspond pas plus pour la nature qu’à une piqure de moustique pour l’homme.

Une catastrophe liée à une augmentation de la température ne pourra jamais survenir sur la Terre. Parmi toutes les planètes du système solaire, seule la Terre possède une atmosphère unique qui assure un climat favorable au développement des formes de vie supérieures. Ceci est dû à l’heureuse coïncidence de plusieurs facteurs : le Soleil est une "étoile calme", la Terre se trouve à une distance optimale de cet astre, elle possède un satellite massif, la Lune, et ainsi de suite. Des conditions climatiques confortables sur notre planète se sont formées entre autres grâce à l’interdépendance entre l’évolution du biote terrestre et le développement de l’atmosphère.

Ces liens régulateurs rétroactifs sont multiformes, et le principal d’entre eux agit par l’intermédiaire de l’albédo terrestre (rapport de l’énergie solaire réfléchie par une surface sur l’énergie solaire reçue), qui constitue une sorte de régulateur du régime de température de la Terre. Supposons que les températures augmentent (comme c’est le cas aujourd’hui). Par conséquent, le taux d’évaporation de l’océan s’accroit, la couche de nuages retenant l’énergie solaire se densifie, ce qui entraîne une baisse des températures. Et inversement.

Comment doit-on percevoir le problème de climat ? Il faut se montrer serein et pragmatique en acceptant l’état des choses dicté par la nature. Cela ne vaut pas la peine de paniquer en prévision d’une "fonte rapide" des glaces de l’océan Glacial Arctique (et qui précèderait leur disparition). Les explorateurs des pôles affirment, à ce propos, que les calottes glaciaires de l’Arctique et de l’Antarctique ne font que croître. Par conséquent, l’avenir de la Terre sera lié à une nouvelle période glaciaire, encore plus rude que la précédente, ce que démontrent les calculs physiques et mathématiques.

Et surtout, l’avenir de la planète est lié à l’avenir social et politique, à savoir à la capacité de l’humanité de passer du capitalisme, toujours limité et porteur de crises et de guerres, au socialisme.

C- Dangers des OGM

Un débat piégé

Avant d’énoncer ces arguments et de tenter de montrer la logique qui sous-tend l’utilisation des OGM, il est d’abord nécessaire de faire un sort à certains d’entre eux qu’il apparaît préférable de ne pas utiliser, ne serait-ce que parce qu’un tel usage est douteux. Il s’agit de toutes ces prises de position prétendument philosophiques qui découlent en fait d’une morale religieuse sur le caractère sacré du vivant, le fait qu’on ne peut pas toucher au vivant en vertu d’on ne sait quelle échelle des êtres. De telles prises de position sont d’abord gênantes en raison de leur caractère confus. Ensuite et surtout, le combat contre les OGM n’est pas une lutte de la vie contre la science ; le soutenir aboutit à se transformer en cibles de choix pour les tenants de ces technologies, toujours promptes à brandir l’étendard de la science contre l’obscurantisme. C’était notamment le cas d’une tribune du Pr. Tubjana publiée dans un récent numéro du Magazine littéraire consacré… au bonheur [2] : les malheureux égarés demeurant réticents aux OGM se trouvaient qualifiés d’irrationalistes s’inscrivant dans un mouvement plus ou moins millénariste d’opposition à la science. C’est aussi le cas (parmi tant d’autres) de l’ouvrage récent de Louis-Marie Houdebine (directeur de recherche à l’INRA), OGM le vrai et le faux (en fait surtout le faux au vu des falsifications sans nombre qui témoignent cependant du réel talent de l’auteur pour la fiction [3]) : celui-ci assimile les opposants aux OGM à des sauvages en pleine phase de régression qui n’aspirent qu’à retourner à l’époque des cavernes. Ce type d’intervention a au moins un mérite : elle donne à ceux qui s’opposent à l’utilisation des OGM un axe polémique puisque c’est précisément la rationalité (technologique, économique, politique et sociale) d’une telle utilisation qui est en débat et qu’un tel débat n’oppose pas la science et la communauté scientifique dans son ensemble à une bande de technophobes hostiles à toute rationalité. Dans le milieu de la recherche scientifique, il se trouve d’ailleurs plusieurs voix dissonantes [1][4] pour souligner que les OGM sont des constructions génétiques bâclées à seule fin de rentabilité immédiate des investissements consentis, mais il doit sans doute s’agir de ces chercheurs « fondamentalement conservateurs et rebelles aux innovations » dénoncés par M. Houdebine.

Le débat sur les OGM n’est pas seulement piégé en raison des postures stéréotypées auxquelles on tente de ramener les protagonistes. Il l’est aussi en raison de son caractère partiel, notamment dans les médias, où la question n’est le plus souvent envisagée que sous l’angle sanitaire [5]. Dans cette perspective, la seule question valable est alors la suivante : quelles sont les conséquences immédiates de la consommation d’organismes génétiquement modifiés sur la santé des individus qui les consomment ? La focalisation sur les problèmes sanitaires, même si elle s’alimente (si l’on ose dire) à la méfiance provoquée chez nos concitoyens par la crise de la vache folle, n’en est pas moins suspecte. Elle vise à cantonner la contestation anti-OGM à une simple protestation de consommateurs sans prendre en compte les implications globales que recèle l’utilisation de ce prétendu progrès technologique. Il faut le répéter : nous ne sommes pas Que choisir ? (surtout si nous devons choisir entre des animaux gavés de farine animale et des bêtes nourries au soja transgénique), ni même 6 Milliards de Consommateurs. Il serait d’autant plus dangereux de limiter le débat sur les OGM à cet aspect que les autorités françaises et européennes sont prêtes à lever le moratoire qui pèse aujourd’hui sur l’importation de ces produits « lorsqu’une traçabilité complète des OGM aura été effectivement mise en place[6] ».

« Où y’a du gène, y’a pas de plaisir »

L’un des principaux arguments des OGManiaques, c’est que leurs produits ne sont pas dangereux pour la santé [7]. Il n’est pas sûr cependant que sur ce terrain pourtant soigneusement balisé, où il est fait bon marché (comme on dit) des autres dimensions de la question, on puisse ainsi accorder un blanc-seing à des arguments qui n’ont souvent de la scientificité que l’apparence. Pour répondre à l’idée que les OGM ne seraient pas nocifs pour la santé, trois types de réponses sont mobilisables .

D’abord cela reste à prouver ; ainsi, une simple visite sur le site internet de l’INRA permet de découvrir au détour d’une phrase que les chercheurs de cet institut n’en savent rien eux-mêmes. En fait, une telle ignorance est tout sauf étonnante car en matière d’OGM, l’ignorance est produite par la manière même dont fonctionne cette industrie : pour que l’on sache quelque chose de précis sur le caractère nocif des OGM sur la santé des consommateurs, il faudrait qu’aient été entreprises des études épidémiologiques de grande ampleur, prenant de longues années, coûtant de l’argent, toutes choses que ne peuvent se permettre des labos préoccupés pour l’essentiel par la rentabilité immédiate de leurs produits. Presque tous les crédits vont aujourd’hui au développement de nouvelles espèces transgéniques et non à des tests sur la viabilité à long terme et le caractère inoffensif de ces produits. En outre, les problèmes que pose la consommation et la mise en culture d’OGM ne se réduisent pas à une simple histoire de toxicité : Les OGM contenant des gènes de résistance aux antibiotiques risquent de rendre certains traitements antibiotiques inefficaces. Ces gènes n ?apportent aucun bénéfice ni au cultivateur, ni au consommateur. Ils sont simplement utilisés en laboratoire comme « marqueurs » permettant de détecter à moindre coût la réussite de la modification génétique opérée. Cependant, leur propagation incontrôlable augmentera probablement le nombre de bactéries résistantes aux traitements antibiotiques, qui sont pourtant, dans bien des cas, les seuls réellement efficaces. Les développements de l ?élevage intensif, où les antibiotiques sont massivement utilisés afin d ?augmenter les rendements, nous ont déjà donné quelques raisons de craindre de tels dangers : on a vu ainsi des personnes chez qui des antibiotiques qui ne leur avait jamais été prescrits devenaient inopérants.[8]. L’utilisation abusive des antibiotiques fait que les bactéries sont de plus en plus souvent à leur contact. Dans ce contexte, ne survivent que celles qui ont acquis une résistance contre ces antibiotiques. Ce sont donc elles qui, de plus en plus fréquemment, sont à l’origine des infections, qui ne peuvent donc pas être soignées par les antibiotiques ! Apparemment, de telles préoccupations sont bien loin de celles des fabriquants d’OGM.

Par ailleurs, le problème de la consommation des OGM ne se limite pas aux effets immédiats, cliniques, sur la santé d’individus atomisés. Ce qui est en jeu dans l’alimentation, c’est aussi un certain mode de vie collectif lié à l’existence même de la société. Or avec les OGM, on aboutit à une standardisation des modes de vie, à une réduction du nombre d’espèces consommées, ce qui ne fait en réalité qu’accentuer une tendance déjà bien amorcée : l’utilisation des OGM est d’une nouveauté toute relative, selon le fameux principe du vieux vin dans des bouteilles neuves. De même qu’il est aujourd’hui difficile de trouver plus de 4 ou 5 variétés de pommes en supermarché, il n’est pas impossible que les Chinois, qui cultivent à l’heure actuelle plus d’une centaine de types de riz, soigneusement sélectionnés depuis plusieurs siècles en fonction des particularités locales, ne cultivent plus d’ici quelques années qu’une petite dizaine de variétés fabriquées en laboratoire pour leur capacité à pousser plus vite [9]. En effet, les dirigeants chinois favorisent actuellement d’une manière totalement inconsciente l’implantation d’OGM dans l’agriculture, alors que les problèmes alimentaires de la Chine proviennent certes de l’augmentation de sa population, mais aussi de la diminution dramatique de la surface agricole utile (progrès de la désertification à l’ouest et de l’urbanisation désordonnée ailleurs). Ainsi, quand bien même la nocivité des OGM ne serait pas prouvée, ceux-ci n’en restent pas moins l’une des sources de ce que José Bové a nommé la malbouffe. Or le combat contre la malbouffe, ce n’est pas une simple défense de la santé d’individus pris dans leur seule dimension de consommateurs isolés : c’est aussi une lutte contre la standardisation des modes de vie, standardisation qui répond à celle des modes de production, et ce n’est pas le moindre intérêt de ce combat que de permettre de lier les questions de la production et de la consommation (à production dégueulasse, produits dégueulasses).

Troisième argument à mobiliser face à ceux qui, soudain préoccupés par notre santé, nous disent, « ne vous en faites pas, vous ne serez pas malades » : quand bien même ce serait vrai, les problèmes fondamentaux posés par l’utilisation des OGM ne sont sans doute pas là. Ces enjeux majeurs, on peut au contraire tenter de les développer sur deux axes : d’abord celui de la pollution génétique causée par les OGM, ensuite et surtout la logique de mise en dépendance des économies paysannes dans laquelle s’insère l’utilisation des OGM.

Bienvenue à Jardiland

Pour ce qui est des problèmes environnementaux liés à une telle utilisation, une documentation abondante a montré depuis plusieurs années qu’ils étaient légion. Dans un rapport vieux de quatre ans (mars 1997), la Confédération Paysanne dénonçait déjà les risques de pollution génétique en s’appuyant sur des études montrant qu’un gène du colza transgénique résistant à un herbicide rendait également résistantes toute une gamme de plantes proches du colza, dont la moutarde. En attendant que celle-ci nous monte définitivement au nez, nous pouvons craindre avec raison qu’il en aille de même des différentes plantes transgéniques que les firmes agro-chimiques développent aujourd’hui. Aux risques de pollution génétique s’ajoutent, quoique d’une manière indirecte, les risques de pollution tout court. Le principe qui guide la mise au point de plantes génétiquement modifiées est actuellement de les rendre résistantes à une gamme de produit chimiques en tous genres (des herbicides dans 70 % des cas, mais aussi des pesticides, des fongicides et des insecticides), souvent vendus par la marque qui développe elle-même ces OGM. Ainsi, comme le note le rapport déjà cité de la Confédération Paysanne, « la firme PGS, en introduisant dans un colza un gène de résistance au glufosinate d’ammonium, substance active du Basta, l’herbicide de sa maison mère Agrevo, va pouvoir de fait, obliger les agriculteurs qui mettront en culture le colza PGS, à s’approvisionner avec l’herbicide Basta. Ces produits seront vendus en lot, la boucle sera bouclée et Agrevo aura ainsi trouvé le moyen de rendre les agriculteurs encore plus captifs ». Quant à Monsanto (qui est à la source de près de 80 % des investissements dans le domaine des plantes génétiquement modifiées), n’ayant plus rien à craindre d’une résistance généralisée des plantes à son herbicide Round Up (et à son principe actif le glyphosate) passé dans le domaine public, elle a lancé une variété de soja résistant précisément à cet insecticide. Le risque est alors grand de voir des agriculteurs peu soucieux de l’environnement (ou rendus exagérément soucieux de leurs profits en raison de leurs traites au Crédit Agricole) se mettre à arroser leurs champs comme des dingues avec des insecticides nocifs pour l’environnement (nappes phréatiques et rivières polluées, réduction de la biodiversité, etc.).

Malheureusement, dans ce domaine comme dans celui de la santé, une ignorance largement produite par les choix des laboratoires se substitue à des connaissances qui ont pour seul défaut d’intéresser le plus grand nombre : pour les mêmes raisons de rentabilité immédiate que dans le cas des conséquences sanitaires liées aux OGM, la recherche sur les conséquences écologiques (qu’il s’agisse de pollution génétique ou de l’incitation directe à polluer à coups d’herbicides) bénéficie ainsi (si l’on peut dire) de crédits dérisoires par rapport à ceux alloués au développement de plantes transgéniques. L’argument selon lequel c’est en essayant d’implanter ces OGM dans la nature qu’on verra les conséquences qu’ils ont sur l’environnement ne vaut évidemment pas cher (même s’il rapporte beaucoup à ceux qui parviennent par là à persuader quelques gouvernements faussement naïfs) : une fois semés, les OGM peuvent essaimer et, comme ce fut le cas récemment dans plusieurs régions françaises [10], des agriculteurs n’ayant jamais semé d’OGM ont la désagréable surprise de voir leurs champs en contenir plus d’1 %. Il s’agit en fait d’un moyen d’introduire les OGM par la marge – les mêmes industriels qui prônent ces tests grandeur « nature » arguent en même temps de l’impossibilité d’empêcher la dissémination pour s’opposer à la mise en place de filières sans OGM [11].

Complicité des pouvoirs publics

Les enjeux économiques et sociaux liés aux OGM sont sans doute les plus importants ; ce sont aussi ceux qui sont le moins traités dans les médias (paradoxe qui, comme souvent, n’est qu’apparent), et lorsqu’ils le sont, c’est sous un biais qui fausse quelque peu les choses et nécessite une mise au point sur le rôle des services « publics » dans cette affaire. A la lecture du dossier consacré par le journal Le Monde dans son supplément « Economie » du 17 octobre 2000 à la question des OGM, on pourrait en effet avoir l’impression que les Etats européens sont aux côtés des pays du Sud dans la lutte contre l’utilisation d’organismes génétiquement modifiés en agriculture. Un examen plus serré de la question amène à relativiser très fortement cet élan de générosité tiers-mondiste : les réticences européennes sur les OGM cesseront sans doute lorsque les firmes agro-chimiques de cette zone auront rattrapé leur retard en termes de recherche. Quant au moratoire sur les OGM, on a vu qu’il ne tenait qu’à un fil, celui d’un prétendu souci de traçabilité qui masque en fait les craintes des gouvernements européens de se voir compromis dans des scandales alimentaires de grande ampleur. C’est bien parce qu’ils ont eu affaire à une opinion publique remontée par ces scandales qu’ils ont été amenés à revoir leurs ambitions transgéniques à la baisse. Un simple compte-rendu des décisions concrètes prises ces derniers mois par les dirigeants européens suffirait de toute façon à s’en convaincre : le parlement européen et le conseil d’Etat français, deux institutions qui ne peuvent guère craindre la pression de la rue, ont rendu des décisions favorables à l’implantation d’OGM « pour voir » [12]. De même, le gouvernement français s’est opposé en juillet dernier à l’arrachage de 4 500 ha de maïs transgénique, sous le brillant prétexte d’un refus de toute « position dogmatique », félicité en cela par l’Association générale des producteurs de maïs : un soutien bien mérité. Il faut sans doute voir là la traduction gouvernementale de ce que Marylise Lebranchu appelait « impulser la tenue de débats publics sur les OGM, expression directe des citoyens organisée par des associations, dont la synthèse serait transmise au gouvernement [13] ».

Cette position embarrassée des pouvoirs publics européens s’inscrit en fait dans le cadre plus général du rôle des pouvoirs publics dans l’imposition des OGM aux agriculteurs. Ce rôle est attesté à la fois dans les politiques de recherche qui sont suivies et par un usage tendancieux de la législation. Dans les travaux menés à l’heure actuelle dans le domaine des biotechnologies, la frontière entre recherche publique et recherche privée est loin d’être étanche. Ainsi, le programme BioAvenir, lancé dès 1990 par Rhône-Poulenc, mêle 600 millions de francs de fonds publics et 400 millions de fonds privés, tout cela sous la direction de la firme privée (en l’occurrence privée de tout sauf de ressources) et à son bénéfice exclusif. Le programme Génoplante, bien connu de tou(te)s les Aarrgonautes depuis une petite virée à Evry le 8 février 2001, obéit au même type de logique . C’est donc en vain qu’on oppose une recherche en fait prétendument publique à la recherche privée, tant il est vrai que les deux travaillent main dans la main au profit des mêmes projets décidés sans le moindre contrôle démocratique. Dans ce cadre, le procès (en particulier médiatique) fait à José Bové pour la destruction de plants de riz transgénique dans une serre du CIRAD ne se justifie guère, d’autant que cette action a été entreprise dans le cadre de la venue en France d’une caravane de paysans indiens qui ont eux-mêmes participé à la destruction des plants en question.

Ce qui vaut pour la recherche publique vaut a fortiori pour le cadre juridique dans lequel s’insère l’imposition des organismes génétiquement modifiés. En effet, l’Etat aide objectivement les firmes productrices d’OGM par le biais de la législation qu’il met en œuvre. Aux Etats-Unis, les procédures d’homologation des OGM ont été tout spécialement simplifiées et les autorités ne cachent pas leur désir de convaincre leur population de l’innocuité, donc du caractère inoffensif de ces produits . De même, une interprétation très tendancieuse du droit des brevets a permis d’autoriser le brevetage du vivant des deux côtés de l’Atlantique (condition indispensable pour que les OGM puissent constituer une source de profits), en Europe avec l’adoption de la directive 98/44 CE qui stipule qu’" une matière biologique isolée de son environnement naturel ou produite à l’aide d’un procédé technique peut être l’objet d’une invention, même lorsqu’elle préexistait à l’état naturel " (Art. 3, alinéa 2). En somme, on peut inventer ce qui existait déjà, manière commode, on y reviendra, de dire les droits du plus fort à piller le patrimoine génétique du plus démuni. Enfin, c’est dans le cadre de négociations internationales entre Etats (comme celle de Montréal intervenue un mois après le fiasco de Seattle) que sont décidées des mesures de déréglementation dans le domaine du commerce d’OGM. Le développement de ces produits et leur commercialisation s’opèrent donc avec la complicité des pouvoirs " publics ".

La question des OGM permet ainsi de pointer quelque chose de fondamental dans le fonctionnement de l’économie mondiale : d’une part le rôle objectif des Etats concernés, d’autre part le fait qu’une simple régulation des échanges entre pays du Nord ne saurait suffire à nous prémunir de ce fléau (autant imaginer un « commerce équitable des OGM »). Dans le cas des biotechnologies, c’est bien la nature des produits échangés et du modèle social qu’ils véhiculent qui est en cause.

La mise en dépendance des économies paysannes

Ce modèle social, c’est celui d’une agriculture productiviste, dont les principaux acteurs, les paysans, s’endettent par surabondance d’investissements coûteux avec la bénédiction du Crédit Agricole et de la FNSEA et sont dépendants des firmes agro-chimiques. La mise en dépendance des économies paysannes se vérifie aujourd’hui aussi bien d’un point de vue technique que d’un point de vue économique. D’abord, les paysans perdent leur autonomie relative par l’interdiction de fait qui leur imposée de réensemencer : les firmes pourvoyeuses de semence distribuent en effet des variétés hybrides rendues stériles. Si le projet de semence Terminator cher à Monsanto a été abandonné avec fracas, il ne doit pas rendre sourd à la nouvelle « invention » née dans cette entreprise qui fait décidément preuve d’un grand génie créatif en matière de nuisance : le projet Traitor (eh oui) qu’évoquait le directeur de recherches à l’INRA J.-P. Berlan dans une lettre ouverte à ses collègues OGManiaques consiste en effet à générer des plantes qui ne pourront pousser qu’en présence d’un certain produit chimique… vendu par ce même Monsanto. L’assujettissement technique des agriculteurs aboutit ainsi à un gaspillage de technologies et de produits chimiques, sans aucune prise en compte d’éventuels dégâts écologiques.

Si tous les arguments précédents n’avaient pas suffi à convaincre du caractère peu rationnel de l’usage actuel des OGM, il peut être utile de jeter un regard sur la prétendue rationalité économique et humanitaire d’un tel usage. Les arguments économiques en faveur des OGM sont les suivants : ils permettent d’augmenter la rentabilité des exploitations agricoles et de satisfaire une demande alimentaire croissante. L’argument de la rentabilité ne tient pas la route : si les semences transgéniques sont moins chères, c’est à seule fin de les imposer plus rapidement sur le marché, et elles peuvent bien permettre d’accroître les rendements si corrélativement le volume des investissements nécessaire est plus important et si les paysans se retrouvent de plus en plus intégrés dans un système agro-industriel qui les exploite. Est ainsi ruinée toute autonomie technique et économique de la paysannerie mondiale et c’est sans doute avec raison que les représentants africains de la FAO à la 5ème session extraordinaire de la commission des ressources génétiques, qui s’est tenue du 8 au 12 juin 1998 à Rome, déclaraient : « nous ne croyons pas que ces compagnies ou ces technologies génétiques aideront nos paysans à produire la nourriture nécessaire au XXIème siècle. Au contraire, nous pensons qu’elles détruiront la diversité, les savoir-faire locaux et les pratiques agricoles durables que nos paysans ont développé depuis des millénaires, sapant ainsi notre capacité à nous nourrir nous-mêmes ». Quant au fait de réussir à nourrir la population mondiale, il n’est pas certain qu’un modèle d’agriculture productiviste augmentant le volume d’intrants et détruisant des terres arables puisse y satisfaire. En outre, les difficultés alimentaires des pays du Sud ont peu de liens avec de supposées insuffisances locales : elles découlent de la manière dont fonctionne les échanges de produits agricoles au niveau mondial, les pays du Nord écoulant par exemple les surplus de leur agriculture subventionnée après avoir imposé une ouverture des barrières douanières, ruinant ainsi les paysanneries locales et les obligeant à se reconvertir dans des monocultures intensives d’exportation.

Il faut enfin souligner le lien entre la question des OGM et celle de la brevetabilité du vivant. Le principe technique des OGM consiste à introduire dans une plante d’une espèce donnée un gène venant d’une autre espèce (d’ailleurs pas forcément végétale). Or la majorité du patrimoine génétique mondial est détenue par les pays du Sud : c’est tout l’enjeu de la brevetabilité du vivant que de priver ces pays de leurs ressources pour en faire profiter quelques multinationales. Pourtant, la brevetabilité du vivant ne va pas sans poser quelques questions d’ordre politique, juridique et économique : politique d’abord parce qu’elle consiste à établir un rapport de domination de plus en plus important entre le nord et le sud (on en arrive à cette situation où les paysans du sud se voient intimés l’ordre de ne pas utiliser une plante indigène sous prétexte qu’une multinationale en a breveté les gènes [15]) ; juridique ensuite parce qu’il n’est pas certain que ce soit le gène comme tel qui soit brevetable (il existe déjà, on n’a fait que le découvrir) mais plutôt le procédé technique qui permet de l’extraire (or de ces procédés, il n’y en a pas des tonnes et c’est une source de profits limitée) – les promoteurs des OGM s’en sont pour l’instant tiré en arguant de ce qu’ils ne brevetaient pas le vivant mais « la matière vivante » ; économique enfin parce qu’il apparaît que cette brevetabilité du vivant sera nuisible aux économies dites en développement (ou émergente) en les empêchant d’utiliser jusqu’aux ressources naturelles qu’elles ont à leur disposition.

La résistance s’organise

Pour contrer ces tendances désastreuses, une résistance concrète est déjà à l’œuvre : signalons notamment la création des coopératives de production et de distribution de semences, telles la banque de semences du KRRS (syndicat paysan du sud de l’Inde), et l’ONG brésilienne Ipê vient de faire parler d’elle à Porto Alegre en réclamant la possibilité de « l’échange libre des semences [16] ».

De notre côté, nous aimerions soutenir des revendications dans les directions suivantes :

- pas d’OGM dans nos assiettes, que ce soit directement (alimentation humaine) ou indirectement (alimentation animale) ;

- un moratoire sur la mise en culture et la commercialisation des OGM : cette revendication, qui épargne la recherche en elle-même, aurait pour effet une redistribution des crédits de recherche au profit d’une étude des conséquences réelles de ces constructions génétiques sur les plans sanitaire, écologique et social ;

- dans le domaine juridique, le retrait de la directive européenne 98/44 CE et la mise au point d’une notion de bien commun international pour protéger le patrimoine génétique mondial de l’appétit des accapareurs.

[1]. « L’agriculture brésilienne en passe de succomber aux sirènes du soja génétiquement modifié », Le Monde 17/10/00.

[2]. Pour ceux qui n’ont pas eu la déveine de tomber sur cette « littérature », ajoutons que ce numéro était lui-même une horreur dans laquelle les grands cerveaux de notre temps (A. Glücksmann ou P. Brückner) nous livraient les clés de l’existence (comment avions-nous fait jusque là ?).

[3]. Louis-Marie Houdebine, OGM : le vrai et le faux, Ed. Le Pommier (transgénique ?) ; l’auteur soutient notamment que les nouveaux OGM n’ont plus de gènes résistants aux antibiotiques, que les herbicides sont une source de pollution négligeable, que l’étiquetage des aliments contenant des OGM existe aux Etats-Unis, etc. (voir « Les OGM sans vérité », Le Monde, 02/11/00).

[4]. Voir en particulier l’ouvrage de Gilles-Eric Seralini, professeur en biologie moléculaire à Caen, OGM, le vrai débat, Flammarion, collection « Dominos » (meilleur marché que le précédent et beaucoup mieux).

[5]. Voir l’article « Le soutien des consommateurs aux OGM commence à faiblir », Le Monde, 19/10/00 où, sous couvert de combattre la position extrême des industries agro-chimiques, l’opposition aux OGM est réduite à celle de consommateurs inquiets : il est loin le temps où ce type de journaux ne voyait plus en nous que des « citoyens », nous voilà désormais rabaissés au rang de consommateurs récalcitrants.

[6]. Lionel Jospin à Montpellier le 15/12/00 ; « La conférence de Montpellier s’accorde sur l’échange d’informations concernant les OGM », Le Monde, 17/12/00.

[7]. Les autres arguments sont : 1) que cela seul est à même de palier à l’accroissement de la demande alimentaire (ce qui est faux, voir infra) et 2) que de toute façon on n’a pas le choix (soit la résignation érigée en principe d’action).

[8]. Sur la multiplication des frais vétérinaires par tête de bétail qui accompagne le passage de l’élevage traditionnel à l’élevage intensif, voir le livre de José Bové et François Dufour, Le monde n’est pas une marchandise, des paysans contre la malbouffe, Ed. La Découverte. Les auteurs citent même le cas au Danemark d’une personne morte de n’avoir pu être soignée avec des antibiotiques à laquelle elle était devenue résistante par ce biais.

[9]. « La Chine ose les OGM », revue Milieu, décembre 2000 ; en dépit de son titre très « Nouvel économiste », il s’agit d’un article critique.

[10]. En Lorraine et en Bretagne en mai 2000, dans le sud-ouest en juin ; « Les semences d’Advanta face à un vide juridique », Le Monde, 21/05/00 et « OGM : laisser faire ? », Le Monde, 18/0700.

[11]. « Semenciers et agriculteurs jugent impossible la création d’une filière sans OGM en France », Le Monde, 30/11/00.

[12]. Le Monde des 14/04/00 (pour le parlement européen) et 24/11/00 (pour le conseil d’Etat).

[13]. Le Monde, 18/07/00.

[14]. Le Monde, 02/09/99.

[15]. C’est le cas du margousier, utilisé depuis des millénaires en Inde (comme l’avaient d’ailleurs prévu J. Bové et F. Dufour).

[16]. « Les semences seront-elles un jour déclarées patrimoine de l’humanité ? », Libération, 29/01/01.

Tiré du site de formation des Marxistes révolutionnaires

« On ne connaît pas les effets à long terme des OGM » J.B. (lefigaro.fr)

12/02/2009

Les réactions se multiplient après la publication du rapport de l’Afssa estimant que le maïs MON 2810 ne présente pas de danger pour la santé humaine. Les écologistes plaident pour une plus grande indépendance des agences menant les expertises.

Les conclusions du rapport de l’agence française de sécurité sanitaire des aliments (Afssa) concluant à l’innocuité pour la santé du maïs OGM MON 810 provoquent de vives réactions, aussi bien dans le champ politique que chez certains scientifiques. Premier à réagir jeudi matin, José Bové. L’ancien porte-parole de la Confédération paysanne a qualifié l’avis de l’Afssa de « coup de force du lobby pro-OGM, des industriels qui voudraient déstabiliser le ministre de l’environnement avant le débat à Bruxelles le 16 février prochain ». À cette date, Jean-Louis Borloo doit défendre devant la Commission européenne la clause de sauvegarde activée par la France début 2008, pour interdire la culture de ce maïs produit par la firme américaine Monsanto. Selon le leader altermondialiste, cet avis de l’Afssa est « complètement déconnecté des raisons qui ont amené la France à mettre en place la clause de sauvegarde ». « Ce qui ressort de cette affaire, c’est la nécessité d’une expertise indépendante », ajoute Bové, qui souligne que l’Afssa ou l’agence européenne de sécurité des aliments (Efsa), « ont toujours pris position en faveur des industriels sur la question des OGM ». Fin octobre 2008, l’Efsa avait émis un avis conforme à celui de l’Afsa.

Corinne Lepage évoque une « opération de manipulation » digne des « années Tchernobyl ». Corinne Lepage évoque une « opération de manipulation » digne des « années Tchernobyl ». Crédits photo : AFP

Même revendication d’indépendance des organes d’expertise chez Corinne Lepage, présidente du parti écologiste Cap21, aujourd’hui membre du MoDem. L’ancienne ministre de l’Environnement du gouvernement Juppé qualifie les « soi-disant rapports » de l’Afssa comme de l’Efsa d’« opération de manipulation » digne des « années Tchernobyl ». « Quand on sait qu’aucune étude publique n’a été menée directement pour étudier le comportement de rats ayant consommé des OGM, que les seules études disponibles sont celles des producteurs de maïs » et que le ministre de l’Agriculture Michel Barnier « refuse de communiquer les études précisément sur le MON 810 (...) on comprend l’opération de manipulation en cours ». Quant au député Vert Noël Mamère, il a demandé au ministre de l’Ecologie Jean-Louis Borloo de « refuser toute levée de la clause de sauvegarde ». Il réclame une réforme de toutes les agences françaises et européennes chargées d’émettre des avis sur des sujets aussi sensibles afin de leur donner plus d’indépendance et « la possibilité d’expertises contradictoires ».

« Manque de transparence du gouvernement »

France nature environnement a dénoncé « un avis politique », Arnaud Apoteker, de Greenpeace, juge lui « scandaleux qu’une agence publique garde un tel rapport secret et en organise les fuites à la veille d’une décision européenne ». L’Afsa a indirectement répondu jeudi. Pascale Briand, directrice générale de l’agence, a estimé qu’« aucun secret particulier » n’avait entouré la publication de son avis. Quant au sénateur UMP Christian Demuynck, il a dénoncé le « manque de transparence du gouvernement » assurant que celui-ci « s’opposait depuis plusieurs semaines à la publication de cet avis ». « En persistant dans son refus de vouloir expérimenter des OGM, la France se retrouve exclue de la compétition mondiale sur les biotechnologies », souligne-t-il. Il appelle le gouvernement « à ouvrir un débat avec les scientifiques afin que chaque Français puisse se faire une idée sans avoir à subir les pressions des lobbies pro ou anti OGM ».

Parmi les scientifiques, le professeur Yvon Le Maho, auteur du rapport sur lequel la France s’était appuyée, l’an dernier, pour interdire la culture du MON 810, conteste l’interprétation faite de son travail. « Je ne suis pas arrivé à la conclusion qu’il n’y avait pas de nocivité pour la santé et l’environnement. Je n’ai jamais écrit qu’il y a nocivité, mais que je ne pouvais pas conclure », a-t-il précisé. Dans un entretien à l’AFP, il est revenu sur le contexte de des recherches : « J’ai travaillé pendant trois mois, honnêtement. Et j’ai consulté les spécialistes de toutes les disciplines concernées pour chaque aspect abordé », insiste-t-il. « Au départ j’étais plutôt pour les OGM, avant de me pencher sur le dossier. Mais aujourd’hui je n’ai aucune certitude scientifique ». Pour lui, les OGM ne « constituent pas une science dangereuse mais une absence de science ». « Les recherches doivent absolument se poursuivre : il s’agit d’une science bien étudiée au plan de la biologie moléculaire, mais il n’existe pas à ce jour son pendant scientifique au plan sanitaire et environnemental », estime-t-il. Globalement sur la même longueur d’ondes, Pierre-Henri Gouyon, scientifique du CNRS, estime qu’ »on ne connaît pas les effets à long terme des OGM (…) et on ne fait rien pour les connaître ». Pour le scientifique, qui critique le rôle de l’Afssa, « on peut dire qu’à l’heure actuelle il n’y a pas de preuve de toxicité (du MON 810), le problème est surtout qu’on fait si peu pour en trouver ».

1 Message

  • 7-6 Ecologie 3 octobre 2008 17:00, par Robert Paris

    Salut ! C’était pour vous signaler un article intéressant de Yann Kindo sur les OGM qui arrive à des conclusions différentes de celui qu’il y a sur le site.

    Répondre à ce message

Répondre à cet article

SPIP | squelette | | Plan du site | Suivre la vie du site RSS 2.0