Overblog Suivre ce blog
Administration Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

21 avril 2010 3 21 /04 /avril /2010 17:54

Une société fondée sur le brigandage de la pire espèce
par Jean-Paul Baquiast 20/04/2010

On pouvait penser que les sociétés dites occidentales avaient réussi à contrôler sinon éliminer les féodaux pilleurs et les chefs de bande assassins qui depuis l’Antiquité et jusqu’à aujourd’hui encore dans une grande partie du monde, ont imposé leurs lois aux faibles et aux démunis. Aujourd’hui, grâce peut-être à la difficulté croissante d’empêcher ces choses de se savoir, on découvre qu’il n’en est rien.

La vision du monde capitaliste moderne proposée par Jean de Maillard 1) se révèle véritablement la seule adéquate. Non seulement les entreprises libérales, qu’elles soient industrielles ou financières, s’organisent explicitement pour dérober le fruit de la production des milliards d’esclaves que le système oblige à travailler à son profit, mais les institutions d’Etat, se présentant aujourd’hui comme protectrices, cachent sous cette étiquette la volonté de permettre à ces mêmes entreprises de poursuivre leurs pillages et travail de mort en toute tranquillité.

L’affaire de Goldman Sachs 2)  qui vient à l’actualité parce qu’elle était trop grosse pour être entièrement cachée, illustre bien cette triste réalité. Ces mois-ci encore, au plus fort de la crise provoquée en grande partie par des brigandages de gens de son espèce, la banque Goldman Sachs a joué explicitement sur deux tableaux (au moins). Je simplifie. D’une part son département « placements de pères de famille » proposait aux épargnants des investissements prétendument de toute confiance notamment dans l’immobilier; et d’autre part son département « spéculation pour le compte de nos dirigeants et amis » sachant que ces titres devaient nécessairement se révéler pourris vu que les emprunteurs ne pourraient rembourser leurs emprunts et qu’en conséquence l’immobilier s’effondrerait, spéculait sur leur baisse pour en tirer profit.

Beaucoup de personnes ne comprennent pas ce dernier mécanisme. Il est pourtant simple, reposant sur le principe des ventes et achats à terme, le lait nourricier de toutes les spéculations. Si le 1er janvier j’anticipe qu’un titre quelconque, valant aujourd’hui 100, en vaudra 50 dans un mois, je cherche des acheteurs à terme s’engageant à l’acheter 100 le 1er février. Ces acheteurs prendront cet engagement s’ils sont persuadés que le cours restera stable pendant le mois, voire qu’il augmentera, par exemple à 110, ce qui leur permettait un bénéfice de 10 en revendant à 110 ce qu’ils auront acheté 100. Ils jouent « à la hausse » . Mais si pendant ce même mois de janvier le cours est effectivement tombé à 50, je n’aurai qu’à acheter un titre à 50 le 1er février et le revendre à 100 à ceux qui s’étaient engagés vis-à-vis de moi à me l’acheter. J’empocherai la différence, soit 50.

Les marchés à terme, dira-t-on, ont toujours fonctionné ainsi, opposant des proportions à peu près égales d’optimistes et de pessimistes, les uns et les autres n’hésitant pas à propager de fausses informations pour favoriser leurs paris sur l’évolution des cours. D’où les hauts cris de la finance lorsque certains esprits (égarés) parlent d’interdire les opérations à terme. Mais avec des méga-banques comme Goldman Sachs qui ont le pouvoir tout à la fois de conseiller des épargnants et investisseurs naïfs et d’orienter par des pratiques frauduleuses l’évolution des marchés au profit de leurs propres spéculations, le système devient criminel, à l’échelle d’un pays ou, mondialisation oblige, du monde entier.

Cependant, dira-t-on, les Etats sont là pour empêcher cela. Même s’ils se sont laissé jusqu’à ces derniers temps manipuler par les banquiers, on ne les y reprendra plus. A preuve le fait que la SEC (Securities and Echanges Commission), équivalent américain de notre propre gendarme la COB (Commission des Opérations de Bourse), entreprend aujourd’hui de poursuivre Goldman Sachs. Mais c’est là qu’il faut se dépouiller de toute naïveté rémanente, comme nous y invite Jean de Maillard. On peut parier sans risques (pour une fois) que globalement, il ne se passera rien:

1. Seules quelques têtes tomberont peut-être chez Goldman, après il est vrai avoir mis leurs profits bien à l’abri. Goldman pourra donc continuer comme avant.

2. Les banques américaines qui avaient pratiqué et continuent à pratiquer le même type de brigandage ne seront pas inquiétées, la profession étant supposées assainie.

3. Les prétendues réformes de Wall Street auxquelles Barack Obama affirme vouloir s’attacher après son “éclatant” succès dans le domaine de la sécurité sociale resteront des réformes de façade. Pour ne pas inquiéter Wall Street, à supposer que ces réformes soient décidées par le Congrès, les éminents conseillers d’Obama, dont le sinistre Paulson, feront valoir à leurs amis de la banque et de l’assurance qu’elles ne seront pas appliquées et qu’ils peuvent donc entreprendre de les frauder sans risques.

4. A supposer que de telles mesures réformatrices soient évoquées au niveau d’un future G8 ou G20, à supposer aussi qu’il se trouve des gouvernements pour décider d’en retenir quelques unes pas trop rigoureuses, on fera valoir à l’internationale de la banque et de la bourse que les mêmes règles prudentielles (lisons règles toute de prudence en vue de ménager les capitalistes) leurs seront appliqués.

5. Aussi bien, de par le monde, en Europe, en Asie et ailleurs, les prédateurs de la finance pourront continuer à se bâtir en toute confiance un avenir prometteur. Comme le conclut Paul Krugman (qui pourtant n’est pas plus sévère en son for intérieur vis à vis des banques que ne l’est Benoit VI vis-à-vis de qui l’on sait) « the racket will just go on ».

***

Il faut bien voir que l’internationale des prédateurs, des menteurs et des corrupteurs ne se limite pas au monde de la finance. Aujourd’hui, certains écologistes, par exemple, constatent avec effroi les millions de dollars consacrés par les industries des « vieilles énergies », de par le monde, à nier via des « Think Tanks » prétendument scientifiques, le rôle de la consommation de carburants fossiles dans le réchauffement climatique, sinon à nier le rôle de l’homme dans les formes récentes de celui-ci 3). Ces millions de dollars servent notamment à décrédibiliser les milliers de scientifiques de par le monde pouvant apporter la preuve du contraire.


Mais il n’y a pas que le climat à évoquer. Il y a aussi le volcanisme. Nous disposons d’un exemple récent illustrant (parmi des milliers d’autres) le rôle potentiellement meurtrier (nous pourrions dire volontairement potentiellement meurtrier) de certains industriels pour préserver leurs intérêts. Les 19 et 20 avril, voire ce jour encore, l’IATA (Organisation internationale des transporteurs aériens) s’est quasi unanimement élevée contre les restrictions de circulation dans l’espace aérien européen décidées par les gouvernements des pays affectés par le nuage. Ces braves gens, du fond de leurs fauteuils, prenaient donc, à supposer que les gouvernements les aient écoutés, le risque d’envoyer à la mer un certain nombre d’avions, équipages et passagers. Vous me direz: « Oui mais les gouvernements, plus prudents, n’a pas suivi l’IATA ». Heureusement donc que les Etats restent là pour nous protéger ». Les cyniques répondront qui le premier avion qui serait allé au tapis aurait entraîné dans sa chute le gouvernement coupable de laxisme. D’où la prudence des Etats. Ce n’est pas le cas dans le domaine financier. Les milliers de suicidés de la crise financière n’entraînent aucune responsabilité gouvernementale, directe ou indirecte. Ainsi « the racket will just go on ».

Notes
1) Voir de Jean de Maillard, « L’Arnaque » présentée dans http://www.europesolidaire.eu/article.php?article_id=458&r_id=
2) Voir l’article du pourtant modéré Paul Krugman dans le New York Times « Looters in Loafers » http://www.nytimes.com/2010/04/19/opinion/19krugman.html
3) Voir l’article de Stéphane Foucart « Qui finance les climato-sceptiques ? » Le Monde http://abonnes.lemonde.fr/planete/article/2010/04/19/qui-finance-le-climato-scepticisme_1338486_3244.html

13 avril 2010

Repost 0
8 avril 2010 4 08 /04 /avril /2010 17:21

Philosophie et méthodologies des sciences
Dialogue avec Howard Bloom
A quelles sortes de réalité se réfèrent nos connaissances?
par Jean-Paul Baquiast 08/04/2010

Texte en discussion

 

Introduction

Howard Bloom vient de m’écrire ce qui suit, ce dont je le remercie vivement:

Dear Jean-Paul, can you give me a bit of advice?

I’m working on my next book, The God Problem: The Five Heresies  OR The Big Bang Tango: Quarking in the Social Cosmos–Notes Toward a Post-Newtonian Science.

This calls for the massive, multi-disciplinary leaps that are your specialty.  The God Problem’s big question is this: How does the cosmos create?  In other words, how can we understand—and even learn to predict—emergent properties?

How does a potentia go from a nothing to a Big Bang?  How does a Big Bang produce space, time and speed?  How do space, time, and speed precipitate gazillions of quarks?  Why do quarks come complete with the rules that bunch them in groups of three?  When you put three quarks together, why do you get the emergent properties we call a neutron and a proton?

What are emergent properties, anyway?  How can we predict them just from knowing their constituents? And what determines the nature of each new shock that comes along—from atoms and gravity to stars and galaxies.  Not to mention molecules, mega-molecules, and life?  Where do all these shapes, forms, and processes come from?  What brings them to the realm of the real when by conventional scientific means they are shockingly unpredictable?

In other words it’s time to take metaphysics and ontogeny out of the closet of incomprehensibility, out of the fuzzy realm of philosophy, and into the realm of science.

My only tools of understanding are
·         The way that mathematical systems emerge from postulates or axioms—as in Peano’s Postulates or in Euclidean geometry.
·         The way that complex forms emerge from the simple rules of fractals.
·         And the way that complex “universes” emerge from the simple rules of cellular automata.

But these tools are all 35 years old.  They are antiques.   Surely there must be more current tools with which to unfold the mysteries of emergence. Do you know of any?

____________
Howard Bloom
On Amazon.com and in a bookstore near you–The Genius of the Beast: A Radical Re-Vision of Capitalism (”an extraordinary book, exhilaratingly-written and masterfully-researched. I couldn’t put it down.” James Burke)
http://www.howardbloom.net
Author of: The Lucifer Principle: A Scientific Expedition Into the Forces of History (”mesmerizing”-The Washington Post), Global Brain: The Evolution of Mass Mind From The Big Bang to the 21st Century (”reassuring and sobering”-The New Yorker), and How I Accidentally Started The Sixties (”a monumental, epic, glorious literary achievement.” Timothy Leary).
www.psychologytoday.com/blog/the-genius-the-beast
http://www.scientificblogging.com/howard_bloom
Former Core Faculty Member, The Graduate Institute; Former Visiting Scholar-Graduate Psychology Department, New York University
Founder: International Paleopsychology Project; Founder, Space Development Steering Committee; Founder: The Group Selection Squad; Founding Board Member: Epic of Evolution Society; Founding Board Member, The Darwin Project; Member Of Board Of Governors, National Space Society; Founder: The Big Bang Tango Media Lab; member: New York Academy of Sciences, American Association for the Advancement of Science, American Psychological Society, Academy of Political Science, Human Behavior and Evolution Society, International Society for Human Ethology, Scientific Advisory Board Member, Lifeboat Foundation; Advisory Board Member: The Buffalo Film Festival.
Special Advisor to the Board of the Retirement Income Industry Association


 

Ci dessous ma réponse à Howard, bien insuffisante je n’en doute pas. :

 

Cher Howard, vous vous posez la question (je cite en traduisant) de savoir comment le cosmos s’est créé? En d’autres termes, pouvons nous comprendre voire prédire les propriétés émergentes.
Comment le « rien » du monde quantique a donné naissance au Big Bang? Comment celui-ci a donné naissance à l’espace, au temps et à la vitesse? Comment ces propriétés ont fait apparaître les multitudes de quarks? Comment ceux-ci se sont-il regroupés par trois? Pourquoi quand on regroupe trois quarks voit on apparaître des neutrons et des protons?

Plus généralement, que sont les propriétés émergentes? Comment prédire leur apparition en ne connaissant que leurs composantes de départ? Qu’est-ce qui détermine la nature des nouvelles émergences qui apparaissent, des atomes à la gravité, aux étoiles et à la galaxie? Pour ne pas mentionner les molécules, les super-molécules et la vie? D’où viennent les structures, formes et processus en découlant, qui sont devenus des réalités solides alors que, au regard des théories scientifiques, ils étaient imprévisibles?

En d’autres termes, il est temps de sortir la métaphysique et l’ontologie de leurs sphères d’incompréhensibilité pour les faire entrer dans la sphère de la science.Pour répondre à ces questions, je ne dispose que de trois outils:

* les mathématiques montrant comment des constructions mathématiques émergent des postulats ou axiomes.
* Les fractales montrant comment des formes complexes émergent à partir des règles simples qu’elles se fixent au départ.
* Les automates cellulaires générant, là encore, des univers « complexes » à partir de leurs règles simples.

Mais ces outils sont des « antiquités », datant de plus de 35 ans. Il doit bien exister des outils plus récents permettant d’éclairer les mystères de l’émergence. Mais lesquels?

 

Résumé: Vous évoquez dans votre question l’espace, le temps, la vie…comme si derrière ces termes se trouvaient des réalités objectives émergentes dont il serait possible de découvrir les processus de création. Je propose au contraire de considérer ces termes comme des « contenus cognitifs émergents » dont nous nous bornons à constater la présence dans notre langage et par conséquent dans notre cerveau. Il serait pratiquement impossible d’aller au delà et d’inférer derrière ces contenus l’existence d’un univers en soi que nos cerveaux pourraient décrire. Le premier travail à faire consiste alors à s’ interroger sur la façon dont de tels contenus sont apparus et s’ imposent à nous.

 

L’étude des modalités selon lesquelles les cerveaux animaux ou humains acquièrent des représentations du monde (y compris en détectant des nouveautés qu’ils ne peuvent dans un premier temps expliquer et qu’ils devront faute de mieux nommer des émergences) a beaucoup appris de la robotique. Les roboticiens sont obligés de comprendre comment des robots évolutionnaires se construisent des représentations (ou cartographies) des milieux eux-mêmes évolutionnaires avec lesquels ils co-évoluent. Le neuroscientifique britannique Chris Frith, dans son ouvrage remarquable 1) Making up the mind - How Brain Creates our Mental World (Blackwell Publishing 2007) a proposé un modèle pertinent de la façon dont le cerveau construit ses contenus cognitifs, autrement dit le contenu de son esprit (mind). Il n’a pas particulièrement fait appel aux hypothèses de l’intelligence artificielle (IA) et de la robotique concernant la construction des systèmes cognitifs artificiels, mais aux yeux des roboticiens (et en tous cas à mes yeux), les deux types de processus sont extrêmement comparables – aux différences tenant à la longue histoire des cerveaux dans les systèmes biologiques comparée à la courte histoire de l’IA et de la robotique.


Ce type d’approche (réfléchir à la façon dont fonctionne l’outil de cognition qui nous procure des représentations du monde extérieur) me paraît préférable à l’approche beaucoup plus répandue, consistant à rechercher ce qu’il y aurait derrière les représentations du monde se construisant en permanence dans nos cerveaux. Ainsi, avant de se demander en quoi consistait le Big Bang ou comment s’est formé le Cosmos, il faut se demander pourquoi et comment dans notre cerveau ont été élaborés (ont émergé) ces deux concepts.

Faire des hypothèses sur ce qu’il y aurait derrière un hypothétique Big Bang oblige à postuler l’existence réelle de ce phénomène, autrement dit à postuler l’existence d’une « réalité objective extérieure à nous » que nous pourrions décrire en observateurs neutres. Or ceci est illusoire parce que cette description paraît scientifiquement impossible. L’observateur neutre que nous voudrions être est en effet partie inséparable de l’objet observé et de l’instrument d’observation. Il n’est donc pas neutre. C’est lui-même qu’il observe d’une certaine façon, malheureusement sans pouvoir s’en rendre compte. Même lorsqu’ils utilisent toutes les précautions de la méthode scientifique expérimentale, la plupart des scientifiques ont renoncé à la croyance en la possibilité de décrire, fut-ce de façon approchée, une réalité en soi ou objective. Ils ont rejoints en cela les physiciens quantiques s’adressant aux « objets » du monde quantique.


La façon dont procèdent nos cerveaux quand ils acquièrent des contenus cognitifs a été souvent décrite. Elle est de même nature que celle utilisée, à un niveau différent de complexité, par les cerveaux animaux et les cerveaux artificiels. Ces différents cerveaux sont incorporés à des corps dotés d’organes sensoriels et moteurs (ou organes d’entrée-sortie) qui les mettent en relation avec le monde extérieur. Le cerveau recevant de nouvelles données sensorielles les interprète à partir des références ou représentations déjà acquises, soit au niveau de l’espèce, soit au niveau de l’individu. Il les utilise pour élaborer de nouvelles hypothèses sur le monde qu’il expérimente en utilisant ses organes sensoriels et moteurs. Il tient compte du résultat de ces expériences pour modifier ses représentations. Le cycle se renouvelle en permanence: nouvelles entrées, nouvelles hypothèses, nouvelles vérifications, nouvelles représentations.


Nous nommerons ici systèmes cognitifs, biologiques ou artificiels, les systèmes fonctionnant de cette façon. Nous devons indiquer à ce stade de notre raisonnement qu’une question fondamentale se pose: qu’est-ce qui permet de dire que nos cerveaux fonctionnent de la façon ici décrite. Nous y reviendrons à la fin de cet article. Répondons dans l’immédiat que rien ne permet de l’affirmer. Il s’agit seulement, là encore, d’un contenu cognitif dont nous pouvons constater la présence dans nos cerveaux. Il présente l’avantage par rapport à


La mémorisation des expériences vécues par le sujet


A quoi correspondent les représentations du monde acquises par les systèmes cognitifs? Elles correspondent non pas, répétons le, à de prétendues réalités en soi que l’observateur découvrirait peu à peu, mais à la mémorisation des expériences acquises par le sujet ou ses ancêtres et s’étant révélées utiles à leur survie dans la compétition darwinienne qui les oppose aux autres au sein d’un monde lui-même en évolution permanente. Si mon cerveau range le lion dans la catégorie des entités « méchantes », ce n’est pas parce qu’il serait méchant en soi, ni même parce qu’il existerait en soi. C’est parce que le fait d’associer le qualificatif de méchant à l’image d’un lion a permis à mes ancêtres de ne pas se faire dévorer quand une telle image se construisait dans leur cortex visuel.


Il est essentiel d’ajouter que les systèmes cognitifs dont nous parlons ici ne fonctionnent généralement pas de façon isolée mais en groupe. Les représentations du groupe, prenant une forme sociale communicable par le langage, entrent dans les processus d’élaboration d’hypothèses et de vérifications auxquels font appel les membres du groupe. On considère souvent et à juste titre les cerveaux individuels des membres d’un groupe comme les unités de traitement distribuées d’un cerveau global, correspondant lui- même à un système cognitif global. L’existence d’un cerveau global permet d’évaluer la pertinence des représentations se formant dans les cerveaux individuels au regard du capital d’informations représenté par la synthèse, dans l’espace et dans le temps, des représentations individuelles précédemment acquises et mémorisées par le groupe.


Les processus permettant l’acquisition de compétences collectives à partir de l’activité des individus d’un groupe sont aussi anciens que l’histoire de la vie. Aujourd’hui, on considère qu’ils prennent une forme optimisée dans la démarche scientifique expérimentale elle-même mondialisée. On nomme donc connaissances scientifiques les connaissances ainsi acquises par le groupe au terme de procédures aussi rigoureuses que possible de formulation et de vérification d’hypothèses (procédure hypothético-déductive). Ces connaissances se révèlent en général plus efficaces pour comprendre le monde que celles obtenues par des procédures empiriques. On peut donc considérer qu’elles sont plus « vraies » que ces dernières, sans pour autant attribuer à ce qualificatif de vrai la moindre portée ontologique. Disons plutôt qu’elles semblent donner aux groupes et aux individus dont les cerveaux en sont pénétrés plus de chances de survie que n’en ont ceux échappant à leur influence. C’est cette efficacité qui a permis le développement récent de ce que l’on appellera pour simplifier « la science » au sein des populations de systèmes cognitifs.


Ajoutons que les descriptions du monde produites par les systèmes cognitifs, qu’ils soient biologiques ou artificiels, sont probabilistes. Non seulement il faudra renoncer à décrire grâce à elles des entités réelles, mais il faudra introduire les probabilités dans tous les modèles du monde produits par le cerveau, fussent-ils scientifiques. Ainsi, si je veux évoquer le concept de Big Bang, je devrai me rendre compte non seulement que le Big bang en soi n’existe pas mais que les modèles que j’en donne doivent introduire les calculs de probabilité. On notera d’ailleurs qu’une forme moderne d’IA fait elle-aussi appel aux inférences probabilistes, renonçant à décrire le monde en terme hypothético-déductifs rigoureux 2). On peut parler à ce propos de « cerveau artificiel bayésien », bayésien comme est notre propre cerveau.


Ceci, répétons-le, ne veut pas dire que les connaissances dites scientifiques décrivent un univers objectif que l’on pourrait supposer existant en soi indépendamment des observateurs. Elles donnent seulement de cet univers des descriptions qui, tant qu’elles ne sont pas contredites par de nouvelles entrées sensorielles, de nouvelles hypothèses et de nouvelles expérimentations, sont celles qui assurent au mieux la survie des systèmes cognitifs qui les produisent. Prenons l’exemple de ce que l’on nomme les Lois fondamentales de l’univers physique. On ne devrait pas les qualifier de lois fondamentales puisque pour parler ainsi, il faudrait se référer à quelque chose d’encore plus fondamental permettant d’apprécier la fondamentalité de ces lois. La prudence nous impose de ne parler, à propos de telles supposées Lois, que de constantes observationnelles (et encore, faudrait-il ajouter, “toutes choses égales par ailleurs”). Celles-ci, dans les conditions où sont menées les observations et les expériences, donnent des résultats probabilistes qui, interprétés en tant que tels, correspondent « jusqu’à nouvel ordre » aux observations instrumentales.


Les systèmes cognitifs peuvent-ils prévoir l’avenir, c’est-à-dire la façon dont le monde avec lequel ils interagissent, ainsi qu’eux-mêmes vont évoluer? Bien évidemment. Ils ne font même que cela, puisque l’essentiel de leurs activités consiste nous l’avons vu à formuler des hypothèses sur le monde, à partir des expérimentations précédemment mémorisées. Mais ces prédictions renseignent moins sur l’avenir du monde ou des objets de connaissance que sur l’état des systèmes qui procèdent à ces prédictions. Elles contribuent d’ailleurs à leur évolution d’une façon généralement non perçues. Quant à la pertinence de ces prédictions ce n’est qu’a posteriori qu’il est possible d’en juger. Nous allons revenir sur ce point important plus loin.


La question du Je


Une question essentielle concerne le statut que les systèmes cognitifs confèrent à la représentation d’eux-mêmes qu’ils se donnent – ce que dans le langage humain on appelle le Je ou le Moi. Dans le modèle retenu ici, le Je n’est pas autre chose qu’une émergence produite par les cerveaux humains capables d’une forme de conscience dite supérieure. Le Je fédère toutes les représentations du monde capables d’émerger au niveau de la conscience supérieure (l’espace de travail conscient). Cependant les animaux et les robots génèrent des consciences primaires d’eux-mêmes qui les aident comme la conscience supérieure chez l’homme, à fédérer leur représentation du monde autour d’un centre actif. 3)


Que serait le mécanisme à l’origine de ce Je, dans cette hypothèse? Les systèmes cognitifs un tant soit peu complexes disposent d’organes sensoriels et moteurs tournés vers eux-mêmes (endocentrés) et générant des représentations d’eux mêmes analogues à celles générées par leurs organes tournés vers l’extérieur (exocenrés). Leur activité produit des représentations de soi inconscientes pour la plus grande part et conscientes pour une minorité d’entre elles (le Je). Elles rassemblant les informations se référant au système, mémorisées ou obtenues en temps réel. Ces représentations de soi ne sont pas plus vraies et objectives que celles obtenues par le système cognitif quand il interagit avec le monde extérieur. Elles sont de même nature. Elles sont sélectionnées par les systèmes cognitifs en fonction des avantages compétitifs pour la survie qu’elles procurent aux systèmes qui en sont porteurs. Il en est de même des jugements que chacun d’entre nous, s’exprimant au nom de son Je, porte sur le monde.


Il convient dans ces conditions de ne pas attacher plus de créance aux représentations et images de notre propre Je générées par notre cerveau qu’aux représentations du monde prétendument objectives que ce cerveau nous propose par ailleurs. L’ensemble fait finalement partie de systèmes cognitifs en train de se construire en se complexifiant. Les robots capables de générer des consciences de soi de plus en plus performantes seront à cet égard comparables aux systèmes cognitifs biologiques.


Ces considérations donnent une nouvelle justification au Cogito ergo sum de Descartes, à laquelle celui-ci n’avait sans doute pas réfléchi. C’est parce que je pense (cogito) que je suis (sum). Le propos repris à l’éclairage du présent article n’a rien à voir avec le dualisme par lequel prétend-on Descartes opposait l’esprit et la matière. Il signifie seulement qu’un système cognitif n’émerge à l’existence que grâce aux représentations du monde construites par son cerveau. Il se résume en fait à celles-ci et ne survit parmi ses homologues que si ces représentations sont plus à même que celles des autres à garantir son adaptation dans la compétition évolutionnaire. Dès lors qu’un robot peut penser, quels que soient les contenus cognitifs générés par son cerveau, il pourrait lui aussi proclamer «  Je pense donc je suis ». On objectera que les populations de bactéries ne pensent pas, ce qui ne les empêche pas « d’être ». En fait les biologistes peuvent montrer qu’elles s’organisent en réseaux complexes parfois peu différents des réseaux neuronaux. D’une certaine façon donc, elles « pensent », ne fut-ce que sommairement, ce qui explique leurs succès dans la lutte pour la vie.


J’ajouterai un point important à mes yeux découlant de l’hypothèse suggérée dans mon dernier essai: « Le paradoxe du sapiens ». Selon cette hypothèses, ce ne sont pas des humains seuls qui agissent dans le monde et le modifient. Ce sont des superorganismes associant des composantes biologiques et anthropologiques avec des composantes technologiques. J’ai proposé de les nommer des systèmes anthropotechniques. Ainsi les questions posées par Howard concernant par exemple l’émergence du cosmos ou de la vie au sein de celui-ci ne sont pas posées par un cerveau humain isolé mais par un ensemble de cerveaux interconnectés avec les instruments de plus en plus puissants de la science moderne. Il s’agit donc de questions sur leurs propres contenus cognitifs formulées en partie par ces instruments eux-mêmes, s’exprimant par la bouche des humains auxquels ils sont associés de façon symbiotique.


Les systèmes anthropotechniques, selon le modèle que j’en ai donné, sont donc des systèmes cognitifs. Leurs aptitudes à la cognition ne sont pas d’essence différente de celles dont jouissent les autres systèmes. Elles rencontrent les mêmes limites. Elles ne permettent pas plus que les autres d’accéder à un monde descriptible en termes de « réalité en soi ». Dans la mesure cependant où les technologies associés à ces systèmes sont capables de générer des univers interconnectés, en partie informationnels, de plus en plus puissants, elles créent de véritables « réalités anthropotechniques », de type scientifique ou imaginaire. Les descriptions en résultant renvoient non à un monde extérieur existant en soi, mais, si l’on peut dire, à un monde spécifique aux systèmes anthropotechniques. On pourra parler d’un monde « pour soi » en train de se construire 4) Ce monde est celui où évoluent les systèmes cognitifs anthropotechniques individuels. Il est évidemment soumis aux processus darwiniens.


Processus évolutifs et générateurs de diversité


Les systèmes cognitifs se reproduisent et mutent en permanence. Leur compétition entraînent la sélection des mieux adaptés et la disparition des autres. Il en est de même, nous l’avons vu, des contenus cognitifs générés par les cerveaux de ces systèmes. Les contenus cognitifs ou représentations du monde générées par ces cerveaux sont sélectionnées en fonction de leur capacité à assurer au mieux non seulement leur propre survie, mais la survie des systèmes cognitifs qui leur servent de support. Reprenons le cas déjà évoqué, faisant intervenir l’image d’un lion. Si mon cerveau construit à partir des informations reçues par mes sens, au lieu de celle d’un lion, l’image d’un animal s’étant montré précédemment inoffensif, telle que celle d’un mouton, je cours le risque d’être dévoré et de disparaître, ainsi d’ailleurs que l’image construite par mon cerveau. Si je survis à l’épreuve, mon cerveau ne confondra plus jamais l’image d’un lion avec celle d’un mouton.


Mais que se passera-t-il si mes sens collectent des formes qui ne renvoient à rien dont mon cerveau aurait conservé la mémoire? Il sera vital pour moi que celui-ci lève le doute. Il élaborera donc des suppositioins ou hypothèses, conformément à une logique de fonctionnement acquise au cours de millénaires d’évolution, permettant de catégoriser l’objet inconnu au regard notamment de sa dangerosité potentielle. Ce processus d’identification suppose l’intervention d’un générateur de diversité. Mon cerveau, sous l’influence de ce générateur, émettra une série de suppositions que mes sens mettront immédiatement à l’épreuve, afin de retenir l’hypothèse la plus conforme aux résultats de l’expérience. Le générateur de diversité permet d’échapper au déterminisme résultant des expériences précédentes et d’ouvrir le champ des hypothèses. Si face à l’image d’un éléphant, par exemple, jusque là jamais vue, mon cerveau était obligé de choisir entre les deux seules références qu’il aurait conservées en mémoire, celle d’un lion et celle d’un mouton, il courrait le risque d’erreurs d’identification aux conséquences graves.


Le générateur de diversité ne va pas évidemment suggérer à mon cerveau que l’objet non identifié est un éléphant, puisque ce concept lui est inconnu . Il va se borner à produire diverses hypothèses, relative à la catégorie d’animal observé et à sa dangerosité. En tant que système cognitif, je les mettrai à l’épreuve de l’expérience. Plus tard, après plusieurs cycles d’hypothèses et d’expérimentation (et à supposer que je n’aie pas fait d’erreur d’identification ayant entraîné ma mort par écrasement du fait d’un contact trop rapproché avec le pachyderme), mon cerveau pourra créer une nouvelle catégorie, celle des éléphants dont la dangerosité sera évaluée selon l’échelle s’appliquant aux autres animaux. Inutile de préciser que ces processus n’ont aucun besoin de la conscience supérieure pour entrer en fonction. On les retrouve chez les humains, chez les animaux et chez les robots, ainsi bien entendu que chez les systèmes anthropotechniques de toutes natures,


Je développe cet exemple que certains trouveront naïf pour répondre à la question posée in fine par Howard: peut-on prévoir l’émergence du nouveau en s’appuyant sur des méthodes telles que les mathématiques ou les automates cellulaires. Ma réponse sera globalement négative, dans la mesure où ces méthodes ne génèrent de nouveautés que par la recombinaison de prémisses déjà connues. Si le cerveau se bornait, pour tenter de prévoir l’avenir, à recycler ce qu’il avait déjà mémorisé, il risquerait de tourner très vite en cercle. Pour comprendre le présent et, éventuellement, se donner quelques chances de prévoir l’avenir, le cerveau doit produire sans cesse des hypothèses originales, grâce au générateur de diversité auquel nous venons de faire allusion. Il doit, autrement dit, faire tourner en permanence une sorte de moulin à inventer fonctionnant sur un mode aussi aléatoire que possible. C’est ce que le regretté Paul Feyerabend avait bien montré en matière de découverte scientifique. Celle-ci ne survient qu’au terme de ce qu’il avait nommé un anarchisme méthodologique systématique.


Notes
1) Sur « Making up the Mind » voir notre présentation: http://www.automatesintelligents.com/biblionet/2007/juil/frith.html
2)Voir A grand unified theory of AI http://web.mit.edu/newsoffice/2010/ai-unification.html
3) Voir notre article « Conscience et libre-arbitre » http://www.admiroutes.asso.fr/larevue/2010/105/conscience.htm
4) On connaît la distinction entre l’en soi et le pour soi qu’avait proposée Jean-Paul Sartre.

Repost 0
28 mars 2010 7 28 /03 /mars /2010 19:28

 

Article
Conscience et libre-arbitre

par Jean-Paul Baquiast 28/03/2010

Lion chassant des gazelles. Cf ci-dessous


Le problème de la conscience et celui du libre-arbitre restent généralement liés dans l'approche commune, y compris chez ceux qui ne se réfèrent à aucune religion. « J'ai conscience de l'existence d'un monde extérieur à moi, dans lequel j'ai conscience d'exister en tant qu'agent autonome responsable de ses actes ». Il s'agit d'une conviction universellement répandue, même chez les cogniticiens qui nient le libre-arbitre avec la plus grande vigueur quand ils abordent la question en termes scientifiques généraux et qui oublient de s'y référer quand leur propre personne est en cause. Cependant, de plus en plus d'observations scientifiques montrent qu'il convient obligatoirement de distinguer conscience et libre-arbitre. La conscience, sous ses deux grandes formes, conscience primaire et conscience supérieure, apparaît comme un phénomène présent à des degrés divers dans tout le règne animal. Le libre arbitre au contraire semble une construction culturelle, pour ne pas dire idéologique, auquel on ne trouve aujourd'hui ni fondements observationnels ni explications relevant des lois physiques connues, y compris de la physique quantique à laquelle certains ont tenté de raccrocher le prétendu indéterminisme de la volonté.


Or il est intéressant de constater que dans la littérature scientifique récente, cette distinction entre ce que l'on pourrait appeler la conscience, phénomène " réel "et le libre-arbitre, phénomène imaginaire, se répand de plus en plus. La raison en tient au progrès constant de l'imagerie fonctionnelle cérébrale, qui fait apparaître les modalités selon lesquelles s'activent les neurones des sujets observés, que ce soit dans les processus inconscients ou dans les processus conscients. On y voit de mieux en mieux comment chez ces sujets la perception par les sens de phénomènes du monde extérieur peut induire des coopérations entre neurones se traduisant par des états plus ou moins marqués de prise de conscience. Mais on ne voit pas apparaître d'activités neuronales surgies de nulle part et entraînant des réponses motrices ou autres du sujet. Ce serait pourtant de telles activités qui pourraient correspondre à une décision libre (non déterminée) de ce sujet. Autrement dit on peut observer les « corrélats neuraux de la conscience » mais pas ceux du libre-arbitre. Ceci rejette donc ce dernier concept dans la catégorie du non-matériel (ou non-naturaliste) ne relevant pas de l'étude scientifique.


1. La conscience. Quoi de nouveau sur le front de la recherche?


Pour étudier les corrélats neuraux de la conscience (neural correlates of consciousness, selon l'expression lancée par Francis Crick et Christof Koch en 2003), il convient évidemment de simplifier les conditions de l'expérimentation. Il faut essayer d'observer l'activité des neurones dans des situations où le sujet observé peut déclarer avoir perçu tel type de signal qu'il ne percevait pas auparavant. Cette déclaration explicite est généralement considérée comme révélant une prise de conscience. Encore faut-il distinguer les non-perceptions effectives (celles correspondant par exemple à une quelconque forme de cécité) et les perceptions qui sont bien reçues par le cerveau, mais qui restent du domaine de l'inconscient ou du pré-conscient. Aujourd'hui, plutôt que parler d'inconscient on préfère parler de conscience primaire. La distinction entre conscience supérieure et conscience primaire est devenue courante. Nous y reviendrons ci-dessous. La conscience primaire est très présente dans le monde animale, la conscience supérieure semble réservée, sauf exceptions, à l'homme en société.


Les expériences de Stanislas Dehaene


Les expériences actuelles récentes visant à expliciter les corrélats neuraux de la conscience cherchent à faire apparaître ce qui se produit en termes d'excitation des neurones dans des situations aussi simples que possible, où la conscience primaire d'un événement perçu par les sens fait place à la prise de conscience de cet événement au niveau de la conscience supérieure, se traduisant par la déclaration explicite du sujet: « j'ai vu cet évènement ». Un article du NewScientist (20 mars 2010, p. 39) rapporte les recherches récentes menées en ce sens par l'équipe de Stanislas Dehaene à l'Inserm de Gif sur Yvette dans la suite des recherches fondatrices de Jean-Pierre Changeux. Nous les avions précédemment évoquées sur ce site, dans une conversation avec Stanislas Dehaene http://www.automatesintelligents.com/interviews/2008/dehaene.html


Stanislas Dehaene s'est attaché à rechercher les agents et le mode opératoire des connections dont le neurologue américain Bernard Baars du Neuroscience Institute de San Diego avait postulé l'existence dès 1983, sous le nom d'espace global de travail (global workspace theory). Cette « théorie », reprise par Dehaene, repose sur l'hypothèse que si la conscience, primaire ou supérieure, n'est certes pas une illusion, il n'est cependant pas possible de localiser dans le cerveau un site particulier qui en serait le siège. Elle résulterait de la mise en relation, à tous moments, de diverses régions du cerveau, réparties principalement dans le cortex, mais pouvant aussi intéresser des régions plus profondes du cerveau, comme dans le cas de l'évocation de certains souvenirs.


Cette mise en relation se traduit par une activité électromagnétique observable par divers instruments et pouvant signifier une activité coordonnée et renforcée de neurones provenant des aires cérébrales intervenant dans la production des états conscients. Le passage de la conscience primaire à la conscience supérieure implique « la coordination globale de plusieurs régions. C’est ce phénomène de coordination qui fait la distinction entre inconscient et conscient, avec l’accès dans le second cas à des régions du contexte préfrontal » . Dehaene, op.cit

On sait depuis longtemps, comme le rappelle le biochimiste Nick Lane dans la partie de son ouvrage « Life ascending » consacrée à la conscience chez les êtres vivants (voir sur ce site notre présentation http://www.admiroutes.asso.fr/larevue/2010/104/nicklane.htm ), que les neurones sont le siège d'une activité permanente. Ils « s'excitent » (fire). Autrement dit leur activité électrique manifeste des oscillations rythmiques. Quand un neurone s'excite, il se dépolarise, sa charge électrique de membrane se dissipe en partie, du fait que des ions calcium ou sodium pénètrent dans la cellule. Si ces excitations sont sporadiques et désordonnées, elles sont difficilement enregistrables, malgré la sensibilité croissante des instruments. Si au contraire un grand nombre de neurones répartis dans le cerveau se dépolarisent et se repolarisent en vagues rythmiques, on peut enregistrer des ondes dites cérébrales avec les méthodes de l'électroencéphalographie (EEG).


Des oscillations dans la région de 40 Hz (le Hertz correspond à 1 oscillation par seconde) signifient que de nombreux neurones s'activent ensemble, toutes les 25 millisecondes environ. (cf. Wolf Singer, Annals of the New York Academy of sciences 2001) . On peut également mesurer avec des électrodes placées sur le crâne et, dans certains cas, implantées dans le cerveau lui-même, les variations dans l'activité électromagnétique de groupes de neurones voire de neurones individuels.


Les excitations peuvent se propager d'un neurone à l'autre, quand ceux-ci sont reliés par leurs synapses. Elles semblent pouvoir également, par un effet de résonance ou d'induction encore mal compris (voir ci-dessous), passer d'un neurone à un autre sans que ceux-ci aient de connections synaptiques. On peut donc estimer que, dans les conditions favorables, toutes les aires cérébrales peuvent potentiellement se connecter. Ceci donne donc des arguments à ceux qui pour qui la conscience résulte d'une coopération mobilisant le cas échéant l'ensemble du cerveau.


Les équipes françaises dirigées par Stanislas Dehaene, suivies par d'autres chercheurs tel Steven Laurey de l'Université de Liège, ont d'abord montré qu'existait une densité élevée de connections entre neurones dans les aires du cortex sensoriel ainsi que dans les régions du cortex pariétal et préfrontal impliquées dans les tâches liées à la planification et au raisonnement. Mais il fallait rechercher si ces connections s'activaient différemment lorsque les sujets observés étaient ou non conscients de ce que des tests leur proposaient de percevoir. Nous n'entrerons pas dans les détails ici. Disons seulement que lorsque deux images sont soumises très brièvement aux sujets, leur cerveau perçoit consciemment celles qui sont séparées par des intervalles supérieurs à quelques dizaines de millisecondes (entre 50 et 300). Au contraire, il ne perçoit consciemment que l'une d'entre elles si l'intervalle est plus court. Cependant les deux images sont également reçues par le cerveau.

L'observation n'était pas tout à fait nouvelle. Elle rejoignait celle de Benjamin Libet qui avait noté un délai d'environ 300 millisecondes entre le moment où un sujet (en fait son cerveau) engageait inconsciemment un geste  et celui où il déclarait l 'avoir décidé volontairement. Ce qui est nouveau fut l'observation que, dans le cas d'une perception consciente, les neurones concernés manifestent une explosion synchrone d'activité électrique.


Des explorations plus précises, utilisant des casques et même, dans le cas de patients épileptiques soumis à une chirurgie réparatrice, des électrodes implantées dans le cerveau (Raphaël Gaillard, 2009), ont confirmé l'observation. Dans les premières 300 millisecondes d'une perception, celle-ci demeure inconsciente. Ensuite et au moment où la perception émerge à la conscience, se produit une activité coordonnée de zones éventuellement distantes. Cette activité globale peut être interprétée comme la signature de la conscience prédite par la théorie de l'espace global de travail lancée initialement par Bernard Baars et repris par Dehaene. Mais est-elle la cause ou la conséquence de la prise de conscience? Elle parait en être la cause.

Restent à identifier les raisons et la forme précise de cette coordination, ainsi que le pourquoi de ce seuil fatidique de 300 millisecondes. La coordination devrait impliquer en priorité les neurones de liaison très présents sur toute la superficie du cortex, mais d'autres types de résonance se produisent-ils? De plus, quelles sont les catégories de conscience concernées par le mécanisme? Qu'en est-il des émotions primordiales, des affects plus sophistiqués, des créations subjectives correspondant à la conscience supérieure, c'est-à-dire au « hard problem » évoqué depuis longtemps par le philosophe australien David Chalmers?


Conscience primaire et conscience supérieure


Revenons avant d'aller plus loin sur la distinction entre conscience primaire et conscience supérieure. Rappelons d'abord que sauf en état de mort clinique, les cerveaux conservent en général un minimum d'activité neuronale. Il s'agit de l'état nommé par Dehaene et Laureys le « default mode network , DMN » ou réseau assurant un mode minimum de fonctionnement. Celui-ci est actif même lorsque le cerveau est en repos. Il demeure plus ou moins actif dans les cas d'atteintes cérébrales. Sa détection présente en ce cas une grande importance thérapeutique. C'est grâce à une telle détection que Laureys a pu sauver de la mort une patiente qui semblait en coma dépassé et qui a pu récupérer ensuite. Mais, chez les sujets éveillés et alertes, l'activité du cerveau dépasse très largement celle assurée par le DMN. Les entrées et sorties sensorielles, entre autres, sont permanentes et sollicitent le plus souvent des réponses globales de l'espace de travail conscient. De quelle sorte de conscience s'agit-il alors?


Pour Dick Lane, comme pour la plupart des neuroscientifiques évolutionnistes, si le fait d'être conscient consiste pour un sujet à se représenter explicitement à lui-même sous la forme d'un Moi individuel situé dans une société et une culture, en relation avec un passé et un futur, pouvant s'exprimer et communiquer grâce aux langages symboliques, alors il s'agit de la conscience dite supérieure ou étendue dont peu d'animaux sont capables (sauf peut-être certains individus doués par brefs instants). Si par contre on nomme conscience le fait d'expérimenter les émotions, les motivations, la douleur, en reliant (inconsciemment) ces sensations à un moi sans perspectives autobiographiques et sans vraie référence à la mort, alors on peut penser que ce type de conscience, conscience généralement dite primaire, est l'apanage de très nombreux animaux, sans doute même de ceux considérés comme primitifs.


Il se trouve que la conscience primaire n'est pas très difficile à simuler. Elle suppose un système central coordinateur qui mette en relation les différents organes sensoriels et moteurs d'un organisme, fut-il un robot. Il faut seulement que dans ce système (nerveux) central puissent se trouver associés d'une façon coordonnée les différents flux d'information générés par les organes d'entrée-sortie en contact avec le monde extérieur. Les processus permettant ces associations ont été acquis au cours de l'évolution des espèces par l'expérience, celle qui au niveau de l'espèce est mémorisée dans les génomes et celle qui au niveau de l'individu est spécifiée dans le cerveau de chaque nouveau-né après sa naissance. .


Gérald Edelman a proposé pour expliquer cette prise en compte de l'expérience résultant de l'interaction avec le monde extérieur ce qu'il a nommé le darwinisme neural . Si nous nous limitons à l'organisation du cerveau du nouveau-né, on admettra qu'avant même la venue au monde, il est déjà grossièrement organisé (grâce aux résultats des expériences transmis par le génome) en aires susceptibles de recevoir les influx venant des organes sensoriels de façon à répondre aux besoins élémentaires de l'organisme à sa naissance. Puis, au fur et à mesure que se précise l'expérience individuelle, des connections plus spécialisées se forment, alors que d'autres dépérissent. Ceci en fonction de l'usage qui en est fait. Il en est un peu de même dans les robots modernes dont la mémoire se câble de façon autonome en fonction des interactions avec l'environnement.


On sait par exemple que l'oeil ne perçoit pas directement les objets qui nous intéressent, même si ceux-ci menacent notre survie, par exemple un lion dans la savane. Le cerveau doit apprendre à associer les lignes verticales et horizontales perçues par le cortex visuel primaire de façon à faire apparaître des formes plus complexes susceptible de comporter des significations importantes pour la survie. Ce fut sous une pression de sélection rendant indispensable de classer ou catégoriser les images construites par le cerveau en fonction de la dangerosité éventuelle de l'objet perçu que s'est constituée et a été mémorisée l'image du lion, que réactive dans notre cerveau la photographie présentée en exergue. Pour qu'une telle image apparaisse au moment opportun, il a fallu que des neurones susceptibles d'être excités par la vision du lion aient été sélectionnés et entraînés à coopérer.

Mais ces neurones n'étaient pas nécessairement voisins ni connectés au départ. Pour cela, un processus électrochimique et/ou électro-magnétique a du intervenir pour mettre en relation, durablement ou passagèrement, tous les neurones intervenant dans la construction de l'image du lion au niveau du cortex associatif. L'expression proposée par Edelman pour expliquer ceci est la suivante: « Neurons that fire together bind together ». Autrement dit les neurones qui se trouvent excités simultanément se retrouvent connectés, soit plus ou moins durablement via les synapses, soit plus ou moins passagèrement, par résonance ou induction de l'excitation électrique des uns vers les autres. Mais comme nous allons le voir (cf. ci-dessous Le binding) les modalités précises de cette connexion sont encore discutées.


Les expériences dont la conscience supérieure ne prend pas connaissance constituent l'essentiel de l'activité corticale associative. Elles contribuent à l'élaboration de la conscience primaire. Pour simplifier on dira qu'elles sont inconscientes. Comme elles constituent l'essentiel de la vie du sujet en interaction avec son environnement, elles supposent une intense corrélation entre neurones regroupés dans les aires spécialisées, notamment des aires recevant les informations provenant des organes des sens (cortex visuel, cortex auditif...). Les données entrantes sont enregistrées et assemblées dans ces aires à l'arrivée des nerfs provenant des organes des sens. Elles peuvent ensuite se trouvées combinées entre elles.


Ainsi l'image visuelle du lion prendra d'autant plus de pertinence qu'elle sera associée à des sons et à des odeurs provenant des organes de l'ouïe et de l'odorat, dont le cerveau aura appris qu'elles révèlent elles-aussi ou confirment la présence d'un lion. Dès que l'image du lion aura pris une importance suffisante dans le cerveau, pour diverses raisons tenant par exemple à l'intensité ou à la durée des perceptions enregistrées, elle pourra déclencher de la part du cerveau des réponses faisant appel à d'autres aires et entraînant des commandes motrices visant à échapper au prédateur. Ces scénarios eux-mêmes ont été mémorisés tout au long de l'évolution de l'espèce et de l'individu. Ceci sans faire appel à des processus relevant de la conscience supérieure, dans le cas du moins où ceux-ci se produisent dans le cerveau d'un animal tel que la gazelle.

Cette activité incessante du cerveau repose sur des flux coordonnés de liaison (binding) entre neurones, qui se font et se défont sur le mode inconscient de la conscience primaire. Quand ces flux ralentissent ou disparaissent, il faut en déduire que le cerveau est proche de la mort. Mais il peut arriver à l'opposé, si l'on suit Stanislas Dehaene et al. que les échanges coordonnées entre neurones prennent une telle intensité que l'ensemble du phénomène, cause et effets, émerge au niveau de la conscience supérieure.

Nous avons vu que le cortex sensoriel peut se borner à enregistrer inconsciemment des données correspondant à la présence d'un lion dans l'environnement et déclencher, là encore sur le mode inconscient, des réflexes moteurs d'évitement. C'est ce que montrent couramment les documentaires dédiés à la vie sauvage. Des gazelles s'éloignent sans hâte, quasi négligemment, d'un lion qui se rapproche d'elles sans être directement menaçant.


Mais si un certain nombre d'aires reçoivent simultanément des informations d'ordre visuel, sonore et olfactives dénotant la présence d'un lion identifié comme menaçant, le processus de « binding » ou de liaison pourra s'accélérer. Les assemblées de neurones correspondant aux différentes zones concernées s'activeront simultanément, de façon cohérente et massive. Il en résultera un flash d'activité coordonnée. Chez la gazelle se produira un état brutal de panique et de fuite, tôt imité par les congénères du troupeau. Chez l'humain, il donnera naissance s'il est suffisamment fort et durable à une interprétation mentale du monde capable d'émerger au niveau de la conscience supérieure, y compris en prenant une forme langagière: « un lion me (nous) charge, fuyons, mes amis ...».

Le binding


Revenons sur la liaison ou « binding ». Comment précisément se fait cette liaison, notamment lorsqu'il s'agit du passage brutal de la conscience primaire à la conscience supérieure, impliquant un nombre bien plus grand d'aires cérébrales? Baars et d'autres neurologues, notamment Gérald Edelman, ont insisté sur le rôle des neurones de liaison mettant en relation les différentes aires sollicités par des perceptions simultanées et constituant, nous l'avons vu, un hypothétique espace de travail conscient global. Il existe effectivement dans le cortex des neurones à axones longs dits associatifs, qualifiés aussi de réentrants par Edelman, qui pourraient constituer l'infrastructure de l'espace global de travail. Mais rien ne prouve que ce dispositif suffise. Tous les aires cérébrales ne sont pas connectées à toutes les autres sous forme de câblages permanents. Comment peuvent se trouver reliées des aires éventuellement très distantes, voire non corticales quand il s'agit d'évoquer des souvenirs profonds. On peut toujours envisager des phénomènes de résonance ou induction électromagnétique à longue distance, mais l'explication paraît vague.


Pour Nick Lane, la question est aujourd'hui sans réponse. Il refuse cependant toutes les explications faisant appel à des formes de matière exotique, comme celle relevant des propriétés du monde quantique. Tant qu'il n'a pas été démontré que des bits quantiques pourraient circuler sans décohérence, par effet tunnel ou autrement, au sein de la matière cérébrale, il ne lui paraît pas possible de retenir cette hypothèse. Certes nous avons ici même relaté des recherches suspectant des effets quantiques dans la photosynthèse végétale ou dans la respiration, mais rien de tel pour le moment dans les cellules du cerveau, qu'il s'agisse des neurones ou des cellules interneuronales dites astrocytes.


Nick Lane préfère rechercher la solution de ce que Wolf Singer et Edelman avaient appelé le verrouillage de phase (phase lock) conduisant des neurones appartenant à des aires distantes du cerveau à osciller en synchronie dans ce que ce même Singer avait nommé la « poignée de mains neuronale » (neural hanshaking). L'idée serait la suivante: quand un neurone décharge (fire), il se dépolarise. Il ne peut pas décharger à nouveau avant de s'être repolarisé, ce qui lui demande un certain temps. Si un signal lui provient d'un autre neurone alors qu'il est en phase de repolarisation, ce signal sera ignoré. Si un neurone (ou un groupe de neurones) oscille 60 fois par seconde (60 Hz), il ne peut recevoir de signaux que des neurones oscillant en synchronisation de phase. Si un second groupe de neurones oscille 70 fois par seconde (70 Hz), il sera asynchrone avec le premier la plupart du temps. Ces deux groupes deviennent donc des unités indépendantes, incapable de « se serrer la main ». Par contre si un troisième groupe oscille plus lentement, à 40 Hz, les neurones de ce groupe mettront plus de temps à se repolariser et pourront donc décharger plus facilement en réponse à des neurones oscillant à 70 Hz. Autrement dit, plus lent est le rythme de l'oscillation, plus grande est la possibilité de superposition de phase avec d'autres neurones et donc plus facilement se fera la coordination.


Il reste que si ces explications pourraient faire comprendre comment quelques groupes de neurones se coordonneraient en s'excitant réciproquement pour réaliser des ensembles plus complexes participant à la création d'états de conscience étendue, on voit mal comment dans l'étroit espace endocranial où interfèrent des dizaines de milliards de neurones, les émissions des uns et des autres pourraient ne pas se percuter et produire un bruit insupportable.

Certes les processus conscients reposent sur une sélection de type darwinienne très forte, résultant notamment des mécanismes découlant de l'attention. La conscience, qui s'exprime sous la forme d'une sortie unique par unité de temps, est obligée de sélectionner les contenus provenant des différentes aires, afin de ne pas précisément obscurcir l'émission. C'est tout au moins le cas, apparemment, concernant la conscience supérieure. Mais alors sur quelle base se fait la sélection? L'intensité, la répétition, la durée du signal en entrée? La plus ou moins grande disponibilité d'accès des éléments en mémoire? Malgré les progrès de l'imagerie cérébrale et des études pharmacologiques, on voit que répondre à ces questions demandera encore des dizaines d'années d'étude, aux rythmes actuels 1).


1) Rappelons à titre de curiosité que nous avions sur ce site donné la parole au biologiste britannique JohnJoe Mac Fadden qui avait proposé une hypothèse originale de liaison entre neurones impliquées dans les faits de conscience globaux. Cette hypothèse, à notre connaissance, n'a pas eu de suites. Il est vrai que le concept de champ permet de tout dire et son contraire.
http://www.automatesintelligents.com/echanges/2002/avr/mcfadden.html

Nous citons:

«  Aujourd'hui les électro-encéphalogrammes et magnéto-encéphalogrammes permettent de voir beaucoup plus de choses, et sont couramment utilisés pour mesurer et cartographier le champ électromagnétique (em) du cerveau.

Chaque fois qu'un neurone décharge, l'activité électrique associée envoie un signal au champ em. Ainsi toute l'information produite par les neurones est liée (bound) dans un système physiquement unifié, le champ em. Cette structure est faite d'énergie plutôt que de matière (la matière des neurones), mais elle est tout aussi réelle et détient précisément la même information - sous forme intégrée et unifiée.

Mais le champ em du cerveau n'est pas seulement un puits à informations. Il peut influencer nos actions, en provoquant l'activité de certains neurones, et en inhibant celle d'autres neurones. Dans l'ensemble, sa force est faible. Mais dans un cerveau en activité, les émissions d'influx laissent de nombreux neurones en état d'indécision ou équilibre instable. Ils peuvent être sensibles à de faibles variations du champ. Ceci doit être plus particulièrement le cas quand nous nous trouvons dans des situations incertaines ou ambiguës, face auxquelles les solutions pré-programmées ou réflexes ne sont plus adéquates. Alors le champ em prend le contrôle - ce qui correspond à ce que nous appelons l'apparition du libre-arbitre.

Cette théorie explique pourquoi nous ressentons différemment les actions conscientes et les actions inconscientes. Les activités câblés "en dur" dans le cerveau n'ont accès qu'au nombre limité d'informations détenues dans chaque neurone individuel impliqué. Par contre nos actions conscientes sont connectées, via le champ em, à l'ensemble du contenu informationnel du cerveau.


2. Le libre arbitre

Nous serons plus brefs sur ce sujet, car il n'y a rien de nouveau à en dire impliquant les neurosciences. Le biologiste américain Anthony Cashmore vient de le répéter dans un magistral article auquel nous renvoyons nos lecteurs. Il en tire cependant des conclusions, concernant la responsabilité individuelle, qui ne seront pas admises sans discussions, même si leur logique paraît imparable.

Lire: http://www.pnas.org/content/107/10/4499.ful


NDLR: prochainement ici, nous donnerons un résumé traduit de l'article

 

Repost 0
22 mars 2010 1 22 /03 /mars /2010 11:11

 

Entretien
Pierre Henri Gouyon

Réalisé par Jean-Paul Baquiast
18/03/2010

Pierre Henri Gouyon est professeur de biologie évolutionniste au Muséum d'Histoire Naturelle de Paris et à l' Agro.

Il est responsable d'équipe dans l'unité de recherche CNRS-MNHN " Origines, structures et évolution de la biodiversité" (UMR 7205)

 

Pour en savoir plus
Page personnelle http://www.mnhn.fr/oseb/GOUYON-Pierre-Henri
voir http://fr.wikipedia.org/wiki/Pierre-Henri_Gouyon

Voir aussi l'ouvrage collectif Aux origines de la sexualité, sous la direction de Pierre Henri Gouyon http://www.uneplumesurunmur.fr/


NDLR: texte relu par Pierre Henri Gouyon

Jean-Paul Baquiast, pour Automates-intelligents (JPB): Cher professeur Gouyon, merci de cet entretien. L'encadré ci-dessus donne quelques indications sur votre position universitaire. Voulez vous en dire plus ici. Nous aborderons ensuite, comme convenu, les questions qui dans vos recherches, vous tiennent particulièrement à coeur. Ceci non seulement comme scientifique mais au vu de leurs répercussions sur les débats sociétaux et politiques contemporains, dans lesquels vous être très impliqué.

Pr Pierre Henri Gouyon (PHG): Je suis effectivement professeur au Muséum national d'histoire naturelle. J'enseigne également à l'Agro et à Sciences-Po, où je fais un cours de bio-diversité. Je fais partie d'un laboratoire mixte Muséum-CNRS intitulé « Origine, structures et évolution de la biodiversité ». Je suis à l'origine un agronome, mais je me suis intéressé très vite à l'approche théorique de l'évolution des espèces et de la biodiversité. Je me suis appuyé sur une approche génétique, celle de la génétique des populations. Il s'agit de la base théorique formelle du néodarwinisme. Elle est née de la fusion, lors des années trente, et ceci dans la douleur, du darwinisme et du mendélisme. Je dois dire que j'ai toujours été fasciné par la simplicité de l'explication néodarwinienne de l'existence des êtres vivants et de leur évolution.


JPB.: Pouvez vous rappeler la distinction qui n'est pas toujours perçue, aujourd'hui encore, entre darwinisme et néodarwinisme?

PHG.: Le qualificatif de néodarwiniste à d'abord été appliqué à August Weismann 1) qui a été le premier à rejeter l'idée de l'hérédité des caractères acquis à laquelle tout le monde croyait au 19e siècle, y compris Charles Darwin. Darwin pensait que la sélection naturelle était un facteur beaucoup plus puissant que la transmission des caractères acquis pour expliquer l'évolution, mais il laissait à celle-ci un rôle de générateur de variation nécessaire à la sélection, sans plus. Weismann dans un discours célèbre de 1883 a rejeté cette idée. On l'a qualifié alors d'ultra- ou de néodarwinien, ultra puisque, s'il n'y avait plus de transmission des caractères acquis, la seule cause de l'évolution devenait la sélection naturelle. Lorsque la génétique est venue en 1900 compliquer le tableau, elle a d'abord suscité un conflit. Les généticiens disaient que la force de l'évolution reposait sur les mutations, les darwiniens la faisant reposer sur la sélection. Il a fallu un travail théorique non négligeable pour montrer dans les années trente qu'il fallait les deux. On avait d'ailleurs aussi parlé de néomendélisme.


JPB. : Armé de cet outil qu'est le néodarwinisme, quelles grandes fonctions avez- vous étudiées?

PHG.: J'ai entrepris de modéliser, afin de les concrétiser, diverses grandes fonctions intervenant dans l'évolution, telles que le sexe, les mutations, les migrations. Ceci concernant les bactéries, les plantes, les insectes. J'ai aussi fait beaucoup de travaux de terrain sur les plantes...


JPB.: Par modélisation, vous entendez la construction de modèles mathématiques et informatiques...

PHG.: Oui, c'est cela. Aujourd'hui je travaille davantage sur l'évolution des formes en alliant toujours une démarche d'observation, d'expérimentation et de modélisation.


JPB.: L'évolution des formes est constamment évoquée, par exemple dans les approches dites structurales faisant appel à des contraintes matérielles .

PHG.: Justement. Il a eu les approches dites de l'évo-dévo, l'étude évolutive du développement. Et aussi le fait que la biologie du 20e siècle, comme l'a dit Richard Lewontin, qui est un des grand penseur de l'évolution, a un peu perdu le contact avec les formes. On le retrouve actuellement. C'est ce qu'écrit Lewontin, dans un livre remarquable que je peux recommander à vos lecteurs, « La triple hélice » de 1980 3). Il y dit avec humour que les généticiens répètent comme les moines bouddhistes répètent leurs mantras, que les gènes produisent des protéines. Or effectivement un gène n'a jamais rien produit, c'est l'organisme qui produit les protéines responsables des formes, à partir de l'information génétique mais aussi des influences exercées par le milieu.

C'est ceci que j'essaye de modéliser. Mais comme vous l'avez rappelé en introduction, je travaille par ailleurs sur les questions de société. Il y en a de deux sortes et curieusement je me retrouve de chaque côté de la barrière en fonction des deux grandes questions dont je me préoccupe. D'une part il y a l'aspect social de l'acceptation des théories darwiniennes par rapport à toute une série de résistances de type religieux et idéologique. Il faut bien dire que la théorie néodarwinienne a été rejetée par les extrémistes religieux mais elle l'a aussi été par les extrémistes marxistes, dans les noires années où Lyssenko a dominé la biologie soviétique et où le PC français a exclu tous ses généticiens. De ce côté là je m'efforce de défendre une rationalité scientifique dure. Mais par ailleurs, je me retrouve face aux excès de ce que j'appellerais une pseudo-rationalité scientifique, dans des questions telles que les OGM. Beaucoup de gens y confondent la foi aveugle dans le progrès technique et la rationalité.


La foi aveugle dans la science


JPB.: Comment dans ce cas définissez vous la rationalité?

PHG.: Elle est multi-factorielle. Si l'on se pose la question du caractère favorable ou non des OGM, il faut aborder des questions d'économie, de politique, de droit...Je pense notamment au problème de la propriété du vivant, qui est fondamental pour l'avenir de l'humanité. Or là malheureusement, on ne peut pas régler le problème des OGM en regardant seulement des questions biologiques. J'ai fait des recherches contribuant à monter que des risques sérieux découlaient du fait d'utiliser des OGM et je me retrouve en face de gens qui m'accusent en quelque sorte d'obscurantisme parce que je ne suis pas d'accord avec leurs visions pro-technologie sur ces questions.


JPB.: Vous n'êtes pas, je suppose, hostile à l'idée de manipuler des gènes, notamment pour comprendre les relations entre gènes et organismes?

PHG.: Je n'ai rien contre le fait de manipuler des génomes. Ce contre quoi je suis absolument déterminé à m'opposer est le fait que l'on brevète les introductions de gènes dans les plantes, ce qui permettra à de grandes entreprises de s'approprier pratiquement toutes les semences de la planète et d'éliminer la biodiversité dans les plantes cultivées. Ceci mettra toute la nourriture de l'humanité en danger pour de simples objectifs de profit immédiat.


JPB.: Pourquoi les chercheurs ne l'admettent-ils pas, quand du moins ils ne sont pas subventionnés directement par les industriels en question?

PHG.: Je pense qu'ils sont animés par une foi robuste dans le progrès. Or il suffit de regarder l'histoire des sciences au 20e siècle pour constater que la foi dans le progrès a déjà donné des horreurs. L'eugénisme, qui consistait à stériliser des tas de gens pour cause de mauvais gènes, était un peu du même ordre. Toute la communauté scientifique était partie sur cette voie scandaleuse. Les scientifiques sont très doués pour dire comment on doit aller mais ils ne le sont pas davantage que les autres pour dire où l'on doit aller. Il existe des textes extraordinaires,, notamment de Karl Pearson, un des grands précurseurs des études d'hérédité et de statistiques 4). Il écrit que les scientifiques ont un esprit mieux organisé que les autres, que cela les rend de meilleurs citoyens, et que la rationalité commande de stériliser les gens n'ayant pas les capacités intellectuelles, morales ou sociales requises. Je suis effrayé de voir aujourd'hui le nombre de scientifiques qui s'imaginent pouvoir, en faisant appel à leur seule rationalité, résoudre tous les problèmes de l'humanité.


JPB.: Les gens, fussent-ils scientifiques, ont besoin de croire. Une partie de leur cerveau est formatée pour cela. Vous connaissez les observations d'imagerie cérébrale qui ont montré que ce sont pratiquement les mêmes aires qui s'activent quand on croit en Dieu et quand on croit en la science, avec un grand S. Ces aires auraient été spécialisées dans ce type de croyances lorsque nos lointains ancêtres auraient découvert la réalité de la mort et imaginé des perspectives au delà du présent pour oublier cette réalité désolante. L'explication vaut ce qu'elle vaut, mais...

PHG.: Je veux bien l'admettre. Ceci dit, en ce qui concerne la rationalité en biologie, il faut se rendre compte que celle-ci reste une science largement empirique. Or une science empirique digne de ce nom se refuse à accepter des solutions qu'elle n'a pas expérimenté de nombreuses fois. La nouveauté n'est pas dangereuse en elle-même. Elle est seulement porteuse d'inconnu. Chaque nouveauté comporte un risque à peu près inconnu. Le résultat est que si on en fait trop et à trop grande vitesse, ce à quoi le système économique et la foi dans le progrès nous poussent, à force d'innover dans tous les sens, on a beaucoup de chances à un moment ou un autre d'entraîner de graves conséquences.


JPB. : En dehors des OGM, pouvez vous citer un autre exemple de cela?

PHG.: On considère aujourd'hui comme hautement probable que les vaccinations massives en Afrique aient eu des liens avec l'émergence et en tous cas la diffusion du virus du sida. Vous savez que l'on a longtemps vacciné avec des aiguilles sales (c'est encore parfois le cas). Or la vaccination avec des aiguilles sales est un moyen de répandre un virus émergent. Mais il y a pire. Des scientifiques danois ont fait l'hypothèse qu'un virus de singe (SIV) attrapé accidentellement par un humain (qui se coupe en découpant du singe, par exemple) a peu de chance de devenir pathogène parce que le système immunitaire humain sait s'en débarrasser. Mais si jamais on repique ce virus d'un homme à un autre, on donne au virus le temps de se transformer, y compris en HIV. C'est l'hypothèse que je trouve la plus plausible et toute bête. Mais personne, les médecins les premiers, n'ont envie de parler de cela. Ils sont très attachés à la vaccination et paraître accuser un vaccin quel qu'il soit d'être à l'origine du sida ne leur plait pas.


JPB.: Nous ne dirons pas cependant qu'il ne fallait pas vacciner en Afrique.

PHG.: Non, mais il ne fallait pas le faire avec des aiguilles sales. Or pour éviter cela, il fallait sans doute quelques moyens supplémentaires à la disposition des équipes médicales. Il fallait agir avec précaution.


JPB.: C'est un peu si je ne m'abuse ce que disent ceux qui, sans contester les innovations en biologie, demandent plus de temps et de moyens d'expérimentation plus importants avant de généraliser leurs applications.

PHG.: Oui, mais il y a beaucoup de gens que cela n'arrangent pas d'entendre dire cela.


Un changement majeur dans l'évolution des sociétés


JPB.: Vous êtes de ceux, je l'indiquais en introduction, qui se battent pour que les pouvoirs qui décident des applications des sciences soient soumis à un examen permanent. Mais le grand public reste sceptique sur la possibilité d'influencer les décisions, grâce à des évaluations mieux faites et à la mise en place, ne fut-ce qu'à titre momentané, de barrières protectrices. Comment expliquez vous cela?

PHG.: Il est vrai que ce problème m'intéresse beaucoup. Cette passivité est générale. Aujourd'hui, les populations, même en Europe, s'imaginent être impuissantes face aux pouvoirs, quels qu'ils soient. Pourquoi? Je me suis rendu compte qu'aujourd'hui les entreprises ont pris dans nos sociétés une autonomie tout à fait nouvelle. Or le phénomène ressemble à celui qui est étudié dans l'évolution des formes de vie. Après l'apparition de la vie, puis de la cellule, qui ne sont sans doute pas du même ordre 5), on a vu apparaître les organismes.

On appelle organisme un ensemble de cellules qui restent ensemble au lieu de continuer à vivre leur vie séparément. On va parler d'organisme à partir du moment où les cellules associées se différencient dans leur fonctionnement de telle sorte qu'elles n'ont plus de sens en elles-mêmes mais ne prennent de sens qu'à l'échelle du groupe. On ne sait pas exactement quand ceci s'est fait dans l'histoire de la vie, car les traces fossiles sont rares. Sans doute bien avant l'explosion dite du Cambrien. De plus, les modes d'associations entre cellules ont commencé et se poursuivent aujourd'hui sous des formes moins visibles que celles aboutissant à la création d'un gros animal.


JPB.: Vous pensez par exemple au « quorum sensing » ou échange de messages chimiques entre bactéries qui dans certaines conditions les conduisent à se regrouper 6) soit pour résister à des stress, soit pour attaquer des adversaires mieux défendus.

PHG.: Oui. On sait aujourd'hui que les bactéries, quand elles sont en colonies, ne fonctionnent pas indépendamment les unes des autres. On savait déjà qu'existaient des différenciations de fait. Dans une colonie qui grandit, les cellules qui sont à l'intérieur ne se trouvent pas soumises aux mêmes conditions que celles qui sont à l'extérieur. Ces dernières disposent d'un milieu frais, si l'on peut dire. Apparaissent des processus assez fascinants de démocratie biologique permettant une meilleure adaptation d'ensemble. Je n'appellerais cependant pas cela un organisme, car les bactéries ne semblent pas avoir beaucoup dépassé ce stade.

Les eucaryotes, ou cellules à noyaux, eux, ont atteint des niveaux d'organisation cellulaire beaucoup plus remarquables. Ils ont constitué des organismes pouvant être composés, comme nous humains, de mille milliards de cellules, dont chacune a une fonction particulière. Alors que la sélection naturelle favorisait les cellules qui se reproduisaient le plus, il est apparu un phénomène de mise en commun entraînant le fait que certaines cellules de notre corps ne se reproduisent pas. Weismann précisément a démontré la non-transmission des caractères acquis du fait que seules les cellules germinales s'isolent du reste de notre corps et peuvent se reproduire, toutes les autres, composant les divers organes, disparaissant avec nous sans descendance.

Il est donc fascinant de se poser la question des conditions qui permettent l'émergence de l'organisme, puisque cette émergence suppose une perte d'individualité des cellules et une « acceptation » par la majorité d'entre elles du fait qu'elles ne vont plus laisser de descendance, tout en encourageant d'autres cellules à le faire à leur place.


JPB.: On retrouve le même phénomène chez les insectes sociaux...

PHG.: Bien sûr. Il y a certaines conditions nécessaires pour cela. La première est que l'ensemble doit avoir les moyens de contrôler au minimum ce que font les éléments. L'ensemble va devoir grâce notamment à des signaux chimiques s'assurer que chacun des éléments se comportera de la façon la plus productive possible pour l'ensemble. Plus le système sera complexe, plus le contrôle devra être élevé. Dans un organisme tel que le nôtre, ces signaux ont très nombreux. Mais il y a des systèmes de régulation plus violents, ceux que l'on nomme les « natural killers ». Ce sont des globules blancs qui détruisent les cellules se mettant à proliférer sur le mode cancéreux.


JPB.: La régulation d'ensemble est-elle essentiellement induite par le système nerveux central, via par exemple les sécrétions endocrines, ou bien existe-t-il des processus s'exerçant de cellules à cellules?

PHG.: Il y a énormément de tels processus. Quand on regarde la façon dont se fabrique un embryon, on constate que dès le stade des premiers amas cellulaires vont être émis par les cellules, bien avant qu'apparaissent des cellules nerveuses, des signaux régulateurs permettant de distinguer l'avant de l'arrière, les différents segments du corps, etc. C'est un peu compliqué à expliquer, car il faut comprendre que chaque cellule produit un certain nombre de substances ou signaux permettant d'influencer la façon dont se comportent ses voisines compte tenu de la façon dont le génome de ces cellules avait prévu de réagir à la réception de ce signal. L'émission de ces substances et la réaction des cellules qui les reçoivent est sous la dépendance des informations contenues dans le génome.


JPB.: Vous aviez parlé d'une seconde condition nécessaire à la formation d'un organisme complexe.

PHG.: Oui. La deuxième condition qui semble essentielle est illustrée par ce qui se passe chez des organismes apparemment plus simples que les nôtres. C'est le cas en ce qui concerne les volvox (cf image) qui sont des algues dont certaines espèces sont constituées de cellules isolées tandis que d'autres pas très lointaines résultent du regroupement de cellules restant non différenciées. D'autres espèces enfin sont constituées d'organismes aux cellules nettement différenciées. Or le fait que l'on parvienne à cette pluricellularité tient à ce que le niveau de l'organisme devient lui-même une unité de sélection.

Un élément essentiel permettant l'émergence de ces superorganismes tient au niveau auquel se produit la sélection. La sélection peut agir sur des cellules entre elles ou sur des groupes de cellules entre eux. Si la sélection sur les groupes de cellules devient plus forte que la sélection entre cellules, le niveau le plus pertinent pour assurer la reproduction du système devient le niveau du groupe. A ce moment là, se trouvent réunies les conditions dans lesquelles peut émerger un organisme.

Je ne peux pas m'empêcher alors de rapprocher ce processus biologique, émergence de l'organisme et perte d'autonomie des cellules individuelles , de processus que l'on retrouve dans notre monde économique. Comment expliquer que les entreprises industrielles et commerciales s'autonomisent de plus en plus au regard des individus qui les composent, au sens biologique que je décris ici? Imaginons que des groupes humains entrent en compétition les uns avec les autres d'une façon telle que les vainqueurs survivent et que les perdants disparaissent, autrement dit ne peuvent plus se reproduire. Dans ce cas la survie des individus dépend de leur capacité à faire partie d'un groupe plus compétitif que les autres. Si un tel groupe a les moyens de contrôler complètement les individus qui s'agrègent à lui, il peut devenir un superorganisme dans le sens biologique, au sein duquel les individus perdent leur autonomie.


JPB.: Cela n'avait pas été dit comme cela mais avait été constaté, au moins depuis l'Antiquité, avec l'apparition des thèmes de la Cité, de l'Etat puis de la Nation et du Parti, toutes entités personnifiées et d'ailleurs dotées à l'écriture d'une majuscule.

PHG.: Oui, mais ces systèmes n'avaient pas vraiment réussi à soumettre les individus. D'abord, les moyens de contrôle sur les individus dont ils disposaient restaient assez frustes. D'autre part, la sélection entre ces entités était (et demeure) assez faible. Les Etats sont certes en compétition les uns avec les autres, mais celle-ci se traduit rarement par la disparition du plus faible. De plus, les Etats sont protégés par divers facteurs qui les rendent difficilement destructibles: le territoire, la langue et les us et coutumes de leurs ressortissants. Au contraire, avec la globalisation actuelle, les entreprises sont nombreuses et placées dans une concurrence effrénée. On a fabriqué une espèce d'écosystème néolibéral qui les oblige à une compétition parfaitement darwinienne. De plus, diverses recherches, par exemple les techniques de neuromarketing concernant les consommateurs ou les processus d évaluation permanente concernant les employés visent à leur donner le plus grand contrôle possible sur les individus. Le contrôle n'est pas encore complet. Il y a des résistances. Mais je m'interroge sur les conditions qu'il faudrait réunir pour que ce contrôle devienne intégral.


JPB.: Je pourrais vous répondre que la raréfaction des ressources face à une démographie croissante complétée par l'extension des crises économiques et climatiques, feront que nous nous retrouverons dans la situation de nos lointains ancêtres pour qui l'individu n'avait aucune chance de survie en dehors du groupe.

PHG.; On pourrait imaginer un avenir assez conflictuel, j'en suis tout-à fait d'accord, mais cela n'impliquerait pas la naissance de réels superorganismes tant que la réussite des individus ne sera pas entièrement conditionnée par la réussite des groupes. Autrement dit, tant que les individus au sein d'un groupe conserveront des différentiels de réussite plus grands que les différentiels de réussite des groupes entre eux. Mais cette intuition que j'exprime n'est pas encore évidente aux yeux de tous. Elle n'est pas encore assez formalisé. Je ne peux pas vous donner les valeurs des paramètres du système qui permettraient de passer au niveau du superorganisme plutôt que rester à celui des individus, mais je pense aujourd'hui que cela pourrait se modéliser.


JPB.: Ceux qui ont conservé un restant d'optimisme face aux « progrès » de la société de l'information vous diront que beaucoup de facteurs dans celle-ci tendent à renforcer l'individuation. On vous citera le développement d'une relative démocratie locale en Chine grâce par exemple à l'Internet.


Vers un contrôle intégral ?


PHG.: Oui, mais en même temps, la capacité de contrôle de ces individus par des supersystèmes devrait progresser en parallèle. Je ne suis pas du tout certain que les individus ne soient pas en train de devenir des cellules composant des 'ensembles plus grands dont ils n'auraient d'ailleurs même pas la perception. De plus, je vous le redis, l'écosystème politico-économique contemporain devient avec la mondialisation à outrance absolument darwinien. Ce qui n'était pas le cas jusqu'à présent, où subsistaient des isolats. J'ajouterai que laisser les marchés décider de tout, au détriment des régulations imposées par des morales plus anciennes, fussent-elles religieuses, me paraît la pire des solutions.


JPB.: Cet entretien vous est consacré. Il ne l'est pas à mes propres cogitations. Je vous dirais cependant que vos conclusions d'ailleurs assez pessimistes rejoignent celles que j'ai présentées dans le livre que je viens de publier, « Le paradoxe du sapiens ». J'y associe étroitement les technologies et les humains au sein de systèmes en compétition darwinienne violente, que j'ai nommés des systèmes anthropotechniques.
Je constate d'ailleurs, à l'occasion de cet entretien, qu'à juste titre à mon sens vous faites des entreprises modernes et de leurs armes technologiques les plus illustratifs de tels systèmes anthropotechniques, bien plus que des groupes d'intérêts moins organisés, tel par exemple le lobby militaro-industriel américain. Ceci dit, pour moi, ce ne sont pas les individus composant ces systèmes qui décident, mais le système lui-même, selon des logiques décisionnelles sous-jacentes qui sont encore mal étudiées.

Mais vous-mêmes, quand vous parlez du rôle des entreprises en compétition darwinienne, pensez vous que ce sont les cerveaux de leurs dirigeants, sinon leur conscience dite volontaire, qui prennent les décisions les concernant? Ne pensez-vous pas que ce sont des mécanismes inconscients qui sont les vrais décideurs?

PHG.: Je le pense tout à fait. Certes, il y a des individualités d'ailleurs connues, qui ont sciemment décidé et décident encore de promouvoir le libéralisme économic absolu, Milton Friedman et ses successeurs, tenants modernes du darwinisme social par exemple, mais je ne suis pas certain qu'ils soient conscients de ce qu'ils sont en train de faire, ni a fortiori qu'ils soient assez méchants pour vouloir la fin de l'humanité de cette manière. Pour le reste, ce sont des mécanismes qui s'appliquent.

Ceci dit, faut-il désespérer de l'autonomie des individus? Il y a beaucoup de gens sur la planète qui commencent à se rendre compte du fait que ces situations conduisent à des impasses. Mais au delà de cela, que peuvent-ils faire? Sont-ils confrontés à une logique inéluctable qui conduit les humains à perdre leur identité et à devenir les simples éléments de superorganismes émergents, ceux que vous nommez des systèmes anthropotechniques et moi des firmes mondialisées néolibérales? Je vous avoue que je n'en sais rien.


Le besoin d'un travail de modélisation


C'est pourquoi j'aimerais faire un travail de modélisation un peu plus sérieux. Si on ne se trompe pas en matière de science de l'évolution et s'il existe des gammes de paramètres de système dans lesquelles l'organisme se constitue en rassemblant et spécialisant des cellules et d'autres gammes dans lesquelles les cellules restent individualisées, il serait bon de le préciser. L'individuation des cellules reste d'ailleurs largement le cas dans la biosphère où il existe beaucoup plus de cellules libres que de cellules regroupées en organismes. L'éventualité que toutes les cellules se retrouvent embrigadées en organismes n'est donc pas inéluctable. Dans certaines espèces telles que les amibes, les individus restent isolées tant que la nourriture est suffisante. Mais pour faire face à la rareté, ils s'empilent en agglomérats où les individus placés au sommet sporulent pour aller chercher des cieux plus cléments.


JPB.: Si je comprends bien, vous pensez que l'on pourrait faire apparaître certaines lois susceptibles de commander le choix entre logiques d'organisation différentes, non seulement au niveau des amibes mais aussi au niveau des humains.

PHG.: Voilà. Selon l'organisation que les humains choisiront, en particulier pour leur organisation économique, ils se protégeront ou non des superorganismes prédateurs qui pourraient les accaparer.


JPB.: Choisiront-ils au sens volontariste du terme de rester indépendants ou seront-ils conduits à le faire inconsciemment, pour des raisons qui nous échapperaient encore? Je vous avoue que je ne crois pas au libre arbitre. Pour moi ce mot est un cache-misère servant généralement à désigner des déterminismes qui ne sautent pas encore aux yeux.

PHG.: Je pense que nous sommes encore dans une période où demeurent des possibilités de choix, quelles que soient les raisons de ces choix. Cependant si se généralise la prise en mains de plus en plus forte de tout le système par des entreprises qui ne sont plus gérées par des humains, mais par un système d'actionnariat dont personne n'est responsable, le diagnostic devient très sombre. Le directeur de l'entreprise doit obéir au conseil d'administration, celui-ci doit obéir aux porteurs de fonds qui représentent des intérêts contraires à ceux des personnes qui apportent les fonds. Prenez les SICAV, exemple qui n'a rien de caricatural. Les salariés croient gagner de l'argent en souscrivant à des SICAV, mais la SICAV est actionnaire de l'entreprise et les anonymes qui dirigent la SICAV poussent cette entreprise au licenciement de ces mêmes salariés, soi-disant pour le profit de tous. On est en face d'un système qui boucle inexorablement. Si on laisse un tel système aller trop loin, il est possible que l'on ne puisse plus revenir en arrière.


JPB.: Mais, je vous repose la question, en tant que biologiste, comment voyez vous la coopération s'établir entre des individus nécessairement dispersés et aux intérêts parfois opposés qui « voudraient » empêcher le système d'aller trop loin. Le discours « tous unis contre l'exploitation » risque de ne pas suffire.

PHG.: Dans le monde biologique, on trouve tous les types d'interaction et de coopération. On a déformé la théorie darwinienne en disant qu'elle promouvait exclusivement la compétition. Certes la compétition demeure. C'est même elle qui pousse à la coopération. Si vous êtes en compétition avec tout le monde, vous ne recruterez pas d'alliés. La théorie néodarwinienne prévoit la coopération. Il y a d'abord coopération entre individus apparentés, parce que là elle ne rencontre pas beaucoup d'obstacles. Mais il y a aussi coopération entre individus différents, appartenant à des espèces différentes. Ceci se produit lorsque le succès reproductif de ces individus devient plus grand lorsqu'ils s'associent que lorsqu'ils se combattent. La théorie des jeux montre tout cela très facilement. Qui dit coopération ne dit pas forcément constitution d'un organisme unique où les individus perdent leur individualité. La question est de savoir quel est le niveau de coopération que l'on souhaite pour l'humanité. Est-ce que le fonctionnement en fourmilière serait le meilleur?

C'est très difficile de réfléchir à cela. Nous le faisons encore en hommes du 20e siècle. Nous ne sommes pas encore des hommes du 21e siècle. Nos proches descendants auront peut-être sur la question des points de vue très différents. Malheureusement, ces points de vue risquent d'être forgés par le système. Le Monopoly a été inventé pour apprendre aux joueurs les bienfaits du capitalisme libéral. Je ne sais qui invente les jeux vidéos actuels, mais ils sont relativement décérébrants. Il en est de même de la téléréalité et même plus généralement de la presque majorité des programmes de la télévision

La remarque de Patrick Le Lay : « ...à la base, le métier de TF1, c'est d'aider Coca-Cola, par exemple, à vendre son produit. […] Or pour qu'un message publicitaire soit perçu, il faut que le cerveau du téléspectateur soit disponible. Nos émissions ont pour vocation de le rendre disponible : c'est-à-dire de le divertir, de le détendre pour le préparer entre deux messages. Ce que nous vendons à Coca-Cola, c'est du temps de cerveau humain disponible. » demeure entièrement à l'ordre du jour, même dans les chaînes dites du service public. On ne peut pas reprocher à Patrick Le Lay de faire ce pourquoi il est payé. Mais on pourrait reprocher à l'ensemble des humains de ne pas se rendre compte du fait qu'ils sont en train de fabriquer un système dans lequel Patrick Le Lay est payé pour les décérébrer.


JPB.: Est-ce que, plus exactement, les humains ne s'en rendront-ils compte que trop tard, quand le système sera déjà installé. C'est ce qui s'était passé lors de l'avènement du nazisme.

PHG.: Je vais vous dire que personnellement, je ne pense pas que cette question soit de gauche ou de droite. C'est certes de la politique, mais qui se pose au niveau de la question des modes de gestion d'une société par rapport aux objectifs que l'on se fixe.


JPB.: Encore une fois, je ne vois pas comment des gens globalement conditionnés pour obéir aux grands systèmes que je nomme anthropotechniques peuvent éventuellement s'affranchir des ordres diffusés par ceux-ci. Ils diront Je, Je, Je, mais ils ne feront rien. On le constate au niveau de la biodiversité, notamment dans les océans. Beaucoup de gens sont convaincus qu'elle est en train de disparaître et qu'il ne restera que des méduses à consommer dans les sea-food, mais en pratique rien ne se fait. Le Japon a réussi à persuader le monde entier que pour le profit des restaurants japonais, il faut continuer à exterminer les thons.

PHG.: Je vous répondrai qu'il est difficile de prévoir l'avenir, notamment la façon dont les humains réagiront, notamment face à l'aggravation des crises économiques et écologiques. Vont-ils se dire, y compris en Chine et en Inde, qu'ils ont créé un système qui ne marche pas et vont-ils réagir avant qu'il ne soit trop tard? Vont-ils se borner, comme lors de la crise financière récente, à réagir pendant quelques jours, pour revenir au système précédent comme s'il ne s'était rien passé? Je n'en sais rien. Je ne sais pas quelle horreur il faudra pour que les esprits et les règles internationales changent, comme cela avait été le cas après l'holocauste et Nuremberg.

Je ne compte pas en tous cas sur les Etats ou sur les organisations internationales pour ce faire, car ces organismes ne sont pas suffisamment en compétition, comme nous le disions précédemment. La seule compétition forte qui s'exerce actuellement se situe entre les entreprises, grandes ou petites d'ailleurs, dont a vu qu'elles en sont pas assez conscientes globalement pour s'accorder sur des objectifs de survie globale dans un monde où n'existent plus de règles. Le film The Corporation 8) montre bien que, dès le moment où l'on a autorisé les entreprises à s'intéresser à tout ce qu'elles voulaient, en jouant leurs jeux à elles, on a fait disparaître l'espoir de régulations globales. Mais les choses peuvent changer.


JPB.: Howard Bloom, que vous connaissez, vient d'écrire un livre développant une idée radicalement opposée aux vôtres, The Genius of the Beast 9). Il veut y montrer que le progrès et plus généralement l'évolution, tiennent à la compétition permanente entre les acteurs économiques, se traduisant par des cycles infiniment répétés de boom, crash et redémarrage sur des bases améliorées.

PHG.: Il a raison, en un sens. Il s'agit d'un système extraordinairement créatif. Mais il reste à se poser la question, comme nous venons de le dire, de savoir ce que l'on souhaite. Il ne s'agit pas de souhaiter seulement conserver le passé. Il s'agit d'évaluer et discuter les perspectives qui s'ouvrent. Je crois quand même que l'on peut changer les règles du jeu.
Je vous avoue que personnellement je ne crois pas à la suppression du capitalisme. Je suis pour un retour au capitalisme dirigé: les entreprises en contrat avec les Etats, la suppression du statut de personne conféré aux entreprises. Comment à cet égard tolérer de voir la multinationale Monsanto, avec toutes les horreurs qu'elle a fait subir à la planète, poursuivre devant les tribunaux quelques malheureux cultivateurs voulant conserver le droit d'utiliser leurs propres semences. Il faudrait aussi supprimer la responsabilité limitée accordée aux fameuses SARL. Je voudrais n'avoir affaire qu'à des personnes physiques.

Il s'agit là de dissymétries telles que si les Etats continuent à s'en faire les complices, ils seront peut-être balayés. Mais cela n'a rien d'obligé, je le répète. Nul ne peut prédire comment réagiront les humains. J'espère pourtant qu'ils conserveront des ressorts pour se révolter. On n'a jamais vu de système, aussi oppresseur soit-il, qui ne suscite pas de révoltes individuelles devant lesquelles le plus souvent ce système finit par céder.

Je n'affirme pas cela en m'appuyant sur une vision quasi religieuse de l'homme, mais plutôt sur des approches systémiques, dont d'ailleurs sur votre site vous donnez de nombreuses illustrations.


Notes.
Ces notes sont proposées par Automates-Intelligents
1)Sur August Weismann, voir http://fr.wikipedia.org/wiki/August_Weismann
2)Sur Richard Lewontin, voir http://en.wikipedia.org/wiki/Richard_Lewontin
3)Sur « La triple hélice », voir http://www.techno-science.net/?onglet=ouvrages&ID=2020513927
4)Sur Karl Pearson, voir http://www.larousse.fr/encyclopedie/personnage/Pearson/137363
5)Voir Life ascending de Nick Lane sur ce site
http://www.admiroutes.asso.fr/larevue/2010/104/nicklane.htm
6)Concernant des exemples de quorum sensing dans l'adaptation des multiples bactéries qui peuplent le corps humain, soit à l'intérieur d'une espèce bactérienne, soit entre espèces, voir un article du NewScientist du 6 mars 2010, p. 36 « Bugging your bugs. Learning to speak microbe  » concernant la possibilité de détourner certains de ces messages pour empêcher les bactéries de s'associer de façon virulente. http://www.newscientist.com/article/mg20527501.300-bugging-bugs-learning-to-speak-microbe.html
7)Sur les volvox, voir http://fr.wikipedia.org/wiki/Volvox. Voir aussi l'article de Richard E. Michod, dans l'ouvrage collectif « Aux origines de la sexualité, coordonné par Pierre Henri Gouyon op.cit).
8)Documentaire canadien de 2003. Voir http://fr.wikipedia.org/wiki/The_Corporation
9)The genius of the Beast. Voir notre article http://www.automatesintelligents.com/biblionet/2009/nov/geniusofthebeast.html.

 

 

Repost 0
16 mars 2010 2 16 /03 /mars /2010 10:19

 


Biblionet. Life ascending. The Ten Great Inventions of Evolution

par Nick Lane

W.W.Norton and Cie 2009
350 pages

 

présentation et commentaires par Jean-Paul Baquiast
12/03/2010

 

Nick Lane est un biochimiste britannique. Il détient une chaire de recherche dans le département de génétique, évolution et environnement de l'University College London (UCL). L'UCL fut fondée en 1826 afin d'ouvrir les études supérieures à des étudiants dont les revenus et l'origine sociale ne permettaient pas l'accès à Oxford et Cambridge, réservé par ailleurs aux membres de l'Eglise Anglicane. L'UCL s'est toujours distinguée par ses approches progressistes, aussi bien en ce qui concerne le recrutement des enseignants et étudiants que le choix des matières d'enseignement et thèmes de recherche. Le docteur Lane comme nous le verrons fait honneur à cette tradition découlant de la philosophie des Lumières. Toute son oeuvre est inspirée par le souci de défendre l'intégrité de l'esprit scientifique dans l'étude des phénomènes de la vie, face aux tentatives de prise en mains par les idéologies religieuses et l'esprit partisan.

Nick Lane est principalement un biochimiste (la biochimie est la chimie des molécules et composés organiques participant à la constitution et au fonctionnement des organismes vivants), mais il suffit de regarder les résumés de ses livres pour voir qu'il est bien plus que cela. Il est à l'aise non seulement dans les sciences de la vie et de la matière, mais dans toutes les sciences dites émergentes, notamment les sciences cognitives, neurosciences, sciences de l'artificialisation...Il est vrai cependant que ses recherches se sont axées plus particulièrement sur l'origine de la vie et son évolution vers des formes de plus en plus complexes, à travers notamment la maîtrise des processus biologiques pour la production d'énergie (bioenergetics). Il a fondé ainsi l'UCL Consortium for Mitochondrial Research, les mitochondries étant les organules intracellulaire apportant l'énergie nécessaire à la vie de la cellule.

Pour en savoir plus
Site de Nick Lane http://www.nick-lane.net/index.html
University College London http://www.ucl.ac.uk/about-ucl/

 

Nick Lane n'est pas seulement un chercheur. C'est aussi un écrivain scientifique extrêmement fécond et talentueux, donnant une forme accessible aux questions les plus complexes. Pour cela, il sait à merveille vivifier la présentation de l'information purement scientifique en la replaçant dans des scénarios élargis à la dimension dramatique ou poétique exigée par la compréhension d'évènements effectivement grandioses. Ceci ne veut pas dire qu'il crée des mythes, mais qu'il sait faire revivre pour nous, comme si nous en étions des témoins oculaires, ce qui fut effectivement un long drame aux multiples facettes, l'évolution de la Terre et celle de la vie depuis leurs origines.

Les livres de Nick Lane, comme les nombreux articles qu'il donne à des revues scientifiques prestigieuses, comportent une autre qualité rare, encourageant le lecteur à beaucoup de réflexions personnelles. Il s'efforce, ce qui suppose un effort continu de mise à jour des connaissances, de tenir compte des travaux les plus récents, fussent-ils encore peu connus au moment où il écrit. Ceci lui permet, puisque les travaux ainsi cités offrent souvent des perspectives inattendues, d'échapper à la tentation de se satisfaire d'explications tenues pour valables par le plus grand nombre de ses collègues, mais qui laisseraient dans l'ombre des points nouveaux essentiels.  

Le premier livre de Nick Lane, Oxygen: The Molecule that Made the World (OUP, 2002) retrace l'apparition de la vie à l'aube de l'existence de la Terre, voici quelques 3,5 milliards d'années (nous utiliserons dans la suite de cet article une notation simplifiée du type [– 3,5 mda]. Il montre qu'un changement décisif a été apporté du fait de la production d'oxygène par les premières cyanobactéries. Nous avons présenté ici même un article récent de l'auteur par lequel il a précisé les indications données par ce livre, à la suite d'études plus récentes (voir http://www.admiroutes.asso.fr/larevue/2010/104/lane.htm ).

En 2004, il a co-édité un livre consacré à la cryobiologie, c'est-à-dire aux formes de vie capables de se développer à très basse température, condition qui fut plusieurs fois et demeure dans certains endroits celle de la Terre : Life in the Frozen State, CRC Press.

Ce fut cependant son troisième ouvrage qui commenca à attirer systématiquement sur lui l'attention des milieux académiques et même du grand public. Il s'agissait de Power, Sex, Suicide: Mitochondria and the Meaning of Life (OUP, 2005). Il y montre comment les processus par lesquels les organismes cellulaires sans noyau, les procaryotes, ont pu devenir des cellules complexes, ou eucaryotes, en absorbant des bactéries capables de générer de l'énergie, devenues les mitochondries, ont véritablement marqué le passage aux organismes multicellulaires. Mais comme le titre de l'ouvrage l'indique, le livre est bien plus que cela. Il s'agit d'une véritable réflexion philosophique sur la signification de la vie. Il a été sélectionné comme The Economist's Book of the Year pour 2005 et nominé pour les 2006 Royal Society Aventis Science Book Prize et le Times Higher Young Academic Author of the Year Award.

Il est temps, après cette courte introduction, d'en venir à la présentation du dernier livre du Dr Lane, Life ascending, qui fait l'objet de cet article.

 

Première partie. Présentation générale du livre.
Les dix grandes inventions caractérisant l'émergence et le développement de la vie

 

Une vision grandiose, certains diront excessivement ambitieuse, inspire Life ascending. Nick Lane l'exprime dès la première page de l'introduction. Il montre qu'aujourd'hui, face aux multiples formes actuelles de la vie et aux innombrables vestiges du passé qui en sont restés, la science n'est plus réduite aux hypothèses plus ou moins hasardeuses et lacunaires. "Aujourd'hui, dit-il, pour la première fois dans l'histoire de notre planète, nous savons ". (We know).

Cette nouvelle compréhension du monde vivant ne résulte pas de l'accès à une quelconque connaissance révélée. Elle découle d'une application patiente de la méthode proposée par Darwin depuis la publication il y a 150 ans de son ouvrage « L'origine des espèces ». Une telle méthode, résumée depuis par le terme de théorie darwinienne de l'évolution ou darwinisme (reproduction, mutation, sélection, ampliation) a d'abord servi à comprendre pendant un siècle le langage des fossiles puis des gènes. Mais depuis les dernières décennies, elle a permis d'interpréter des données fournies par un grand nombre de nouvelles sciences, dont les observations éclairent non seulement les « mystères » de la vie sous ses formes actuelles mais ceux de son plus lointain passé, remontant à des temps où l'on ne pouvait pas encore parler de vie proprement dite.

Certains diront d'emblée que, dans l'affirmation qu'enfin « nous savons », l'auteur fait montre d'une excessive confiance en la science et en notre capacité à interpréter ses résultats. Pourtant Nick Lane est formel. Aujourd'hui, la science sait. Ceux qui disent le contraire se refusent à savoir, pour des raisons non recevables, où la déontologie scientifique n'a rien à voir 1). Certes, on ne sait pas tout, des détails manquent encore, mais dans les grandes lignes, les questions traditionnellement posées tant par les philosophes que par les scientifiques ont reçu des réponses à partir desquelles il est possible de dresser un tableau d'ensemble parfaitement significatif.

Nick Lane ne se borne pas à affirmer, il démontre. C'est là qu'est la grandeur de son entreprise, car sous une apparence a priori anodine, consistant à commenter les 10 grandes inventions apportées à la planète Terre par l'évolution des structures biologiques, il montre à propos de chacune de celles-ci qu'elles trouvent leurs origines dans les acquis des précédentes, le tout prenant naissance à partir de lois finalement très simples relevant non pas de la biochimie, qui n'existait pas encore, mais de la géochimie, celle de la Terre à ses débuts. Mais mettre l'accent sur 10 inventions seulement, alors que l'histoire de la vie fut le résultat d'interactions innombrables entre mécanismes générateurs, n'est il pas excessivement simplificateur?

On peut répondre que cette simplification voulue présente un intérêt pédagogique, en proposant une sorte d'échelle dans l'accroissement de la complexité résultant du simple jeu des mécanismes darwiniens de mutation-sélection. Mais on peut aussi y voir l'illustration de la vision épistémologique qui inspire l'auteur. Il veut montrer – il y réussit parfaitement – que les mécanismes biochimiques dont il possède une maitrise accomplie permettent en effet d'aborder, avec des réponses convaincantes, les questions millénaires de la philosophie. Les grandes inventions dont il nous propose l'étude représentent en effet des réponses à chacune de ces questions. La philosophie réduite à la biochimie, s'indignera-t-on? Eh oui, parfaitement.

Ces inventions doivent alors être vues non comme un artifice pédagogique de présentation, mais comme les briques de base à partir, depuis les origines de la philosophie, s'est construite notre intellection du monde extérieur. Le lecteur en lisant l'introduction pourrait légitimement rester sceptique face à une si grande ambition. Mais il ferme le livre en étant convaincu. Il n'est pas convaincu par un tour de passe-passe intellectuel, comme ceux que manipulent beaucoup d'illusionnistes des pseudo-sciences. Il est convaincu par l'énoncé des innombrables hypothèses et souvent preuves apportées dans chacun des domaines envisagés, par les chercheurs bien réels et souvent encore bien vivants et actifs, dont l'auteur s'est donné le mal d'identifier et d'interpréter les travaux. Le livre n'est certes pas d'accès très facile, bien qu'il soit très clair. Mais les matières sont complexes. On ne peut évidemment que regretter, pour les lecteurs peu rompus à l'anglais des sciences, l'absence d'une traduction en français.

Quelles sont les 10 grandes inventions de la vie dont l'auteur a voulu faire les symboles d'un accroissement continu de complexité, résultant, répétons le, non de l'accomplissement d'un dessein préétabli mais du simple jeu du hasard et de la nécessité, pour reprendre les termes de Jacques Monod. Nick Lane nous explique dans l'introduction les raisons du choix qu'il a du faire, parmi des dizaines d'autres inventions qui auraient pu mériter d'être évoquées. Le première critère de sélection retenu a été la capacité du phénomène étudié à « révolutionner » la planète toute entière, à travers la révolution des capacités transformationnelles de la vie en étant résulté. Révolutionner veut dire en ce cas changer du tout au tout le paysage évolutif dans lequel prenait place l'invention. Bien évidemment, l'appréciation demeure subjective.

La première de ces inventions, sans laquelle rien ne se serait produit, fut la synthèse des premiers composés biologiques à partir de matériaux purement géologiques ou géothermiques. Nick Lane en fait le premier chapitre de son livre. Nous y consacrerons la seconde partie de cet article, afin de mettre en évidence la méthode suivie par l'auteur, comme chercheur d'abord, comme épistémologue ou philosophe des sciences ensuite. Une autre invention, sans doute presqu'aussi déterminante, comme Nick Lane l'avait montré dans son premier livre, fut celle de la photosynthèse biologique. Lorsque celle-ci est apparue, le monde biologique mais aussi le monde géologique furent entièrement transformés par la production d'oxygène, initialement simple sous-produit ou déchet de la décomposition de l'eau par l'énergie lumineuse convenablement captée par les premières bactéries photosynthétiques.

Dans cette catégorie des inventions « révolutionnaires », l'auteur place aussi le mouvement, qui a transformé les premiers organismes en leur permettant de se déplacer à la recherche de nourriture, au lieu d'attendre passivement que les courants marins les approvisionnent en nutriments. Il y ajoute la vue, apparue il y a environ 540 millions d'années, très rapidement répandue, quasiment sous les formes dites évoluées de l'oeil moderne et qui fut à l'origine des premières grandes diversifications d'espèces, à commencer par l'explosion dite du Cambrien. Nick Lane rédit à néant ce faisant l'argument répandu à satiété par les créationnistes, selon lequel l'oeil est trop complexe pour avoir résulté de changements progressifs induits par la compétition darwinienne. Il démontre que c'est pourtant bien ce qui s'est produit, à partir de taches photosensibles apparues chez des crevettes ou animaux analogues dépourvus d'yeux, tels que l'actuelle Rimicaris exoculata vivant autour des cheminées volcaniques océaniques dites fumeurs (image).

Le deuxième critère de sélection proposé par Nick Lane repose sur l'importance de l'innovation au regard de ses conséquences multiples, y compris en termes symbolique, découlant aujourd'hui des mécanismes biologiques correspondants. Il range dans cette catégorie la reproduction sexuée et la capacité de vieillir et de mourir. Beaucoup d'organismes peuvent d'une certaine façon survivre sans s''inscrire dans ces mécanismes, apparemment très coûteux. Mais sans eux, il n'y aurait pas de vie supérieure telle que nous l'expérimentons. Or si les biologistes et les philosophes ont à peu près élucidé les différents aspects du mouvement et de la vue, il ne l'ont pas encore fait complètement, malgré les apparences, de ceux du sexe et de la mort, qu'il s'agisse de l'apoptose cellulaire ou d'autres formes plus complexes mais néanmoins programmées de dissolution.

Le troisième critère de sélection des innovations vitales retenu par Nick Lane tient à leur importance comme facteur causal dans le grand jeu de la sélection dite naturelle. Il veut dire par là qu'il ne veut pas s'intéresser, dans son livre, aux facteurs de sélection culturels, résultant par exemple de l'influence des comportements et des langages acquis par les différentes espèces au cours de leurs interactions avec le milieu. Ce n'est pas qu'il nie cette influence. C'est bien plutôt parce que, pour lui, biochimiste, ces comportements et langages culturels trouvent leur source dans l'évolution des bases neurologiques et plus particulièrement dans l'organisation des cerveaux.

Si le scientifique veut les comprendre, il doit, avant de se perdre dans des analyses sans fins sur l'évolution de tels comportements observés de l'extérieur, remonter à leurs sources cellulaires. Pour cela, il doit étudier comment, y compris d'ailleurs au sein de formes de vie relativement simples, sont apparus des réseaux neurologiques permettant des phénomènes de conscience primaire, elle-même nourrie par la perception des affects liés notamment au fonctionnement des organes sensoriels endogènes et exogènes.

Nous ne pouvons que souscrire à cette approche. Nos lecteurs savent que sur ce site, nous avons souvent donné la parole aux chercheurs pour qui la conscience est une émergence se produisant à partir d'architectures biologiques et neuronales d'origine très primitive. Il n'y a pas de raison, autres que mythologique, de refuser qu'elle puisse jouer un rôle dans l'évolution d'espèces moins complexes apparemment que la nôtre, chez des insectes, des méduses voire des réseaux bactériens.

Nick Lane enfin s'est inspiré d'un dernier critère de sélection: le caractère « iconique » ou si l'on préfère, hautement symbolique, que prend dans la science d'aujourd'hui telle ou telle des inventions apparues tout au long des 3mda au cours desquelles la vie a évolué. Pour lui, deux grands mécanismes doivent être étudiés à cet égard. L'un concerne la double hélice de l'ADN responsable d'un grand nombre de mutations décisives 2), l'autre la construction de la cellule complexe ou eucaryote. Celle-ci intègre différents organismes préexistants, notamment des bactéries productrices d'énergie, devenues les mitochondrie précitées, ainsi que toutes celles contribuant à construire l'organisme et permettre la vie de la cellule. On sait que peu avant l'explosion cambrienne, les eucaryotes ont appris à s'assembler en organismes complexes au sein desquels les cellules se sont diversifiées en organes mis au service de fonctions spécifiques.

A la fin de son introduction, que nous venons ici de résumer, Nick Lane attire l'attention sur un point essentiel, déjà évoqué. A côté des analyses permises par l'étude des fossiles et des ADN, dans la mesure où des spécimens suffisamment parlants existent, la biologie ou plus exactement la biochimie dispose aujourd'hui d'outils extrêmement puissants, mais qui supposent des investissements non négligeables. Ces instruments ont transformé la biologie comparée et la paléontologie comparée. Il s'agit notamment de l'étude, grâce aux progrès de la cristallographie, des enzymes qui catalysent des réactions chimiques identiques ou très voisines, dans tous les organismes, de la bactérie à l'homme. Ainsi peuvent apparaître des blocs constitutifs plus ou moins transportables qui selon les environnements, permettent l'adaptation des organismes à des contraintes très différentes. D'autres outils également puissants proviennent du déchiffrage devenu relativement aisé de génomes entiers et, mieux encore, de l'analyse des millions de protéines (protéomes) pouvant résulter de l'expression de ces gènes, gènes dits régulateurs ou gènes apparemment inactifs.

La biologie computationnelle permet simultanément de construire des modèles de plus en plus éclairants des organismes et mécanismes étudiés. L'imagerie fonctionnelle précise de plus en plus finement l'action de faisceaux de neurones eux-mêmes de plus en plus fins. Les analyses géologiques montrent comment les roches et minéraux ont évolué au cours des temps, en conséquence de l'évolution des formes de vie ou sous la forme de causes intrinsèques profondément déterminantes (comme les éruptions volcaniques). Bref nombreux sont les nouveaux outils permettant de justifier l'affirmation de l'auteur: « maintenant, nous savons, ou, si l'on préfère, ceux qui veulent savoir ont les moyens de le faire » Les nouvelles générations de biologistes évolutionnaires ne devraient donc pas avoir d'excuse s'ils s'en tiennent à des explications désormais dépassées, fussent-elles vieilles de seulement une dizaine d'année.

Aurions nous pour notre part, une suggestion à faire pour compléter la liste des grandes inventions ayant permis l'ascension de la vie telle que nous la connaissons aujourd'hui? Nous pensons, comme nous avons essayé de le montrer, dans notre livre « Le paradoxe du sapiens », qu'il faut dorénavant tenir compte des mariages symbiotiques s'organisant au sein de ce que nous avons nommé des organismes ou superorganismes anthropotechniques, entre composants biologiques et composants technologiques. Cette évolution est toute récente, puisqu'elle n'a pris forme qu'avec l'utilisation par les hominiens des premiers outils lithiques et pyrotechniques. Mais aujourd'hui, notamment avec l'artificialisation des constituants biologiques et neurologiques des systèmes vivants, elle paraît en train de transformer, voire de changer irrévocablement, le sens des évolutions se produisant sur la planète, sinon dans son environnement cosmique proche.

 

Deuxième partie.
Présentation du chapitre 1. L'origine de la vie

Introduction à la seconde partie

Pour inciter le lecteur à s'engager dans la lecture, un peu difficile certes pour quelqu'un possédant mal l'anglais, du livre de Nick Lane, « Life ascending », nous consacrons la seconde partie de notre présentation à résumer en français le premier chapitre du livre. Nous espérons que les simplifications auxquelles nous avons cru devoir procéder, comme les quelques commentaires que nous avons apportés, ne trahissent pas le texte de l'auteur.

Mais pourquoi nous engager ici dans un tel travail? Nous le faisons pour illustrer la richesse d'un livre qui bien que destiné à un large public, apporte pratiquement à toutes les pages des informations généralement inconnues de ce public et concernant, non des questions techniques, mais les grandes questions philosophiques que suscitent les sciences modernes en général. Certes les spécialistes connaissent ces questions. Mais ils ne savent généralement pas faire partager les problématiques soulevées. Il suffit de consulter les articles détaillés fournis par Wikipedia à propos de chacun des concepts évoqués. Ces articles sont destinés à des confrères ou des étudiants. Ils sont incompréhensibles par un lecteur généraliste.

Ce n'est pas le cas de Life Ascending ni des deux ouvrages de Dick Lane précités l'ayant précédé. Bien qu'un peu ardus, ils sont à la portée d'un lecteur attentif, ce qui fait à nos yeux leur grand mérite. Ajoutons que les écrits ne sont pas seulement des compilations. Ils résument aussi les travaux personnels de l'auteur et de ses collaborateurs, concernant un grand nombre des points évoqués. Tous les spécialistes de la géochimie et de la biochimie ne sont sans doute pas d'accord avec lui. Encore faut-il connaître les thèses en présence pour en juger.

Précisément, concernant les origines de la vie, nous avons dans un article de juin 2009, Les origines de la vie. Réponse possible dans la décennie , évoqué certaines directions de recherche récentes prometteuses,intéressant une question qui pour ses détails reste en grande partie obscure. On constate en lisant cet article que ces recherches ne recoupent pas exactement les pistes évoquées dans le livre de Nick Lane, sans d'ailleurs les contredire explicitement. Mais c'est le propre de la science de s'enrichir sans cesse. Dans un article précédent, L'oxygène, les cyanobactéries et les premiers organismes multicellulaires , nous avions d'ailleurs montré que Nick Lane, à propos de l'oxygène prébiotique, avait été amené à compléter ses propres hypothèses à partir de nouvelles observations.

Dans le résumé fait ici du premier chapitre du livre, nous voudrions faire comprendre la méthode de présentation de Dick Lane. Après avoir soulevé des questions difficiles, jugées en général sans solutions aujourd'hui, il montre au contraire, comme il le dit dans sa propre introduction, que  la science sait désormais y rapporter des réponses – tout au moins dans les grandes lignes . Cette même méthode se retrouve dans les autres chapitres, consacrées aux autres grandes questions abordées par le livre, depuis l'ADN jusqu'à la conscience. C'est ce qui fait le caractère extraordinairement constructif du livre.

A la recherche de l'incubateur

Le thème des origines de la vie est particulièrement intéressant, car on sait qu'il est aujourd'hui au coeur d'un certain nombre de débats scientifiques très actuels – sans mentionner les débats philosophiques et religieux qui ne nous intéressent pas ici. Un premier point relève de l'astrophysique ou plus précisément de l'astro ou exobiologie: quelles sont les conditions physiques permettant à un corps de type planétaire (voire à un nuage de gaz) de laisser émerger des formes de vie plus ou moins proches de celle que nous connaissons et donc identifiables au cas où nous les rencontrerions au hasard d'une observation ou d'une exploration? Implicitement, se pose alors la question du hasard et de la nécessité. Si ces conditions se rencontraient quelque part, donneraient-elles nécessairement naissance à de la vie? Autrement dit, sommes nous nous-mêmes le produit quasi obligé de lois plus fondamentales ou celui d'un hasard qui aurait fort peu de chances de se reproduire, au moins au sein d'un nombre fini de planètes de type terrestre (laissons de côté ici la question du multivers et du principe anthropique).

Le deuxième point d'actualité concerne la question, qui nous intéresse particulièrement sur ce site, de la vie artificielle ou plus précisément de la possibilité de reconstituer des organismes dotés des caractères que nous attribuons à la vie avec des composants biologiques artificiellement assemblés et plus radicalement encore, avec des composants physiques et chimiques ordinaires, eux aussi artificiellement assemblés. Si cette synthèse s'avérait possible à brève échéance, elle donnerait des indices intéressants (mais évidemment pas de preuves définitives) sur ce qui s'était passé sur Terre il y a quelques milliards d'années.

Le sujet, comme tous ceux abordés dans le livre, est difficile. Il nécessite un minimum de connaissances en matière de chimie et de thermodynamique. Néanmoins Dick Lane sait en faire, comme nous l'avons noté dans la première partie de cet article, une saga où l'intérêt du lecteur ne faiblit pas. L'histoire des tentatives pour reconstituer les conditions ayant permis l'émergence de la vie commence avec les fameuses expériences de Stanley Miller et Harold Urey à partir de 1953, qui lancèrent l'hypothèse de la « soupe prébiotique ». Il s'agissait d'un mélange de gaz, ammoniac, méthane, hydrogène censé reproduire l'atmosphère de la Terre primitive, à l'image de ce que ces chercheurs avaient cru observer sur Jupiter. Des décharges électriques dans ce mélange produisirent à la surprise générale, un certain nombre d'acides animés constitutifs des protéines biologiques. Ce n'était pas de la matière vivante, mais on était sur le chemin. Malheureusement, assez vite (au grand désespoir de Miller qui, selon Nick Lane, ne s'en est jamais vraiment consolé), l'hypothèse de la soupe primitive perdit progressivement de sa pertinence. Les gaz supposés constituer l'atmosphère de l'époque (- 4mda) n'étaient pas ceux sur lesquels Miller avait expérimenté. Il s'agissait en fait, selon les hypothèses plus récentes, de C02 et d'azote avec des traces de méthane, mélange dans lequel les décharges électriques n'ont aucun effet.

Le concept de soupe prébiotique fut cependant relancée quelques années plus tard avec l'hypothèse due au cosmologiste Fred Hoyle selon laquelle l'espace comportait de tels mélanges, notamment au sein des comètes. La vie aurait donc pu très bien être importée sur Terre par des chutes d'astéroïdes (la panspermie). Mais comme l'écrit Nick Lane, on ne peut pas raisonnablement résoudre un problème terrestre en faisant appel à des phénomènes extraterrestres au demeurant invérifiables.

Cependant, lorsque les biologistes moléculaires ont compris, dans les années 1970, la façon dont les gènes se répliquaient au sein de l'ARN et de l'ADN, ils remirent à l'honneur l'hypothèse de la soupe prébiotique. On pouvait imaginer que dans un milieu riche en composés variés, des proto-gènes se soient essayé pendant des millénaires à l'auto-assemblage et à la réplication, jusqu'au jour où ils auraient trouvé la bonne formule. Mais l'idée à nouveau se révéla sans issue, tout au moins appliquée à la soupe. On peut mettre une soupe aussi riche que l'on veut en attente pendant des siècles, il ne se produira rien sinon une désintégration progressive de ses éléments. Manque en effet l'impulsion thermodynamique, autrement dit l'énergie permettant à des corps naturellement stables de se décomposer et de se recomposer en éléments nouveaux. L'eau, H20, restera éternellement H20 si on ne lui applique pas des sources d'énergie considérables. De simples décharges électriques ne peuvent suffire.

L'énergie pourtant ne manquait pas, mais il fallait la chercher là où elle était, non dans l'atmosphère mais dans les entrailles de la Terre ou plus exactement dans les failles sous-marines nées de la tectonique des plaques, mettant en contact des roches avec l'eau des grands fonds. Les explorations sous-marines actives à partir des années 1970 permirent d'abord d'identifier des évents hydrothermaux de type volcanique éjectant des matières et gaz à haute température et sous haute pression. On les a comparé à l'enfer sous la mer: gaz acides, sulfureux, températures élevées...Malgré leur toxicité à nos yeux, ces « fumeurs » sont le siège d'une vie très active, adaptée aux grands fonds, comportant principalement des bactéries et archae bactéries adaptées (acidophiles, thermophiles, sulfureuses...), mais aussi des organismes complexes, vers tubulaires, crabes et crevettes, etc.

Cependant, la présence de ces espèces ne veut pas dire que leurs précurseurs aient pris naissance en ces lieux. Rien ne permet autrement dit de penser qu'il s'agit de fossiles vivants témoins des premières formes de vie. Une objection majeure s'oppose à cette hypothèse. A supposer que les réactions chimiques violentes se produisant dans l'environnement de ces fumeurs aient pu et puissent encore produire des assemblages de proto-réplicants, ceux-ci se dilueraient et se disperseraient immédiatement dans le milieu océanique.

Un autre argument doit être évoqué éliminant la recherche de l'origine de la vie telle que nous la connaissons autour des évents volcaniques acides Les bactéries vivant autour des fumeurs sont des bactéries sulfureuses. Les bactéries pourpres sulfureuses sont certes des bactéries primitives. Contrairement aux cyanobactéries, elles ne produisent pas d’oxygène. Dans le cycle du soufre, elles oxydent le sulfure d'hydrogène (H2S) en soufre élémentaire et en hydrogène afin de l'attacher au C02 afin de créer de la matière organique. Ce faisant, elles ont besoin d'énergie. Cette énergie provient de la réaction du sulfure d'hydrogène avec l'oxygène de l'eau. Les bactéries sulfureuses ne peuvent survivre dans un milieu salin plus classique. Elles sont liées aux fumeurs volcaniques. Rien ne permet donc de voir dans ces fumeurs le modèle universel des milieux où la vie aurait pu éclore. Il fallait trouver autre chose.

Le chimiste allemand Günter Wächtershaüser a tenté de défendre l'hypothèse selon laquelle la vie aurait pu se former autour de ces fumeurs hydrothermaux volcaniques, grâce à une réaction entre l'hydrogène sulfureux et le fer, formant des pyrites de fer, que nous ne décrirons pas ici. Mais cela ne résolvait pas la question incontournable de la concentration et de la dispersion. La vie ne peut pas émerger en pleine mer, sans protection. Même au sein de mares tièdes d'eau douce, comme l'envisagent d'autres chercheurs , la question ne trouve pas de réponses très convaincantes.

C'est alors, comme le montre Nick Lane, qu'est intervenue une solution inespérée à cette difficulté fondamentale. Elle a été explicité à partir des années 1985 par le chercheur américain Mike Russell. A cette date les explorations sous-marines ont mis en évidence l'existence d'évents hydrothermaux très différents des fumeurs noirs. Il s'agissait de roches apparaissant sur le fond océanique à la suite de la séparation lente entre plates tectoniques (image). Ce n'était plus alors des éruptions violentes de type volcanique mais un produit des réactions des roches ainsi fraîchement exposées avec l'eau de mer.

Les fractures entre plaques tectoniques sont présentes dans tous les océans et remontent très loin dans l'histoire de la Terre. Le mouvement des plaques découvre les roches sous-jacentes du manteau. Il s'agit si l'on peut dire d'un phénomène relativement doux: milieu alcalin, température basses, mouvements lents. L'eau de mer réagit avec ces roches pour produire des minéraux hydroxydes tels que la « serpentine », minéral de la famille des phyllosilicates (ou silicate lamellaire) faisant partie du groupe de la kaolinite-serpentine. Son aspect est semblable à des écailles de serpent. Les roches de cette nature, ainsi formées, sont alcalines. Elles se présentent comme une pierre poreuse comportant de grandes quantités de micro-cavités interconnectées

Il faut ajouter que la réaction de l'eau avec les roches du manteau, produit de l'énergie et de nombreux composés organiques susceptibles de s'agréger en ensembles prébiotiques. De plus et surtout, ces réactions peuvent se faire à l'intérieur des cavités de la serpentine ou des roches analogues qui se construisent en permanence sur le fond. Le problème de la concentration et de la diffusion des composés prébiotiques pouvant ainsi se former trouverait alors une solution. Un massif de serpentine pourrait être considéré comme l'exosquelette d'un être vivant complexe, analogue à une ruche, susceptible d'abriter dans ses alvéoles ou cellules les précurseurs d'une vie primitive.

On ne sait actuellement si les massifs actuels hébergeraient encore de telles formes de vie ou en conserveraient des traces. Disons seulement que le sous marin Atlantis a découvert à partir de 2000 de véritables massifs sous-marins non loin du ridge mi-atlantique, qui furent nommés le massif Atlantis Une structure particulièrement spectaculaire a été baptisé la Cité perdue (The lost City) . Ces massifs sont remplis de vie, constituée principalement par des archée bactéries et les animaux de petite taille qui s'en nourrissent. Ils s'agit d'organismes moins spécialisés que ceux entourant les fumeurs, donc davantage susceptibles de se répandre. Mais rien ne permet cependant de voir en eux des fossiles vivants représentatifs de la vie primitive 3).

De toutes façons, avoir découvert un cadre ou environnement naturel pouvant avoir hébergé les premières formes de vie est extrêmement important, mais n'éclaire pas les mécanismes énergétiques et chimiques susceptibles d'avoir donné naissance à celles-ci. Nick Lane décrit un certain nombre de processus biochimiques capable d'apporter des solutions à ce nouveau problème. Il reconnaît que pour préciser les hypothèses, voire en faire naître d'autres, il faudrait conduire des expérimentations complémentaires qui n'ont pas encore été faites. En étant optimiste, on peut penser cependant que dans une décennie, la question sera en très grande partie résolue.

D'un incubateur possible à l'oeuf proprement dit

Résumons la question posée. On peut admettre, en suivant Nick Lane, que les évents alcalins sous-marins tels que ceux ayant donné naissance aux massifs analogues à ceux de la Cité perdue offraient un cadre optimum pour favoriser les premières synthèses d'éléments biochimiques, permettant autrement dit de passer de la chimie minérale à la chimie organique. Dans ces massifs, l'hydrogène natif sort directement du sous sol sous forme gazeuse. Spontanément, bien que lentement, l'hydrogène ainsi émis peut se combiner au CO2 abondamment dissous dans l'eau pour former des molécules organiques en libérant une certaine quantité d'énergie, disponible pour d'autres réactions. De plus les parois des micro-compartiments composant les massifs peuvent se charger, à partir du fer dissous dans l'eau, qui était abondant à ces époques, de composés catalytiques, constitués de fer et de sulfures. Il s'agissait donc et s'agit encore de réacteurs à flux continu, comportant des fluides réactifs circulant à travers des compartiments potentiellement catalyseurs grâce à des gradients thermiques et électrochimiques en renouvellement constant du fait de l'incessante activité géologique du manteau supérieur terrestre.

Mais comment un tel réacteur aurait-il pu engendrer de la vie complexe? Pour le comprendre, Dick Lane propose une méthode que nous retrouverons avec le plus grand intérêt dans les autres chapitres du livre: partir de l'hypothèse que les processus en cause étaient les plus simples possibles et bien entendu déjà existants dans la nature bien avant la vie – rechercher dans les organismes actuels ce qu'il appelle des fossiles vivants pouvant éclairer de tels processus. Par ce terme il désigne des mécanismes ou phénomènes communs à tous les êtres vivants, y compris les plus primitifs (bactéries et archae) qui jouent encore un rôle essentiel dans le métabolisme et plus généralement les modes de vie ou survie de ces êtres, nous mêmes compris évidemment.

Il faut ainsi définir les spécifications d'un être vivant théorique. Celui-ci fut nommée LUCA, Last Universel Common Ancestor. Le travai a été fait depuis un certain temps en partant de l'analyse des êtres vivants actuels (approche top-down) : LUCA et tous les vivants doivent être constitués de cellules (les virus exceptés), disposer de gènes composés d'ADN, coder la synthèse des protéines à partir d'un certain nombre d'acides aminées et finalement utiliser une molécule capable de fournir d'une façon universelle de l'énergie aux différents organes de la cellule. Les 3 premières propriétés ne pouvaient pas se trouver dans un pré-LUCA éventuel, puisque le LUCA n'existait pas encore. Par contre, la 4e était indispensable. Sans un processus générateur d'énergie, pas de LUCA...et pas non plus d'organismes vivants modernes constitués sur le modèle de LUCA. C'est donc le générateur d'énergie qui doit nous intéresser et dont nous devons étudier la possible émergence dans les conditions préalables à l'apparition de la vie, notamment celles régnant dans le réacteur évoqué plus haut.

Ce générateur d'énergie est connu depuis longtemps. Il s'agit de l’adénosine triphosphate (ATP) , molécule qui, dans tous les organismes vivants, fournit lors de son hydrolyse l'énergie nécessaire aux réactions chimiques des cellules. Du fait de la présence de liaisons riches en énergie (n'entrons pas ici dans les détails) cette molécule est utilisée chez les êtres vivants pour activer les réactions chimiques qui consomment, de l'énergie, notablement au sein des mitochondries. L'ATP est la réserve d'énergie de la cellule.

Mais l'ATP ne suffisait pas pour fournir de l'énergie à LUCA et à ses successeurs. Il fallait qu'il existe chez tous les organisme un autre fossile vivant capable de produire l'ATP, autrement dit un ensemble commun de réactions métaboliques qui s'organisent autour d'un cycle découvert dans les années trente par le biochimiste allemand et Prix Nobel Hans Krebs. Le cycle de Krebs est constitué d'une série de réactions biochimiques dont le rôle est de produire des intermédiaires énergétiques qui serviront à la production d'ATP dans les différentes chaines où celle-ci intervient. Il s'agit d'un cycle car le dernier métabolite, l'acide oxaloacétique, est aussi impliqué dans la première réaction. Autrement dit, le cycle peut fonctionner à l'endroit aussi bien qu'à l'envers. A l'endroit, il consomme des molécules organiques (provenant par exemple de la nourriture) et produit de l'hydrogène destiné à être brûlé avec de l'oxygène, par exemple dans la respiration, ainsi que du CO2. Il produit aussi un peu d'ATP. A l'envers, il consomme du CO2 et de l'hydrogène pour produire les molécules organiques nécessaires à la vie. En ce cas, il consomme de l'ATP.

C'est évidemment le cycle de Krebs inverse qui nous intéresse. Il se trouve qu'il est peu répandu, y compris dans les bactéries, sauf précisément dans celles qui vivent au sein des évents hydrothermaux. Il s'agit d'un processus primitif essentiel pour convertir du C02 en composés organiques. Mais le fait que le cycle de Krebs inverse soit présent dans des bactéries primitives ne nous éclaire pas à ce stade de notre raisonnement. Il faut (et il fallait) qu'il puisse se produire spontanément dans la nature avant l'apparition de la vie, afin d'être recruté par celle-ci.

Or le biochimiste Harold Morowitz a montré que le cycle de Krebs inverse se produit spontanément dans un milieu disposant d'une concentration suffisante des éléments nécessaire à sa mise en route. Il ne s'agit donc pas d'une « invention » de la vie, résultant par exemple de l'intervention de certains gènes, mais d'un mécanisme relevant d'une chimie probabiliste non organique et de la thermodynamique. En d'autres termes, un cycle indispensable à la vie peut s'enclencher en l'absence de toute vie préalable, si les conditions chimiques et thermodynamiques nécessaires sont réunies. On pourrait parler d'auto-allumage. Quand ultérieurement les gènes apparurent, ils n'eurent plus qu'à « domestiquer » à leur usage une réaction géochimique préexistante.

Reste cependant à expliquer comment l'ATP peut être générée. Nick Lane se réfère à cet égard aux recherches conjointes du géochimiste Bill Martin associé à Mike Russel, le " découvreur " des évents hydrothermaux alcalins. Selon eux, ces évents génèrent continuellement (nous simplifions) des catalyseurs nommés acetylthioesters. Ceux ci provoquent et entretiennent la réaction entre l'hydrogène et le C02, laquelle à son tour produit des molécules organiques et de l'ATP. L'ensemble aux origines pouvait se trouver « packagé » dans les microcavités de la roche serpentine, lesquelles présentent des dimensions comparables à celles des cellules modernes.

On se trouvait donc en présence d'une véritable fontaine de vie, pour reprendre le terme de Nick Lane, entretenue par la production continuelle, au sein des évents, de l'hydrogène et de divers autres gaz, ainsi que des catalyseurs nécessaires à la synthèse des molécules organiques. Le CO2, comme rappelé plus haut, également indispensable, ne manquait pas car il était présent dans l'eau de mer qui en était particulièrement riche à ces époques, du fait notamment des éruptions volcaniques aériennes.

Si comme on l'a rappelé, le détail des réactions ayant permis à des composants prébiotiques de s'installer dans les microcavités de la serpentine n'a pas encore été reconstitué, le principe général résumé ci-dessus paraît indiscutable. Reste à expliquer le dernier point. Si la vie s'est répandue dans les mers et plus tard sur les terres émergées, il fallait que les cellules primitives s'affranchissent de la protection des sources géochimiques et énergétiques procurées par les incubateurs liés aux évents alcalins. Autrement dit, il fallait que les protocellules sortent de leurs cocons protecteurs et puissent dériver à l'aventure, sans perdre pour autant leurs ressources en hydrogène et en catalyseurs, ainsi qu'en ATP.

Là encore, selon Nick Lane, Martin et Russell ont suggéré un mécanisme qui avec le recul paraît merveilleux. Les propres recherches de Nick Lane ont précisé le mécanisme. Il est universel. C'est la chimiosmose, laquelle permet à toutes les cellules existantes de générer de l'énergie par une méthode de respiration qui est la plus contre-intuitive de toute la biologie. Dans leurs évents, les eaux alcalines créent des gradients (différences de concentration générant des courants convectifs) de protons qui ont pu être exploités par les premières cellules au sein des pores en nids d’abeille des roches. Comme on l'a vu, ces cellules catalytiques auraient utilisé ces gradients pour produire énergie, lipides, protéines et nucléotides. Elles auraient ensuite acquis la capacité chimiosmotique de créer par elles-mêmes des gradients de protons pour produire leur propre énergie, sous forme d’ATP. Par là même, elles seraient devenues autonomes et auraient pu s’affranchir des évents hydrothermaux.

C'est l'anglais Peter Mitchell, prix Nobel 1978, qui proposa le mécanisme de couplage entre le transport des électrons et la synthèse de l'ATP. Il suggéra que le flux des électrons d'un composant à l'autre de la chaîne respiratoire dirige des protons (ions hydrogène) au travers de la membrane (vers l'espace inter membranaire), créant ainsi un gradient protonique . Ensuite, la production d'ATP résulte du flux inverse de protons descendant le gradient. Cette proposition constitue lanécessite implique des donneurs et des accepteurs d’électrons pour générer l’énergie chimique nécessaire aux réactions d’oxydo-réduction. Le premier donneur aurait été l'hydrogène et le premier accepteur le C02.

La raison pour que tous les organismes soient chimiosmotiques aujourd’hui est simplement qu’ils ont hérité cette caractéristique depuis l’instant et le lieu où les premières cellules ont évolué – et elles ne pouvaient pas évoluer sans cela. Pour Nick Lane, il est impossible de voir comment la vie aurait pu commencer sans chimiosmose. Le mythe de la soupe prébiotique se trouve ainsi définitivement renvoyé aux oubliettes. Mais cette évolution dans les représentations est si récente que beaucoup de biologistes n'en ont pas encore pris conscience.

La saga de l'émergence de la vie bactérienne ne se termine pas là cependant, aussi merveilleuse qu'apparaisse la chimiosmose. Les premières cellules capables de générer leur propre énergie n'étaient pas pour autant armées pour quitter l'incubateur et envahir les eaux libres de l'océan avoisinant. Elles devaient être capables de se reproduire et surtout de muter afin de s'adapter sans cesse à des environnements contraignants. Pour cela elles devaient disposer d'un moteur réplicatif. Ce fut l'ADN, commun à tous les êtres vivants et qui par conséquent dut être mis au point par LUCA dès le stade de l'enfermement dans les roches poreuses des évents alcalins. Il s'agit du second palier dans la montée de la vie, précédant tous les suivants puisqu'il fonde la possibilité de l'évolution darwinienne ultérieure. Nick Lane y consacre le chapitre 2 de son livre. Mais à notre grand regret nous ne le suivrons plus ici dans ce parcours. Nous conseillons évidemment à tous nos lecteurs de prendre le relai.

 

Troisième partie. Commentaires

Nous n'avons pas l'intention d'engager une discussion chapitre par chapitre à propos de chacun des thèmes abordés dans les 10 chapitres du livre. Certes, comme nous l'avons fait pour le chapitre 1, une lecture attentive mériterait commentaires, compléments et éventuellement objections, au moins de détail. Mais cela dépasserait le cadre de cet article. Nous allons donc nous limiter à des réflexions d'ordre général, regroupées dans 3 rubriques.

La liste des « inventions » apportées par la vie et proposée par Nick Lane est-elle complète?

L'auteur a précisé d'emblée qu'il ne voulait pas prendre en compte les évolutions strictement culturelles, c'est-à-dire pouvant être étudiées sans référence à leurs bases biologiques. Cependant, on ne voit pas très bien ce qui, dans les cultures, qu'elles soient animales ou humaines, puisse être détaché de toute base biologique. On peut admettre pourtant que certains mécanismes puissent mériter, au moins dans une approche sociologique, d'être étudiés en tant que tel. Beaucoup de chercheurs en sciences humaines plaideront que c'est le cas, par exemple en ce qui concerne l'évolution des institutions politiques, des œuvres de création, des langages....

Pour notre part, nous pensons qu'il n'en est rien. Il n'y a pas de comportements individuels et collectifs, évidemment dans le monde animal mais aussi dans les sociétés humaines, qui ne puissent (ne doivent) être analysés au regard de leurs déterminants biologiques, génétiques et épigénétiques notamment. L'évolution constitue une sorte de tout dont les différents aspects s'interpénètrent et s'entredéterminent. Il est toujours possible d'isoler tel ou tel aspect, pour la clarté apparente de certaines démonstrations, mais il ne faut pas se dissimuler qu'il s'agit d'une « solution de misère ».

Prenons la question des langages humains et plus précisément encore des contenus informationnels qui se forment et s'échangent à l'occasion des échanges langagiers. Il est inutile de rappeler que les bases neurales correspondant chez l'homme moderne à la mise en place de tels échanges trouvent leurs origines très loin dans l'échelle des espèces vivantes. Certes, les langages humains atteignent des niveaux de complexité nécessitant des études spécifiques, mais celles-ci seraient stériles si elles oubliaient les déterminismes plus primaires qui continuent à s'y exprimer de façon sous-jacente. Il en est de même des institutions et des comportements plus ou moins codés, transmis soit comme des invariants soit comme des réplicants et constituant le milieu sociétal, autrement dit la culture.

Ceci nous conduit à reprendre la réflexion déjà faite dans la première partie de cet article. Certes, Nick Lane ne pouvait pas tout dire et tout aborder. Il nous semble cependant qu'il aurait pu discuter, sans doute après son dernier chapitre consacré à la conscience, l'apparition de ce que dans notre livre Le paradoxe du Sapiens nous avons nommé les organismes anthropotechniques. Rappelons que nous désignons par ce terme les véritables symbioses qui selon nous se sont établies depuis quelques centaines de milliers d'années entre les hominiens et les technologies qui se sont développées en interaction avec eux.

Nick Lane nous objectera peut-être qu'il s'agit de ces éléments culturels qui n'intéressent pas le domaine biologique et qui, de toutes façons, ne concernent qu'une toute petite partie du monde vivant, celle liée au développement de l'« espèce » humaine. Mais nous pensons avoir montré que les interactions entre anthropos et techne s'inscrivent aujourd'hui simultanément dans les gènes des humains et dans les déterminismes transformationnels proprement technologiques, empêchant pratiquement de distinguer les apports respectifs des entités en symbiose.

Il faut donc considérer le produit obtenu, le macro-organisme ou complexe anthropotechnique, comme un être vivant d'un nouveau genre. Quand à son influence sur l'ensemble de la biosphère, il n'est pas nécessaire de lire notre livre pour se convaincre de son importance. Tout ce qui concerne l'univers en pleine évolution du synthétique et de l'artificiel, généralement associé à des humains comme rappelé ci-dessus, en est la preuve. Il est prévisible que dans une cinquantaine d'années, le successeur de Nick Lane, s'il s'en trouve, citera l'anthropotechnique comme un des facteurs déterminants ayant influé sur l'évolution heureuse ou malheureuse des formes de vie dites supérieures.

Le livre ne fait-il pas preuve d'un réductionnisme excessif?

Le très grand mérite que nous attribuons à ce livre, comme d'ailleurs aux deux ouvrages de Nick Lane qui l'ont précédé, est précisément de montrer qu'avec un peu de géochimie, beaucoup de biochimie et considérablement d'esprit scientifique, on peut selon l'expression reconstruire le monde dans ses infinies complexités. Ceci inclut aussi, dans notre esprit, comme nous l'avons noté ci-dessus, la compréhension des sentiments, des affects, de l'art, de la philosophie et même des religions, si l'on accepte d'expliquer le poids que celles-ci pèsent dans encore dans les esprits par des millénaires d'évolution où face à la mort dont ils avaient pris conscience, les cerveaux des hominiens ont généré des antidotes restées profondément ancrés dans des bases neurales recrutées pour répondre au besoin.

Il reste que nul ne prétendra, pas plus Nick Lane qu'un autre, que tout peut s'expliquer par l'ATP, la photosynthèse ou même les échanges d'ions entre neurones corticaux. Comme nous l'avons rappelé ci-dessus, des recherches plus « dédiées » s'imposent. Le grand livre des sciences, y compris sociales et humaines, reste encore ouvert aux curieux. Ce que nous disons est plus simple. Si un quelconque de ces chercheurs, philosophes, artistes, hommes politiques, moralisateurs de tous poils n'a pas en tête le contenu (aussi bien digéré que possible), de livres comme ceux de Nick Lane, inévitablement, à un moment ou à un autre, il dira et fera des bêtises, pour ne pas dire des inepties. C'est ce qui est malheureusement le cas aujourd'hui, malgré la prétendue expansion de la culture scientifique chez les prétendues élites. Culture scientifique my ass, pour parler comme Shakespeare.

Que va-t-il advenir de la vie terrestre?


Une des grandes questions, discutée aujourd'hui sur toutes les tribunes, concerne l'avenir de la biodiversité au regard de différentes menaces, qu'elles soient d'origine humaine (anthropique) ou naturelle. Les recherches telles que celles de Nick Lane prennent à cet égard une très grande actualité. On lira avec intérêt les développements qu'il a consacré aux conditions caractérisant l'environnement marin, atmosphérique et terrestre tout au long des 3,5 mda utilisés par la vie pour atteindre son état actuel de développement. Précédemment, nous avons rendu compte des travaux d'un certain nombre de chercheurs ayant abordé ces questions avec plus ou moins de détails. En dehors de James Lovelock, nous pouvons nommer ici le géologue et biologiste américain Peter Ward, dont les deux livres présentent un considérable intérêt 4). Nick Lane cite Peter Ward à l'occasion d'une discussion sur les dinosaures (étaient-ils ou non dotés d'un sang chaud ? ), mais il n 'évoque pas ses autres livres, ce qui est un peu dommage.

C'est en fait sur l'avenir de la vie terrestre que le lecteur aurait peut-être attendu de lui certaines prévisions. Certes, il est pratiquement impossible d 'émettre de diagnostics, quel qu'en soit le sens, sur un sujet aussi complexe et dont les variables sont largement indéterminées. Néanmoins la discussion d'un certain nombre de possibilités aurait été selon nous intéressante, avec les précautions d'usage. Les prévisions provenant d'autres sources ne manquent pas. Certaines paraissent assez fantaisistes: disparition des organismes dits supérieurs, destruction générale des écosystèmes, éventualité que des humains ou post-humains tentent de s'acclimater sur diverses planètes avec les investissements considérables que cela supposerait (terrraformation de Mars par exemple). Nous aurions souhaité lire le point de vue de Nick Lane sur ces perspectives, dut-il confirmer le caractère fantaisiste de certaines d'entre elles.

Notons pour finir que s'engager dans de telles considérations peut utilement conduire l'auteur d'un livre sur l'émergence et le développement de la vie, tel que Life ascending, à se poser, avec le lecteur, une question portant sur la solidité des connaissances. Dick Lane nous a expliqué, et nous le croyons, que désormais la science sait ce que fut et ce qu'est la vie. Il serait bon cependant de se demander si elle sait vraiment tout, non à propos de points de détails, mais à propos de phénomènes majeurs qui auraient échappé aux instruments d'observation et aux cerveaux actuels. Si ce n'était pas le cas, il faudrait se demander de quel côté pourraient provenir des surprises significatives. Ainsi le livre pourrait se terminer par un point d'interrogation d'une certaine ampleur, ce qui n'est jamais mauvais pour un travail scientifique.

Bien entendu, nous serions heureux que les prochains livres ou articles de Nick Lane abordent quelques une de ces diverses questions.


Notes
1) Nick Lane se démarque explicitement, à cet égard, de l'affirmation faite par l'avant dernier pape devant l'Académie pontificale des sciences, selon laquelle si la religion pouvait admettre que la science étudie l'évolution, elle ne pouvait admettre qu'elle cherche à comprendre les prétendus mystères de la vie et de la conscience. Tout son livre vise à démonter le contraire.
2) Comme nos lecteurs le savent, le rôle exclusif des mutations portant sur les séquences du génome reproductif a été critiqué. La théorie de l'ontophylogenèse élargit considérablement le champ de ce que Jean-Jacques Kupiec a nommé le darwinisme cellulaire.
3) Voir à ce sujet
http://www.lostcity.washington.edu/science/geology/atlantis_mountain.html
ainsi que http://www.lostcity.washington.edu/

4) Sur Peter Ward. Voir The Medea Hypothesis
http://www.automatesintelligents.com/biblionet/2009/sep/ward.html
Voir aussi Under a Green Sky
http://www.admiroutes.asso.fr/larevue/2009/95/livresenbref.htm

Repost 0
5 mars 2010 5 05 /03 /mars /2010 20:45

 

Le nouveau livre de Jean-Paul Baquiast

Le paradoxe du Sapiens. Etres technologiques et catastrophes annoncées
05/03/2010

Préface de Jean-Jacques Kupiec

éditeur Jean-Paul Bayol, mars 2010
en vente dans toutes les bonnes librairies, en ville et en ligne
Alapage - Amazon.fr - Fnac

Voir le site du livre chez l'éditeur
Présentation http://www.editions-bayol.com/pages/livres-titres/paradoxe.php
Annexes http://www.editions-bayol.com/paradoxe/


 
Ci-dessous
1. Présentation par l'éditeur
2. Préface par Jean-Jacques Kupiec
3. Commentaire de l'auteur

1. Présentation par l'éditeur

Le Paradoxe du Sapiens propose une réponse surprenante à une question qui nous concerne tous : pourquoi les humains, capables de réalisations extraordinaires dans tous les domaines, se montrent-ils incapables de prévenir les catastrophes - catastrophes qui sont pourtant prévues et annoncées ? La faute en est-elle au développement devenu incontrôlable des technologies ? Est-ce au contraire que l’homme est resté en profondeur ce qu’étaient sans doute ses lointains ancêtres : des chasseurs-cueilleurs prédateurs et belliqueux ?

Le Paradoxe du Sapiens répond autrement à cette question. Le livre  raconte, avec des arguments scientifiques à la portée de tous, une histoire extraordinaire : comment des générations d’êtres nouveaux, des primates étroitement associés à des outils, ont depuis quelque deux millions d’années pris possession de la Terre en la transformant radicalement. L'histoire s'accélère aujourd'hui avec l'évolution rapide des technologies - notamment celles de l'artificialisation des outils et du vivant - et la place grandissante qu'elles occupent.

Ce phénomène est généralement mal compris. On perçoit bien l’évolution technologique mais très mal celle des humains qui sont 'en symbiose' avec les techniques ; techniques qui nous transforment profondément, tout autant, si ce n'est plus, que nous les transformons. De plus, avec l’illusion que l’intelligence humaine est potentiellement toute puissante, on ne voit pas que la coévolution du vivant et de la technique  relève de la logique darwinienne stricte, résumée par le principe du hasard et de la sélection.

L’auteur ne prétend pas prédire l’avenir. Un effondrement des civilisations telles que nous les connaissons peut très bien survenir à échéance de quelques décennies, mais, à l’inverse, avec le développement des réseaux de la communication intelligente, ce qu’il nomme une hyper-science pourrait peut-être apparaître. Elle renforcerait, au profit d’humains de plus en plus « augmentés », les capacités d’action collective rationnelles encore trop dispersées. Ce sera peut-être là un des nouveaux paradoxes de l’Homo sapiens de demain, associé aux outils du futur, s’il survit aux crises actuelles.
 
Le biologiste Jean-Jacques Kupiec, qui a préfacé cet ouvrage, s’est fait connaître du monde scientifique par une théorie profondément originale réintroduisant le darwinisme à tous les niveaux de l’évolution organique.

2. Préface par Jean-Jacques Kupiec

Jean-Jacques Kupiec est chercheur en biologie et en épistémologie au centre Cavaillès de l’Ecole Normale Supérieure de Paris. Il étudie la biologie moléculaire, la biologie théorique et la philosophie de la biologie. Les deux principaux ouvrages qui lui ont conféré une renommée internationale sont « L’origine des individus », Fayard 2008 et, avec Pierre Sonigo, « Ni Dieu ni gène. Pour une autre théorie de l’hérédité » Seuil, 2000. Il est l’inventeur de la théorie de l’ontophylogenèse.

Au cours de mes recherches, j’ai été amené à identifier un obstacle épistémologique particulier qui entrave le développement des sciences du vivant, que j’ai appelé « Le point aveugle de la biologie ». Il est fascinant de constater que Jean-Paul Baquiast a lui-même identifié un obstacle de nature similaire, qu’il nomme « Le paradoxe du sapiens », grâce à son analyse originale de l’évolution des sociétés et du devenir humain, alors que mon travail ne concerne que le fonctionnement du vivant.

Nous reviendrons sur la problématique de Baquiast mais rappelons tout d’abord en quoi consiste « Le point aveugle de la biologie ». On sait que la physique doit son essor à la fin du Moyen-Âge, non seulement au développement des techniques qui ont permis le développement de l’expérimentation, mais aussi à une véritable révolution philosophique qui a consisté en l’abandon de la conception du monde héritée d’Aristote, ce qu’on appelle habituellement l’ontologie hylémorphique. Pour Aristote, la matière est incapable de s’ordonner spontanément d’où la nécessité des formes ou essences sous jacentes au monde pour déterminer et expliquer tout ce qui existe. Chaque chose se trouve ainsi appartenir à une espèce qualitativement distincte des autres et possédant sa nature propre. La physique a abandonné cet essentialisme pour décrire les phénomènes quantitativement. Pour elle il n’existe pas d’état de nature. Selon le principe d’inertie un objet perpétue son état de mouvement ou de repos, mais l’un n’est pas plus naturel que l’autre. En biologie, au contraire, l’espèce est toujours considérée comme une entité réelle et la génétique lui a donné un substrat matériel, le fameux programme génétique contenu dans l’ADN, censé détenir les plans de l’organisme. L’espèce correspond à cette structure réelle déterminée par les gènes1.

Est-ce à dire qu’il existe une différence de nature entre la physique et la biologie ? Pour la première l’ontologie d’Aristote serait inepte alors qu’elle serait pertinente pour la seconde. C’est ce que laisseraient supposer les développements spectaculaires de la génétique et de la biologie moléculaire au XXème siècle, cette épopée fameuse qui a culminé avec le séquençage du génome humain. Puisque l’ADN contient le programme qui gouverne l’organisme, son déchiffrage aurait dû nous en livrer l’explication ultime. Voila une logique implacable qui a permis de justifier les moyens humains et financiers énormes qui ont été mis au service de ce programme de recherche. Aujourd’hui, dix ans après, nous sommes en mesure d’en tirer un bilan et force est alors de constater que loin d’avoir rempli tous les espoirs qui y avait été mis, notamment en ce qui concerne l’avènement de thérapies pour les maladies dites génétiques, ce programme semble au contraire s’essouffler. La biologie moléculaire marque aujourd’hui le pas pour laisser la place à la biologie des systèmes. Cette dernière, au lieu de se concentrer sur l’ADN, cherche à comprendre l’organisme comme un système formant un tout composé de parties en relation, en intégrant les autres niveaux d’explication tels la cellule et l’organe.

Cependant, malgré ce changement de perspective, le réalisme de l’espèce (l’essentialisme) reste intact. Ce n’est pas le lieu ici d’en reprendre l’analyse détaillée, mais j’ai été amené à montrer que si la notion d’espèce (forme, nature, essence) est si prégnante en biologie, et cela bien que Darwin l’ait déconstruite et relativisée à loisir dans « L’origine des espèces », ce n’est pas du fait de sa pertinence intrinsèque mais à cause de notre anthropocentrisme foncier, qui, comme on le sait, constitue l’obstacle principal au développement scientifique. Il se joue autour de cette question quelque chose de très important qui différencie la biologie de la physique et qui explique sa difficulté à sortir de l’essentialisme. Nous pouvons comprendre intuitivement qu’il est difficile dans cette discipline de faire abstraction de la notion d’espèce. Pourtant, il n’en existe pas de définition établie et totalement consensuelle, bien que travaillée depuis des siècles par de nombreux auteurs. L’espèce reste le concept fondamental des sciences du vivant. L’espèce biologique apparaît d’une nature et d’une réalité dont l’évidence semble indiscutable.

En fait nous avons avec ce concept un problème très particulier qui n’a rien à voir avec la rationalité scientifique : nous sommes aveuglés par notre narcissisme. Remettre en cause l’espèce serait aussi remettre en cause l’espèce humaine donc l’idée de sa nature spécifique. Le penser porte évidemment atteinte à l’image que nous nous faisons de nous-mêmes et à la position que nous nous attribuons parmi les entités qui peuplent le monde. De fait, l’essentialisme rassure. Il implique qu’il y a du sens écrit en nous, qu’il y a une nature à laquelle nous sommes conformes et que nous avons une place attitrée dans l’Univers, en son centre, bien sûr !

Au contraire, nier l’espèce biologique risque de conduire à nier cette nature humaine et à détruire le fondement de notre identité. Nous serions alors placés en situation d’étrangeté radicale, ramenée au même niveau que les autres êtres y compris les êtres inanimés. L’idée d’un ordre naturel serait alors totalement détruite et de là vient le blocage qui rend l’abandon de l’essentialisme si difficile en biologie. Mais si notre objectif est de construire une théorie rationnelle, nous sommes obligés d’analyser cette question avec plus de distance et de rigueur, en évitant d’être dominés par des affects subjectifs ou psychologiques. J’ai montré ailleurs qu’il est possible de construire une théorie biologique qui ne repose pas sur l’essentialisme mais ce n’est mon propos d’y revenir ici. Par contre, il faut souligner à quel point ce « point aveugle de la biologie » est le symétrique du « paradoxe du sapiens » de Jean-Paul Baquiast.

Revenons-en donc maintenant à son livre. Il part d’un constat simple que je résume: « La pensée occidentale moderne considère que l’homme appartient à une espèce intelligente : homo sapiens … … Par intelligence, on peut désigner la capacité de se représenter soi-même au sein de son environnement, tant pour le présent que pour le futur. Si la représentation du futur suggère la proximité de menaces, l’intelligence devrait consister non seulement à définir des remèdes à ces menaces mais à mettre en œuvre ceux des remèdes à ces menaces qui seraient efficaces compte tenu des moyens disponibles. Le paradoxe du sapiens est que, malgré son intelligence indéniable, l’humain d’aujourd’hui se montre incapable de mettre pratiquement en œuvre les remèdes aux menaces qui pèsent sur son environnement, dont pourtant il dispose. » Comment expliquer ce paradoxe ? La thèse de Baquiast est que les humains appartiennent à des entités d’ordre supérieur, les superorganismes, qui développent des logiques propres et des fonctionnements autonomes, qui ne sont pas celles des organismes individuels, et que c’est uniquement par l’analyse et la compréhension du fonctionnement de ces superorganismes que nous aurons une chance de pouvoir contrôler notre propre développement. Pour lui, il faut souligner  la puissance des mécanismes de décision inconscients collectifs générés par l’appartenance à des superorganismes associant des hommes et des technologies matérielles dotées d’un fort pouvoir constructif .

Ce qui est à nouveau en cause dans son analyse, c’est notre aveuglement qui nous empêche de voir au-delà du bout de notre nez, au-delà de notre propre horizon d’organisme individuel. Comme on peut le constater, il ne s’agit pas d’une spéculation gratuite pour alimenter une discussion d’après dîner. L’enjeu est d’importance, pour ne pas dire fondamental, puisqu’il s’agit ni plus ni moins de la question de notre survie en tant qu’espèce menacée par le développement incontrôlé des sociétés et des techniques. Le point central et très original du travail de Baquiast consiste à élaborer le concept de complexe anthropotechnique et de l’utiliser de manière à en faire l’outil d’analyse essentiel pour rendre compte du développement de l’humain, depuis sa préhistoire jusqu’à aujourd’hui. Baquiast ne prétend pas faire œuvre scientifique au sens classique du terme mais simplement présenter une hypothèse de travail suggérée par la synthèse d’un nombre impressionnant de lectures dans des domaines allant de la biologie à la sociologie en passant par l’anthropologie, l’informatique, la robotique et les sciences en général. Si sa modestie est toute à son honneur, il doit aussi être rassuré. La science a besoin d’hypothèses audacieuses et son hypothèse est suffisamment argumentée de manière logique et cohérente pour être prise au sérieux.

Pour Baquiast les êtres humains sont donc pris dans des « macroprocessus dépassant les individus tout en les impliquant » parce que, dès qu’un premier primate a commencé à utiliser une pierre pour casser des fruits ou frapper un adversaire, il s’est opéré une véritable symbiose entre lui et l’outil, qui a certes permis le développement de l’humain, mais à l’intérieur d’un complexe d’ordre supérieur, possédant sa logique et son fonctionnement propres : « On peut supposer que, dès que des primates soumis à de nouvelles pressions de sélection avaient constaté l’intérêt pour la survie de l’utilisation systématique d’un outil de pierre, par exemple un percuteur afin de briser une noix, un système d’enrichissement croisé à deux pôles s’est mis en place, associant les utilisateurs de l’outil et les formes successivement prises par ce dernier. Au sein de ce système, les deux catégories de partenaires, le vivant et le matériel (technique), se sont trouvés engagés dans la construction d’un ou plusieurs ensembles évolutionnaires complexes associant des corps, des cerveaux et des esprits de plus en plus façonnés par les usages de l’outil, d’une part, des outils se développant selon des dynamiques spécifiques de nature mécanique guidant d’une certaine façon la main des utilisateurs, d’autre part ». Baquiast emploie pour désigner ce système à deux pôles le terme de superorganisme ou système anthropotechnique. L’originalité de cette hypothèse consiste à accorder à l’outil un statut d’égalité, en quelque sorte, avec l’humain. L’un n’est pas le produit exclusif de l’autre car les deux sont pris dans une relation symbiotique, se façonnant l’un l’autre. Les techniques possèdent des logiques de développement et d’évolution propres, au même titre que les organismes.

3. Commentaire de l'auteur

Notre essai, Le Paradoxe du Sapiens, paru en mars 2010 chez Jean-Paul Bayol, offre une hypothèse de travail visant à étudier l’évolution actuelle de nos sociétés avec des outils plus efficaces que ceux proposés chacune dans son domaine par les différentes sciences traitant de cette question : économie, science politique, anthropologie, biologie et bien d ‘autres. Pour nous, les agents moteurs dans cette évolution sont des entités jamais encore identifiées en tant que telles, que nous avons nommées les systèmes anthropotechniques. Il s’agit de superorganismes associant de façon intime les processus évolutionnaires biologiques, dont l’homo sapiens sous sa forme actuelle est un des produits, et les processus évolutionnaires technologiques nés il y a plus d’un million d’années par l’utilisation systématique de certaines forces naturelles par les hominidés.

La difficulté de cette approche tient à ce que les systèmes anthropotechniques sont aussi nombreux et foisonnants aujourd’hui que le sont les filières technologiques modernes. Chacun d’eux peut en principe être étudié dans sa singularité. Mais l’observation de leurs comportements collectifs et des conséquences de ces comportements sur l’évolution de la planète ne peut se faire que de façon statistique. Dans ce cas alors, la rigueur scientifique impose de rappeler que c’est l’oeil (ou l’esprit) de l’observateur qui découpe dans le continuum des faits observables ceux qui lui paraissent significatifs. Les motivations de cet observateur sont donc à prendre en compte, si cela se peut, lorsqu’il s’agit de juger de la généralisation possible des descriptions ainsi proposées. Mais cette précaution s’impose à toute science. Aucune aujourd’hui ne pourrait prétendre à une objectivité ne tenant pas compte de la situation de l’observateur et des moyens dont il dispose pour observer.

Rappel des bases théoriques envisagées

Nous montrons dans notre essai que les capacités cognitives des systèmes anthropotechniques sont par définition limitées. Même lorsqu’ils disposent des instruments d’observation les plus fins et des moyens de traitement de l’information les plus développés, ils en peuvent se représenter le monde extérieur que dans la limite de capacité de ces divers outils. Or le monde est infiniment vaste, complexe et rapidement évolutif. Les appareils cognitifs des systèmes anthropotechniques n’en fournissent donc que des représentations partielles et toujours en retard sur le flux des évènements. De plus ces représentations ne peuvent pas provoquer immédiatement les changements de comportement qui seraient nécessaires pour tenir compte des modifications du monde qu’elles ont pu faire apparaître. Les appareils moteurs ont nécessairement un temps de retard, plus ou moins long, lorsqu’il s’agit de tenir compte de la modification des représentations se produisant au niveau des appareils cognitifs. Les décisions finales que prennent les systèmes anthropotechniques pour s’adapter au monde sont donc toujours fragiles. Certaines sont cependant plus pertinentes que d’autres. Dans la compétition darwinienne incessante qui oppose les systèmes anthropotechniques, ceux qui prennent les décisions les plus pertinentes, fondée sur des représentations du monde extérieur plus exactes que celles des autres, mises en œuvre par des appareils moteurs plus réactifs, obtiennent des avantages compétitifs grâce auxquels ils l’emportent sur leurs rivaux.

Il ne s’agit là que d’évidence, dira-t-on. Il serait illusoire de penser qu’un système, fut-il doté des instruments sensoriels et moteurs les plus efficaces possible, fut-il doté d’un cerveau capable de prendre des décisions les plus rationnelles possible, puisse se représenter la situation du monde dans sa globalité et traiter des problèmes du monde comme s’il était ce monde lui-même. Même si nous limitions par principe ce monde à la planète Terre seule, l’impossibilité demeurerait. Pour qu’un système anthropotechnique cognitif puisse obtenir une représentation pertinente de la planète et des prévisions pertinentes relatives à son avenir, il faudrait que ce système puisse s’étendre aux dimensions de la planète elle-même, en prenant en compte l’infinité des facteurs agissant sur elle. Comme aucun système anthropotechnique n’a pour le moment cette dimension, il ne peut produire que des représentations limitées et incertaines. Les prévisions qu’il en retire et les décisions qu’il prend sont donc par définition entachées d’erreurs.

Par ailleurs, un système anthropotechnique ne peut prendre en compte que ses seuls intérêts, définis par les informations que ses capteurs lui donnent du monde relativement à ses états internes et aux relations entre ces états et ce qu’il perçoit du monde. Autrement dit, il est fondamentalement « égoïste » ou « auto-centré ». Certes, il ne faut pas exclure que, par ce que l’on nomme en biologie l’altruisme, il puisse très momentanément adopter le point de vue et servir les intérêts d’un autre système, mais ceci ne peut qu’être marginal au regard du flux permanent d’informations qu’il reçoit relativement à lui-même. Quand la représentation des intérêts nécessairement lointains et diffus de la planète pénètre son appareil cognitif, elle ne pèse que faiblement au regard de la représentation de ses intérêts propres. Un altruisme étendu à la planète toute entière et permanent n’est pas envisageable, sauf de façon théorique.

Or comment se définissent les comportements, généralement égoïstes et plus rarement altruistes, des systèmes anthropotechniques ? Ceux-ci étant le produit de la symbiose d’agents biologiques et d’agents technologiques, deux séries de déterminismes se font jour au niveau de ceux-ci et se conjuguent de façon imprévisible : les déterminismes biologiques et anthropologiques pesant sur les humains et ceux résultant des contraintes de développement des machines et des techniques au sein du monde matériel dont elles tirent leurs composants. L’essentiel des déterminismes biologiques a été mis en place au long de dizaines de millions d’années d’évolution et reste encore aujourd’hui très peu adaptable. Les déterminismes technologiques évoluent au contraire très vite, tout en se heurtant aux contraintes d’un monde matériel fini auquel les technologies doivent inévitablement s’adapter. Les déterminismes croisés qui en résultent et dont découle à tout moment l’action singulière d’un système anthropotechnique individuel sont si complexes que leur effet est très rarement prévisible, même en termes statistiques. A plus forte raison est-ce le cas quant des milliers de systèmes anthropotechniques différents interagissent dans la compétition darwinienne permanente qui les oppose.

Egoïsme et imprévisibilité


Mais pourquoi rappeler ces évidences ? Elles ne font que traduire en leur donnant une base scientifique nouvelle ce que n'acceptent d'admettre que quelques rares philosophes des sciences et scientifiques : les politiques humaines sont essentiellement égoïstes, d’une part, imprévisibles d’autre part. Il s’ensuit qu’elles ne peuvent en général faire l’objet d’un pilotage par ce que l’on nomme la conscience volontaire rationnelle, comme peuvent l’être (en général) des systèmes anthropotechnique de très petite dimension : par exemple le journaliste associé à son clavier d’ordinateur. Certes les systèmes anthropotechniques disposent, au regard des sociétés animales n’intégrant que très peu de techniques et n’ayant pas développé beaucoup de facultés cognitives, de capacités d’anticipation suffisantes pour ne pas subir tout è fait passivement les évènements du monde, mais leurs capacités d’action dite rationnelle (explicitement raisonnée) et volontariste (je décide de faire telle chose et par conséquent je la fais) restent très limitées.

Or malheureusement, cette impuissance fondamentale est ignorée par les opinions publiques, notamment en Occident. L’illusion selon laquelle l’espèce humaine dispose d’une capacité, l’esprit, qui lui permet d’aborder tous les problèmes, d’envisager toutes les solutions et finalement de mettre en œuvre toutes celles qu’il juge pour des raisons pratiques ou morales les meilleures, reste extrêmement répandue, malgré les démentis que lui inflige quotidiennement l’expérience. Il s’agit d’un héritage de la mythologie spiritualiste selon lequel l’homme, à l’image d’une entité divine située en dehors du monde, généralement nommée Dieu, est libre de faire des choix bons ou mauvais. Pour qu’il fasse de bons choix, il suffit de le convaincre que des intérêts supérieurs, moraux ou de simple survie, lui imposent d’éviter les choix contraires, qualifiés de mauvais choix. La puissance de son esprit le mettra à même de définir les bons choix et de se laisser guider par eux. La mise en œuvre de ces choix s’ensuivra d’elle-même. Quant aux technologies, n’étant que des productions de l’homme, elles seront par définition obéissantes et n’imposeront que très rarement des comportements qui ne seraient pas conformes aux objectifs définis par la raison des hommes. Cette illusion, concrètement, conduit à penser que le monde est prévisible et gouvernable par l’homme armé de son esprit. Si des erreurs se produisent, c’est parce que certains humains se sont laissés envahir par des motivations que la morale altruiste réprouve, par exemple le besoin de dominer et de détruire. Il faut donc par diverses actions de formation préventive, civique ou religieuse, redresser les esprits momentanément égarés. Sinon, une répression éclairée pourrait s’en prendre aux auteurs de dysfonctionnements et corriger leurs mauvaises conduites.

Les systèmes anthropotechniques sont tous imbibés, au niveau des cerveaux des humains qui les composent et des idées ou connaissances qu’ils produisent, de cette illusion humaniste, relative à la puissance de l’esprit humain. D’une part, ils se l’appliquent à eux-mêmes. D’autre part ils l’appliquent à leurs actions collectives. Dans les deux cas, ils sont incapables de voir leurs limites. Ils ne peuvent pas admettre qu’ils sont ingouvernables ou faiblement gouvernables, d’abord en ce qui concerne leurs propres intérêts, ensuite et à plus forte raison en ce qui concernerait la gouvernabilité d’ensemble de la planète. Même lorsque des indices sérieux résultant d’observations scientifiques répétées leur montrent que leurs comportements et décisions de fait divergent de ce qu’ils avaient prévu, ils ne sont pas capables d’en tenir compte. Ces indices ne sont pas recevables par eux car ils vont trop à l’encontre de leurs intérêts immédiats. C’est ainsi pensons nous que se manifeste le paradoxe du sapiens décrit dans notre livre : le sapiens se croit, non sans raisons, un peu plus sapiens que les autres animaux. Mais, imbriqué dans des systèmes anthropotechniques complexes, il reste impuissant à prendre les grandes décisions collectives qui sauveraient la planète des agressions qu’il lui inflige. La catastrophe est donc, plus que probablement, au bout du chemin.

Mais alors, dira-t-on, que faire ? Si l’hypothèse de l’anthropotechnique résumée ci-dessus présente quelque sérieux scientifique, ne faudrait-il pas en déduire qu’aucune action rationnelle n’est possible, au moins à grande échelle ? L’observateur enfermé dans sa petite sphère anthropotechnique ne verra que les évènements accessibles aux instruments d’observation dont dispose cette sphère. Si les faits observés induisent chez lui des réactions et régulations correctrices, celles-ci ne commanderont que les instruments d’action ou effecteurs nécessairement limités dont cette sphère anthropotechnique est équipée.

L’évolution globale de la planète, que chaque système anthropotechnique contribuera à perturber et qu’aucun système ne sera capable d’observer avec l’ampleur nécessaire, se poursuivra donc sur sa pente actuelle. Or nous l’avons rappelé, cette évolution, autant que l’on puisse juger, même en se limitant aux instruments d’observation aujourd’hui disponibles, semble catastrophique.

Des systèmes cognitifs se connectant spontanément

Nous avons cependant fait l’hypothèse (optimiste!) que les principaux systèmes anthropotechniques modernes sont des systèmes cognitifs, générant au niveau de leurs cerveaux des connaissances certes limitées, mais résultant d’un processus d’élaboration de type scientifique. Ceci pourrait permettre l’émergence progressive de nouvelles connaissances de type scientifique. Nous pensons en effet que le premier comportement scientifique à la portée d’un observateur, fut-il enfermé dans les limites de connaissance que lui impose le système anthropotechnique particulier auquel il appartient, consiste à interpréter les données qu’il reçoit de ses sens à la lumière d’hypothèses produites par son cerveau. Ne sont conservées que les hypothèses vérifiées par les expériences à la portée des moyens d’action ou effecteurs dont dispose ce système anthropotechnique. Si ce processus est suffisamment collectif, impliquant de nombreux observateurs-vérificateurs opérant en réseau, des contenus cognitifs que nous pourrons qualifier de scientifiques apparaîtront et généreront de nouvelles interprétations, plus « scientifiques » que les précédentes, dans les cerveaux des observateurs ultérieurs. Cette évolution se produira évidemment d’abord dans le système anthropotechnique auquel appartiennent ces observateurs. Mais si plusieurs systèmes anthropotechniques coopèrent de fait et échangent leurs informations grâce à des réseaux communs, un réseau d’acteurs raisonnant selon les mêmes logiques et agissant de façon plus ou moins coordonnée pourra se mettre en place spontanément.

Nous indiquons dans notre essai qu’avec le développement de l’instrumentation scientifique en réseau impliquant un nombre croissant de cerveaux d’observateurs humains, un système anthropotechnique d’un nouveau genre pourrait se superposer aux systèmes plus spécialisés. Il disposera de cognitions plus étendues et de moyens d’action plus efficaces. Ses mises en garde et recommandations visant à éviter les risques identifiés pourraient peut-être mobiliser un nombre plus élevé de systèmes anthropotechniques jusqu’alors égoïstes. Dans le cas de la course supposée de la planète à la crise systémique, un tel système anthropotechnique scientifique (nous dirions plutôt dans ce cas hyper-scientifique car faisant appel à des sciences différentes) se mettra–t-il en place suffisamment vite pour que le pire soit évité ? Il est impossible aujourd’hui de faire cette hypothèse optimiste. Tout au plus peut-on penser que le drame final se produirait beaucoup plus tôt si les observateurs enfermés dans leurs propres systèmes anthropotechniques préscientifiques comptaient sur les vertus d’un prétendu esprit humain divinisé pour prendre les choses en mains.

 
Repost 0
10 février 2010 3 10 /02 /février /2010 17:04
L'oxygène, les cyanobactéries et les premiers organismes multicellulaires
par Jean-Paul Baquiast 10/02/2010

 

Le biologiste Nick Lane, chercheur au Provost's Venture Research du London University College, s'intéresse particulièrement aux changements de l'atmosphère terrestre ayant accompagné l'apparition de la vie. Inutile de souligner l'intérêt de ces recherches aujourd'hui, alors que l'on veut évaluer les causes et les conséquences d'une plus ou moins grande abondance de gaz à effet de serre dans l'atmosphère. Dans un premier ouvrage, Oxygen (OUP 2002), il avait présenté ce qu'il nommait la saga de ce gaz, devenu indispensable à la grande majorité des organismes vivants aujourd'hui, et dont la présence dans l'atmosphère résultait de l'activité des premières bactéries capables de photosynthèse. Dans son dernier livre, Life Ascending: The ten great inventions of evolution (Profile) Nick Lane remet quelque peu en cause le schéma simple qu'il avait évoqué dans Oxygen. Il montre que le taux de ce gaz dans l'atmosphère a sensiblement (dramatically) varié entre -2,7 milliards d'années (mdA) et aujourd'hui, sous l'effet non seulement de l'activité des organismes, mais de divers facteurs liés à la géophysique.

Les hypothèses relatives au rôle de la composition de l'atmosphère sur le climat d'une planète s'appuient sur l'étude de la géologie terrestre mais aussi, toutes choses égales d'ailleurs, sur l'exemple de deux planètes proches, Mars et Venus. Mars est aujourd'hui dépourvue d'oxygène et probablement de vie, alors qu'elle disposait apparemment de beaucoup d'eau il y a quelques mdA. Mais faute d'oxygène, son atmosphère n'a pu développer une couche d'ozone la protégeant des rayons solaires. Ceux-ci ont progressivement décomposé l'eau en hydrogène qui s'est dispersé dans l'espace et en oxygène qui s'est combiné avec le fer présent dans le sol martien pour donner des oxydes responsables de la couleur rouge de celui-ci.

On peut penser que la vie, si elle existait initialement sur Mars, n'avait pas pris la forme des cyanobactéries capable de photosynthése apparues sur Terre. Rappelons que celles-ci, autrefois appelées « algues bleues », réalisent la photosynthèse oxygénique et peuvent donc transformer l'énergie lumineuse en énergie chimique utilisable par la cellule en fixant le dioxyde de carbone (CO2) et en libérant du dioxygène (O2).

Sur Venus au contraire, pour des raisons qui sont encore mal comprises, une épaisse atmosphère constituée de gaz à effet de serre s'est durablement installée et à empêché que s'évacue la chaleur interne produite par l'activité géologique vénusienne. Il ne semble pas que des organismes vivants y aient été pour quelque chose.

Quant à la date d'apparition sur Terre des premières cyanobactéries, Dick Lane reconnait que lui-même comme beaucoup d'exobiologistes se sont trompés. On fixait cette date à -3 voire -4 mda, au vu de l'analyse de roches australiennes, les plus anciennes qui nous soient parvenues, âgées de – 3,5 mna. Les paléontologues y avaient détecté des formations rocheuses dites stromatolites (photo ci-dessus) attribuées à l'accumulation de cyanobactéries primitives. On avait cru aussi observer en Australie et au Groenland la présence d'un isotope de carbone constituant la signature de la vie. Ces dates étaient très précoces, au regard de l'âge présumé de la Terre, - 4, 6 mda. Certains en tiraient des conclusions relativement au caractère « obligé » de l'apparition de la vie dès la formation de planètes de type terrestre.


En 2002 cependant, le paléontologue britannique Martin Brazier a vivement attaqué ces interprétations, rejoint en 2006 par des océanographes américains puis par des biologistes et enfin en août 2009 par Daniele Pinti de l'université du Québec. Ils veulent démontrer l'impossibilité que les stromatolites aient pu être formés de microfossiles. Il s'agit d'une nouvelle importante dont on peut s'étonner qu'elle n'ait pas été sérieusement commentée à ce jour.

En tous cas, pour Dick Lane, les plus anciens fossiles de cyanobactéries connus à ce jour sont nettement plus récents. Ils se trouvent dans les iles Belcher au nord du Canada et datent de – 2,1 mda. On peut dans ces conditions supposer que ces bactéries elles-mêmes sont apparues un peu plus tôt, vers - 2,7 mda, inaugurant alors un cycle de production d'oxygène qui ne s'est pas arrêté depuis.

Un cycle tourmenté

Mais cette production ne fut pas un long fleuve tranquille. Le taux d'oxygène ne s'est pas élevé graduellement jusqu'à son niveau d'aujourd'hui. En fait, l'oxygène, nécessairement produit en petite quantité au début, fut d'abord consommé dans des processus d'oxydation des composés métalliques présents dans les océans. Une partie cependant initialisa la mise en place de la couche d'ozone protégeant la Terre des rayons ultraviolets mortels pour la vie. A partir de ce moment l'histoire de la Terre (heureusement pour nous) à divergé de celle de Mars. Cependant, dans le même temps, l'oxygène d'origine biologique se heurtait à des éruptions volcanique, nombreuses entre -2,7 et -2,4. .L'hydrogène sulfuré et le méthane émis se combinèrent avec l'oxygène libre jusqu'à le faire presque disparaître, en produisant du C02 et des oxydes de soufre. Ceci jusqu'à ce que les épisodes éruptifs s'atténuent. Mais ce n'était pas la fin de la saga.

Vers – 2, 4 mda, selon une hypothèse généralement admise aujourd'hui, en même temps que diminuaient les émissions de méthane volcanique, l'oxygène que continuait à produire les cyanobactéries occida le méthane atmosphérique qui demeurait abondant. Ce méthane était un puissant gaz à effet de serre, contribuant à maintenir sur la Terre une température clémente. Sa diminution provoqua une longue glaciation (la Terre dite « snowball earth » ou boule de neige) qui dura au moins 0,4 mda, de – 2,4 jusqu'à – 1,9 mda. Il s'ensuivit une destruction massive des formes de vie existantes.

La vie ne survécut que dans les profondeurs océaniques et sous la forme peu attrayantes de bactéries productrices de gaz SH2 ou hydrogène sulfuré. Pendant 1 milliard d'années il en résulta une phase dite du « boring billion », (traduisons par « le milliard d'années peu excitantes ») les mers présentant l'aspect de vastes étendues verdâtres, malodorantes et apparemment dénuées de vie.

Mais il ne s'agissait que d'une apparence. Selon le biologiste allemand William Martin, de l'université de Dusseldorf, ces océans verts étaient riches en composés nutritifs multiples, comme le sont les sources géothermales sous marines actuelles qui entretiennent des formes de vie très actives. Ce serait en leur sein qu'apparurent les premières cellules eucaryotes (à noyau) se distinguant des algues vertes initiales ou procaryotes (sans noyau) dont certaines s'incorporèrent aux eucaryotes sous la forme de mitochondries, organules jouant un rôle dans la production de l'énergie nécessaire à la cellule. Plus tard, les eucaryotes s'assemblèrent en organismes multicellulaires, qui sont à l'origine des végétaux et animaux supérieurs.

Pour le biologiste français Pierre Henri Gouyon, du Museum national d'histoire naturelle, que nous aurons le plaisir d'interroger sur ce site dans quelques semaines, ce fut le passage du monocellulaire au multicellulaire qui mérite aujourd'hui d'être étudié. Il ne s'agissait pas d'un mécanisme anodin d'assemblage, mais d'une émergence autrement plus complexe sur laquelle il y a beaucoup à dire.

Procaryotes et eucaryotes, après de nouveaux épisodes plus limités de « snowball earth », finirent par se développer suffisamment pour que des algues bleues, vertes et des lichens puissent envahir les bords de mer, les décomposer en éléments nutritifs et accélérer la production d'oxygène résultant de la photosynthèse. L'horloge du temps marquait alors – 0,6 mda environ. Après plusieurs faux départs, la voie se libérait pour une compétition darwinienne effrénée entre grands organismes marins et terrestres, s'ajoutant à celle des micro-organismes. Comme nul ne l'ignore, certains de ces organismes terrestres devinrent, ceci tout récemment sur l'échelle des temps préhistoriques, des primates homo sapiens.


Inutile d'ajouter que cette évolution aurait tout aussi bien pu ne pas se produire. Aujourd'hui, elle pourrait tout aussi bien s'arrêter à la suite de désastres écologiques provoqués par la multiplication desdits homo sapiens et des destructions qu'ils génèrent autour d'eux.

Pour en savoir plus
* page personnelle de Nick Lane http://www.nick-lane.net/index.html

 

Repost 0
8 février 2010 1 08 /02 /février /2010 17:46
Article. A propos de la sélection darwinienne
par Jean-Paul Baquiast 08/02/2010

Jerry FodorDans un article du Newscientist en date du 3 février 2010, les philosophes et cogniticiens Jerry Fodor (photo) et Massimo Piattelli-Palmarini pensent pouvoir mettre Darwin en contradiction avec les conceptions actuelles de l'évolution. C'est bien ce qu'exprime le titre de cet article « Survival of the fittest theory: Darwinism's limits » résumant les éléments du livre qu'ils viennent de publier chez Farrar, Straus, and Giroux « What Darwin Got Wrong »

Il est toujours un peu suspect, vu le courant d'anti-darwinisme politique régnant notamment aux Etats-Unis, d'entendre évoquer les limites ou, pire, les erreurs de Darwin. Il est évident que Darwin n'avait pas pu prévoir les développements récents de la biologie et de la génétique. Mais lorsque l'on examine ceux-ci sans vouloir en faire des munitions contre un darwinisme très largement caricaturé ou simplifié par ceux que le remettent en cause, on s'aperçoit que loin d'obliger à « dépasser » ou « abandonner » le darwinisme, ils contribuent au contraire à le conforter. Nous avons ici même, à propos des commentaires suscités par le film Avatar chez un idéologue anti-darwinien tel que Jean Staune en France, rappelé ce qui nous paraît une évidence: la théorie darwinienne de l'évolution, si on ne la simplifie pas outrageusement, reste entièrement valide...y compris quand on en déduit que l'évolution se déroule sans finalités fixées à l'avance.

Jerry Fodor et Massimo Piattelli-Palmarini sont d'une toute autre envergure que les anti-darwiniens de bas étage qui s'agitent dans les cercles spiritualistes et créationnistes. Ils veulent seulement montrer que la biologie et la génétique sont encore loin d'avoir fait la révolution conceptuelle leur permettant de prendre leurs distances avec le dogme du tout génétique inspiré par la biologie moléculaire des années 1970. Sur ce plan, leurs arguments sont parfaitement recevables. On peut seulement leur reprocher de confondre le darwinisme avec sa version réductionniste illustrée par la théorie synthétique de l'évolution, autrement dit illustrée par les néo-darwiniens. De plus, curieusement, ils ne mentionnent pas le fait que d'autres chercheurs avant eux avaient formulés des critiques du néo-darwinisme presque 20 ans plus tôt, en termes beaucoup plus percutants. Nous reviendrons sur ce point en fin d'article.

Fodor et Piattelli-Palmarini reprochent aux écrits parus durant l'année Darwin d'être uniformément dithyrambiques, laissant penser que rien ne peut être ajouté ou retirer à l'œuvre de Charles Darwin. C'est peut-être vrai de beaucoup d'esprits qui se complaisent dans la célébration de messes, mais nous n'avons pas eu pour notre part cette impression en parcourant les échanges qu'avaient suscité en France l'année Darwin, notamment le gros ouvrage collectif que nous avions signalé: «Les mondes darwiniens» (Syllepse). Quoi qu'il en soit, quels sont les arguments de nos auteurs?

Les limites de la sélection par l'environnement

Ils s'en prennent à ce qu'ils nomment la pierre de touche du darwinisme, le principe de la sélection naturelle, érigée disent-ils en dogme par Daniel Dennett Jerry Coyne, Richard Dawkins et d'autres. Ce principe permet aux darwiniens d'expliquer qu'il soit possible de construire des arbres taxonomiques en classant les espèces en fonction des similarités présentées par leurs phénotypes. Autrement dit, il permet de comprendre le fait que les espèces puissent être regroupées par grandes catégories, les mammifères d'un côté, les reptiles de l'autre, par exemple, au lieu d'être toutes différentes les unes des autres?

Darwin a proposé pour expliquer cela l'hypothèse généalogique: les espèces se ressemblent parce qu'elles descendent d'ancêtres communs à l'intérieur de grandes catégories ou taxons. Cette hypothèse a été acceptée par les évolutionnistes, quelle que soit leur discipline, à condition d'admettre que des phénomènes de convergence puissent expliquer des traits voisins provenant d'adaptation à des milieux imposant les mêmes contraintes (tels que l'aile présente chez les oiseaux et certains mammifères).

Or, pour Fodor et Piattelli-Palmarini, rien ne prouve que des phénotypes partageant le même ancêtre aient systématiquement des traits comparables. Ils contestent en effet l'affirmation des néo-darwiniens selon laquelle il s'agirait d'une conséquence obligée de la sélection naturelle 1)

Certes, les néo-darwiniens concèdent que ce mécanisme général peut souffrir des exceptions, en ce sens que beaucoup d'espèce peuvent voir leur adaptation décroitre avec le temps, par exemple lorsqu'elles se heurtent à des ressources alimentaires insuffisantes pour faire face à l'augmentation de la densité de leur population. Le mécanisme de la sélection darwinienne ne se montre favorable que lorsque les conditions générales définissant le milieu sélectif ne changent pas brutalement.

Mais le point n'est pas là. Ce que Fodor et Piattelli-Palmarini reprochent aux néo-darwiniens est de ne prendre en compte comme facteurs de sélection que des évènements de nature environnementale, autrement dit les conditions imposées par le milieu dans lequel évoluent les espèces.


Les néo-darwiniens négligent ainsi le rôle sélectif d'autres facteurs, internes aux individus et aux espèces, que Fodor et Piattelli-Palmarini nomment des variables endogènes. Celles-ci peuvent varier, elles-aussi, de façon aléatoire en entraînant des effets sélectifs aussi importants que les variations du milieu extérieur. Leur livre présente un grand nombre d'exemples de contraintes non-environnementales contribuant à la sélection dans la transmission des caractères.

Ces contraintes s'exercent à l'intérieur des organismes eux-mêmes, du bas vers le haut, bottom-up. Elles tiennent à la physique et à la chimie des molécules et aux interactions entre molécules à travers l'expression des gènes, des chromosomes, des cellules, des tissus et des organismes. D'autres contraintes s'exercent du haut vers le bas; top-down, découlant de principes universels définissant la forme des phénotypes par auto-organisation: minimisation des dépenses d'énergies, choix des transmissions les plus courtes, optimisation des modes de cloisonnement membranaires, etc.

Au fil des temps, l'interaction de ces multiples contraintes endogènes a produit de nombreux phénotypes viables, capables de survie et de reproduction, tout en présentant des solutions radicalement différentes. De très nombreux filtres sélectifs opèrent selon de très nombreux modes différents sur un très grand nombre de phénotypes et à un grand nombre de niveaux. Fodor et Piattelli-Palmarini en tirent la conclusion que le réductionnisme génétique défendu par les néo-darwiniens est le plus souvent inopérant pour expliquer la multiplicité des formes et des phénotypes. La présence de nombreux traits ne s'explique pas par le fait qu'ils ont amélioré l'adaptation des individus qui en sont porteurs. Elle résulte d'autres causes, peu déterminantes voire sans effet en matière d'adaptation.

Les processus non adaptatifs sont au moins aussi nombreux que les processus adaptatifs pour expliquer la variété des solutions retenues par le vivant. Fodor et Piattelli-Palmarini nomment « free-riders » ces caractères retenus par l'évolution bien que n'améliorant en rien l'adaptation. On pourrait traduire le terme par « anarchiste ». Ils sont au moins aussi nombreux que les autres. Mais il est bien difficile d'expliquer les raisons de leur présence, tellement celles-ci peuvent être diverses. Il ne s'agit certes pas d'évolutions totalement stochastiques. Elles découlent de causes susceptibles d'être identifiées. Mais le recours à la solution de facilité consistant à faire appel à la sélection par l'environnement ne suffit pas.

Fodor et Piattelli-Palmarini considèrent qu'il est très important de remettre cette dernière à une place plus modeste parce que de très nombreux non-biologistes, philosophes, psychologues, sociologues ou théologiens ont fait appel à une prétendue sélection adaptative par le milieu, attribuée à Darwin, pour expliquer des phénomènes et événements sans rapport avec elle. Ils ont ainsi imposé un réductionnisme soi-disant légitimé par la biologie pour s'éviter de rechercher les causes des phénomènes qu'ils ne comprenaient pas ou, pire, pour se refuser à les analyser.. Les excès de la sociobiologie en ont résulté.

Notre commentaire


Nous n'allons pas bien sûr ici contredire Fodor et Piattelli-Palmarini au nom de la défense d'une orthodoxie néo-darwinienne depuis longtemps critiquée de toutes parts. Nous nous étonnerons par contre de voir deux auteurs pourtant avertis et bien informés ne pas mentionner à l'appui de leur démonstration la théorie de l'ontophylogenèse présentée par Jean-Jacques Kupiec depuis plus de 15 ans, qui prend précisément en compte parmi les facteurs de sélection ce qu'ils appellent les  variables «internal» ou «endogenous». Mais peut-être ne savent-ils pas qu'il existe des scientifiques compétents ailleurs qu'aux Etats Unis.

La théorie de l'ontophylogenèse permet en effet d'intégrer les contraintes dont parlent Fodor et Piattelli-Palmarini, sans contredire les principes de la sélection darwinienne, et partant sans obliger à relativiser voire abandonner la théorie darwinienne de l'évolution. Comme l'a déjà amplement expliqué Jean-Jacques Kupiec, y compris dans un article publié par cette revue, il était en effet devenu nécessaire de remettre en cause la synthèse évolutive classique (néo-darwinienne) posant en principe que l'évolution et l'ontogenèse sont deux processus distincts.

Pour celle-ci la sélection naturelle s'exerce sur les phénotypes qui sont produits par les programmes génétiques codés dans l'ADN. De ce fait, la sélection naturelle n'agit pas dans l'ontogenèse. Elle ne fait que trier indirectement les mutations associées avec certains phénotypes. Mais si, dit Jean-Jacques Kupiec, on intègre le fait que la structure cellulaire trie les interactions moléculaires, dans la mesure où elle est elle-même triée et façonnée par la sélection naturelle, il faut en déduire que la sélection naturelle, via cette structure cellulaire, agit dans l'ontogenèse : les interactions moléculaires sont triées par la structure cellulaire (ou multicellulaire) qui est elle-même triée par la sélection naturelle. Donc, finalement la sélection naturelle trie les interactions moléculaires.

Il en résulte que l'ontogenèse et la phylogenèse ne forment qu'un seul processus. Dans le cadre de la synthèse évolutive classique, il n'y a pas de continuité causale entre ontogenèse et phylogenèse : les deux aboutissent au phénotype adulte (structure cellulaire ou multicellulaire) mais restent séparés. Par contre, lorsqu'on intègre l'action de la structure cellulaire sur les interactions moléculaires, l'ontogenèse devient bidirectionnelle. Il s'agit d'un processus qui va en même temps du «bas vers le haut» («bottom-top») et du «haut vers le bas» («top-bottom») et dans lequel il existe une continuité causale allant de la sélection naturelle jusqu'au niveau moléculaire. Il s'agit des termes mêmes employés par Fodor et Piattelli-Palmarini.

Jean-Jacques Kupiec a donc précédé ceux-ci dans le rejet du néo-darwinisme inspiré par la biologie moléculaire des années 1970, et dans la condamnation des excès réductionnistes de la sociobiologie. Mais il ne présente pas ce rejet comme un caillou dans la chaussure du darwinisme. Il y voit au contraire un retour aux sources de l'esprit darwinien. C'est ainsi que l'ontophylogenèse permet d'expliquer de façon naturellement darwinienne l'apparition des nombreux caractères qualifiés de «free-riders» ou anarchistes par Fodor et Piattelli-Palmarini, dont ils avouent ne pas pouvoir toujours comprendre la raison d'être. Pour l'ontophylogenèse, ce sont bien des produits d'un mécanisme de variation aléatoire suivie de sélection. Il faut seulement pour le montrer au cas par cas abandonner les vues simplistes relatives à la nature des agents sélectifs.

Note
(1) Selon Fodor et Piattelli-Palmarini, le mécanisme décrit par les néo-darwiniens est le suivant: un générateur aléatoire de diversité, résultant des mutations au hasard affectant des segments d'ADN, produit aléatoirement de la diversité au niveau des phénotypes. Le filtre de l'environnement sélectionne les plus aptes de ces phénotypes, dont la reproduction donne naissance à des espèces plus ou moins modifiées. Ainsi une mutation quelconque, survenue aléatoirement, produira des phénotypes dont les différences se répartiront elles-mêmes aléatoirement autour des caractères de l'ancêtre commun. La sélection par les contraintes du milieu éliminera certains des traits résultant de cette répartition et en favorisera d'autres. Les phénotypes portant ces caractères se reproduiront entre eux et pourront donner naissance à une espèce nouvelle, identifiable par ces nouveaux traits. De proche en proche, l'adaptation (fitness) de cette nouvelle espèce à son milieu s'améliorera. Les phénotypes de la nouvelle espèce ressembleront davantage en effet aux phénotypes de l'espèce-origine proche qu'à ceux de l'espèce-origine plus ancienne. On en déduira que l'adaptation de cette nouvelle espèce à son environnement sera meilleure que celle des espèces-origine antérieures.

Repost 0
3 février 2010 3 03 /02 /février /2010 10:17

Darwin est-il soluble dans la Science-Fiction?
par Jean-Paul Baquiast 01/02/2010



Une polémique s'est établie il y a quelques jours, notamment dans une suite d'articles publiées par le journal Le Monde, à propos du caractère darwinien ou non darwinien du type d'évolution décrite par le film Avatar. Il n'est pas inutile d'y revenir car les enjeux philosophiques et politiques ne sont pas minces.

 


Rappelons que le scénario décrit des populations d'organismes vivants peuplant la planète Pandora. Elles sont proches à quelques différences près de celles peuplant la Terre. On en avait généralement déduit que le film s'inspirait de la théorie darwinienne de l'évolution. A partir de formes de vie initiales voisines de celles étant apparues sur Terre, et dans un milieu physique très proche, le réalisateur James Cameron faisait l'hypothèse que les principes de l'évolution darwinienne, sur le mode mutation/sélection, avaient donné naissance à des formes vitales relativement convergentes: les mêmes contraintes conduisant à des solutions sinon comparables du moins voisines.

 


Or, dans une tribune parue dans le Monde du 17/18 janvier 2010, le biologiste Thomas Heims a rappelé ce qui pour un darwinien tel que l'auteur du présent article paraissait évident: il n'y a aucune raison pour qu'apparaissent des formes semblables ou même comparables, dans un monde déterminé par le hasard et la nécessité, c'est-à-dire dans un monde où n'existe aucune volonté supérieure pour orienter l'évolution. A supposer qu'à l'origine de la vie, sur la Terre comme sur Pandora, aient pu se trouver des molécules prébiologiques analogues, telles que les bases A, U, C et G du code génétique, il n'y avait aucune chance pour qu'elles se combinent de façon identique.

Il y avait encore moins de chance pour que, à supposer que des ADN primitifs voisins aient pu apparaître sur chacune des deux planètes, ils puissent donner, à la suite de mutations survenues au hasard, des espèces voisines. Selon Thomas Heims, la position défendue par James Cameron, grossièrement évolutionniste, est en fait pratiquement incompatible avec le darwinisme. Elle laisse supposer que des forces intelligentes extra-naturelles ont orienté les évolutions en vue de privilégier des finalités décidées à l'avance. Cameron n'est peut-être pas créationniste, ni défenseur explicite de l'Intelligent Design, mais il donne des armes imaginaires puissantes aux militants de ces thèses.

 


Le polémiste spiritualiste Jean Staune, qui dispose de beaucoup de moyens pour publier des écrits tendant à démontrer que les sciences confirment les affirmations des Ecritures, ne s'y est pas trompé. Dans une tribune faisant suite à celle de Thomas Heims, publiée par Le Monde du 21 janvier, il explique que celui-ci se réfère à une conception simpliste et dépassée de l'évolution. Il cite un certain nombre de biologistes qui, selon lui, privilégient une hypothèse moderne qu'il qualifie de structuraliste. Selon lui, ce structuralisme considère les êtres vivants comme étant nécessaires. Leur structure générale est inscrite dans les lois de la nature. A l'instar des cristaux de neige qui possèdent toujours six branches quelques soient les conditions de leur formation, les grands types d'êtres vivants sont en mesure de réapparaître encore et partout là où les conditions physico-chimiques le permettent. « Cette nouvelle vision de la vie, retrouvant d'anciennes intuitions (?), dit-il, nous offre ainsi une troisième voie susceptible de déboucher sur de nouvelles découvertes ».

 


Ce texte habile évoque semble-t-il ce que nous avons désigné dans notre ouvrage « Pour un principe matérialiste fort » comme les principes de la mécano-synthèse. Ceux-ci s'applique en priorité aux formes physiques et chimiques et seulement en arrière plan aux formes biologiques. La mécanosynthèse impose aux cristaux de neige, dans les conditions physiques actuelles, des structures en étoile comparables (encore serait-ce à vérifier). Mais les étoiles de mer et d'autres étoiles, telles celles matérialisées par certaines fleurs, obéissent à des contraintes évolutives où réintervient le darwinisme. Les anciennes intuitions, auxquelles fait allusion Jean Staune, seront nécessairement celles que l'on retrouve dans les mythes créationnistes, chrétiens ou relevant d' autres croyances. Il n'y a donc aucune raison de voir dans Avatar un argument recevable permettant de remettre en cause le darwinisme.



La discussion aurait pu s'arrêter là, terminée par une défaite de Jean Staune, soulignée par la majorité des internautes ayant posté des commentaires sur le site du Monde. Mais, dans un point de vue publié par ce même Monde le 27 janvier, les chercheurs en biologie et en anthropologie Jean-Baptiste André et Nicolas Baumard refusent l'argumentation de Jean Staune et contestent partiellement celle de Thomas Heims. Sur Jean Staune, nous n'avons pas de commentaires. A l'égard de Thomas Heims, ils font valoir que, si l'évolution comporte une grande part de hasard, elle comporte aussi une large part de nécessité. Les mutations avantageuses le sont pour des raisons physiques fondamentales. De cette part de nécessité résultent de nombreuses relations générales entre les structures vivantes, entre la fonction d'un organe et sa forme, entre la niche écologique d'une espèce et les organes qu'elle porte. On peut retrouver ainsi des contraintes, connues depuis longtemps, découlant du milieu physique et notamment des lois de la mécanosynthèse.



Jean-Baptiste André et Nicolas Baumard, qui s'affirment représentants de la théorie néo-synthétique de l'évolution, confèrent donc à cette dernière le pouvoir d'expliquer l'ordre actuel sans supposer un ordre initial. C'est parce que la sélection naturelle a agi sur le monde qu'existent aujourd'hui sur Terre des structures aussi organisées, aussi improbables a priori, que les structures vivantes – auxquelles nous ajouterons les nombreuses structures géologiques façonnées par l'évolution des êtres vivants. L'évolution n'a pas de vision, elle ne planifie pas. Mais, par le jeu des mutations et de la sélection, elle produit de l'organisation. « Prétendre que le darwinisme est incapable de rendre compte des relations d'ordre qui lient les structures vivantes entre elles, c'est tout simplement n'y rien comprendre du tout. Si les espèces indépendantes se ressemblent, ce n'est pas parce qu'il existe un plan divin, ou un ordre cosmique, c'est tout simplement parce que tous les êtres vivants, produits de la sélection naturelle, sont soumis aux mêmes contraintes ».



Nous pouvons pour notre part retenir que Jean-Baptiste André et Nicolas Baumard ne contestent pas en principe le fait que la planète Pandora et la Terre aient pu disposer de conditions physiques initiales susceptibles d'expliquer une certaine cohérence dans les architectures globales des êtres qui s'y sont développés. Ils contestent par contre, et nous ne pouvons que les rejoindre, le fait que l'évolution ait pu donner des espèces aussi homogènes que celles présentées par le film. Tous ceux qui, sans être exobiologistes, imaginent des formes de vie extraterrestres, ne s'y trompent pas. Les extraterrestres qu'ils nous présentent sont généralement très différents des humains, même s'ils doivent se soumettre à un environnement exerçant des contraintes globalement comparables.



La discussion, de nouveau, aurait pu s'arrêter là. Mais à son tour le biologiste Vincent Fleury est intervenu dans le débat (Le Monde du 29 janvier). Il a d'abord rappelé que, contrairement aux allégations de Jean Staune, il ne partageait pas les hypothèses empreintes de spiritualisme de celui-ci. Il avait seulement développé une théorie physique de la morphogenèse animale qui selon lui contribue à éclairer la nature des contraintes auxquelles la morphologie des animaux est soumise. Cette théorie fait entrer en embryologie, et au-delà, dans les contraintes pesant sur l'évolution, les propriétés matérielles de la matière vivante, en particulier sa fluidité. La matière vivante, obéissant aux lois de l'hydrodynamique, serait contrainte par un ensemble de lois très communes en mécanique (conservation de la masse, équilibre visco-élastique, conditions aux limites des champs de vecteurs, etc.). La prise en compte de ces notions éclaire la morphogenèse embryonnaire, et explique très simplement les grandes lignes de la formation d'un animal. Cette théorie ne contrevient pas au darwinisme stricto sensu.
« Cependant, il est notoire que le darwinisme ne traite que de l'avantage sélectif des animaux, mais non de l'espace des formes possibles sur lesquelles la sélection agit. De même, et contrairement à une idée répandue, la génétique du XXe siècle n'a pas apporté d'explication ultime aux formes observées, les forces physiques mises en jeu au cours du développement ayant été négligées ». Depuis de nombreux travaux nouveaux, cités par Vincent Fleury, ont selon lui précisé ces points.



A la date où nous écrivons ceci, la discussion semble confirmer une conclusion qui a priori paraissait évidente. D'une part, Jean Staune n'est pas un scientifique mais un polémiste habile à manier les approximations au service de la Templeton Foundation, comme l'ont rappelé divers commentaires,dont le but avoué est de rapprocher sciences et religions. D'autre part, une évolution sur le mode darwinien dit du hasard/sélection s'exerçant sur la Terre et sur une hypothétique planète qui lui serait géologiquement et thermodynamiquement très proche pourrait être soumise à des espaces de contraintes voisines et faire apparaître, dans la meilleure des hypothèses, certaines convergences entre solutions biologiques. Mais il pourrait tout autant en résulter des différences radicales.

 


Nouveaux travaux sur l'évolution


Ceci dit, la biologie, qui est une science vivante, a depuis longtemps, sans remettre en cause radicalement la synthèse moderne à laquelle se réfèrent Jean-Baptiste André et Nicolas Baumard, proposé de nouvelles hypothèses et théories enrichissant et nuançant considérablement les points de vue des biologistes évolutionnaires des dernières décennies. Il s'agit d'abord de la théorie dite de l'ontophylogenèse de Jean-Jacques Kupiec, que nous avons abondamment commentée et qu'il a lui-même présentée sur notre site. Celle-ci représente ce que nous pourrions nommer un darwinisme généralisé. Jean-Jacques Kupiec montre en effet que la construction de nouvelles structures par regroupement aléatoire de structures existantes, suivie de sélection par les divers milieux dans lesquels s'expriment ces nouvelles structures, puis de généralisation des solutions les mieux adaptées, semble une règle universelle.

 


Pour l'ontophylogenèse, les mutations/sélections n'intéressent pas seulement les gènes. Elles se produisent en amont de la construction des cellules vivantes, entre les protéines constitutives de la cellule. Elles se produisent aussi dans l'expression des gènes et dans l'assemblage des différences cellules constituant l'embryon puis l'organisme de l'individu. Il y a sélection à tous les niveaux, ce que Jean-Jacques Kupiec nomme l'hétéro-sélection. Les structures créées par la vie, qu'il s'agissent de celles propres à l'organisme ou de celles caractérisant les « niches » constituées par la coopération des organismes, participent évidemment à l'hétéro-sélection. On a tout lieu de penser que si Darwin avait vécu de nos jours, il aurait adhéré à cette extension de se théorie.

 


Aussi intéressante que soit la théorie de l'ontophylogenèse, elle n'a cependant pas d'application immédiate permettant de répondre à la question que nous nous posons, et que posent les commentateurs du film Avatar: existent-ils des lois générales de l'univers imposant des modes voisins de développement à toutes les formes évolutionnaires répondant à ce qui pour nous distingue le vivant du non-vivant? Rappelons sommairement que l'on définit généralement le vivant par la capacité à constituer des organismes disposant d'un milieu intérieur séparé du milieu extérieur par une membrane, et capable de se répliquer, que ce soit par bourgeonnement, association-symbiose ou reproduction à partir de l'équivalent d'un programme incorporé de type ADN. Cette question présente un intérêt pour les exobiologistes, c'est-à_dire pour ceux qui s'interrogent sur les possibilités de vie dans l'univers. Mais elle intéresse aussi tous ceux qui s'efforcent actuellement de simuler la vie avec des moyens ou composants artificiels, soit pour comprendre les processus par lesquels celle-ci est apparue sur Terre, soit pour créer des formes de vie artificielle.

 


Par définition, à moins d'être créationnistes, nous devons admettre que la vie, quelles que soient ses lieux d'apparition et ses formes, n'est pas venue de rien. Ceci pose donc la question des conditions physiques (et chimiques) régnant, soit sur la Terre primitive, soit sur les planètes pouvant lui servir de berceau. Or le peu que l'on sait des conditions propres aux planètes et lunes du système solaire, montre une très grande diversité de conditions. Il serait cependant hasardeux d'affirmer que des corps célestes présentant des caractères très éloignés de ceux de la Terre, par exemple le satellite de Saturne Titan, ne pourraient pas héberger de vie. Celle-ci serait alors différente dans ses expressions des formes de vie terrestre, mais elle pourrait cependant satisfaire aux critères par lesquels nous distinguons le vivant du non vivant. Ces formes de vie elles-mêmes, pourquoi pas, pourraient donner naissance à des systèmes complexes présentant les caractères de ce que nous nommons l'intelligence.

 


Or l'évolution de telles formes de vie, quoiqu'il en soit, n'obligerait pas à remettre en cause le darwinisme, non pas tel qu'exprimé par la « nouvelle synthèse » des biologistes moléculaires qui concerne principalement l'ADN, mais par l'ontophylogenèse: assemblage stochastique (au hasard) de composants soumis à une « hétéro-sélection » exercée par les produits résultant des évolutions antérieures. Cependant, si nous admettions ces prémisses, nous aurions toutes raisons d'affirmer qu'il n'y aurait pas beaucoup de chances de voir apparaître des formes de vie morphologiquement comparables, d'une planète à l'autre. Autrement dit, les espèces vivantes propres à la planète Pandora auraient des chances quasiment nulles de ressembler à celles décrites par James Cameron. Celui-ci a cédé à la facilité inspirant beaucoup d'auteurs de SF. On constate que leur imagination s'essouffle vite quand il s'agit d'imaginer des morphologies radicalement différentes de celles des organismes terrestres.

 


Ceci dit, pourrait-on envisager que, quelles que soient les formes géologiques et la composition chimique des milliards de planètes susceptibles, rien que dans la galaxie, d'héberger des formes vitales, celles-ci seraient contraintes, comme le proposent certains partisans de la morphogenèse, à adopter des structures sinon identiques, du moins voisines les unes des autres. C'est un peu la thèse que reprend, nous semble-t-il, le biologiste Vincent Fleury précité, comme d'autres commentateurs du film Avatar. On peut penser que cette thèse se défend, bien qu'évidemment elle soit encore invérifiable. Il n'y à pas lieu de supposer que les lois fondamentales de la physique puissent être différentes d'une planète à l'autre, au moins à partir du moment où, à partir du vide quantique, sont apparues des particules élémentaires puis des atomes susceptibles de se combiner en composés chimiques et biochimiques plus ou moins complexes.

Or si les atomes peuvent se combiner en un nombre quasiment infini de composés finaux, formes et couleurs, les lois structurales auxquelles ces combinaisons seraient soumises, d'une planète à l'autre, seront moins nombreuses et surtout seront globalement les mêmes. On verra ainsi partout des organismes présentant un haut et un bas parce que partout, la pesanteur les obligerait à s'aligner en tenant compte des champs gravitationnels. Ces lois fondamentales ne se limiteraient pas à la gravitation, mais à toutes celles qui déterminent la mécanogenèse et la morphogénèse des structures complexes, qu'elles soient non-vivantes ou vivantes, naturelles ou artificielles. Par ailleurs, il n'y aurait pas de raison de supposer qu'elles puissent échapper à l'évolution et que celle-ci, d'une façon ou d'une autre, ne résulterait pas du processus darwinien de la mutation/sélection. On pourrait peut-être dire la même chose des composants susceptibles de prendre, sous l'influence d'une telle évolution, la forme de ce que nous appelons des systèmes cognitifs.


Nous serions donc autorisés à déduire de ce qui précède qu'il existe une probabilité non nulle de trouver sur un certain nombre de planètes des organismes répondant aux critères que nous jugeons être ceux de la vie et de l'intelligence, résultant d'évolutions que nous pourrions qualifier de darwiniennes.

 


Par contre, les recherches sur l'origine de la vie, dont nous avions donné quelques exemples dans un article récent, mettent en évidence une difficulté rarement évoquée par les darwiniens: à quel moment se sont enclenchés les processus de réplication, mutation et sélection caractérisant l'évolution darwinienne. Plus précisément, quel est le facteur qui a rendu réplicatif un des multiples composés non réplicatifs apparaissant dans un milieu géologique telle que celui de la Terre primitive, susceptible d'en produire sans cesse un grand nombre. Un certain nombre d'hypothèses ont été faites à cet égard, mais aucune n'a pu être vérifiée expérimentalement. Le premier laboratoire qui découvrira un processus sinon semblable du moins comparable aura résolu une grande énigme – avec le risque objectent certains critiques, de mettre en circulation un réplicateur incontrôlable. Cette problématique est souvent évoquée par les auteurs de SF. Mais il ne semble pas, à notre connaissance, qu'elle ait jusqu'à présent inspiré un grand film tel que Avatar.

 


Nous mentionnerons pour terminer une question souvent présentée comme mettant en défaut le darwinisme. Il s'agit du processus dit du transfert horizontal de gènes. Nous l'avions évoqué dans un article déjà ancien puis dans un autre datant de 2009. Le thème vient d'être repris par un article de Mark Buchanan dans le NewScientist du 23 janvier 2010, p. 34 « Another Kind of Evolution ». Le transfert horizontal de gènes se produit entre organismes simples, bactéries ou archae, mais il peut aussi intéresser des portions d'ADN propres à des organismes complexes. Carl Woese, un des pères du concept, y avait vu un « marché commun des gènes » ayant permis aux origines à des organismes différents d'exploiter des pools génétiques communs. Pour Woese, associé plus récemment à Nigel Goldenfeld, il s'agirait d'un processus évolutionnaire remettant en cause le darwinisme, puisque les mutations se résulteraient pas d'accidents touchant verticalement une lignée évolutive, mais seulement du partage de gènes entre organismes différents.

 


Nous pensons pour notre part que le transfert horizontal de gènes fait partie des nombreux processus remettant en cause le primat de la théorie synthétique de l'évolution, comme d'ailleurs l'avait laissé entendre Jean-Jacques Kupiec. Il ne remet pas en cause le darwinisme en général. Celui ci repose sur l'existence de mutations sélectionnées par l'environnement, quelque soit la nature de ces mutations. Aussi bien, quand on entend dire, comme le font des polémistes comme Jean Staune et quelques autres, qu'une nouvelle découverte scientifique remet en cause le darwinisme, il faut y regarder de très près.

Repost 0
25 janvier 2010 1 25 /01 /janvier /2010 23:22

 


Biblionet. Perdons-nous connaissance? De la mythologie à la neurologie
Par Lionel Naccache

Odile Jacob janvier 2010

Présentation et commentaire par Jean-Paul Baquiast 25/01/2010

 

 

Lionel Naccache est neurologue à l'hôpital de la Pitié Salpétrière à Paris et chercheur en neurosciences cognitives au Centre de recherche de l'Institut du cerveau et de la moelle épinière.

Il est l'auteur du Nouvel Inconscient, dont nous avions rendu compte sous http://www.automatesintelligents.com/biblionet/2007/jan/naccache.html

Nous avions présenté en 2007 le premier livre du neurologue et chercheur en neurosciences cognitives Lionel Naccache, Le Nouvel Inconscient. Nous avions salué le caractère novateur de son approche. Il s'agissait de proposer une théorie générale de la conscience s'appuyant sur les deux disciplines dont l'auteur est expert: l'observation des cerveaux par les méthodes en plein développement de l'analyse cérébrale fonctionnelle et celle des comportements de personnes atteintes de troubles neurologiques plus ou moins graves affectant l'expression de la conscience. Il s'agit là en effet des deux voies les plus efficaces aujourd'hui pour comprendre la façon dont se construit et s'exprime ce que l'on appelle aussi l'esprit chez les humains.


Il existe évidemment d'autres voies, celles par exemple reposant sur l'observation de l'apparition des fonctions cognitives chez le nouveau-né et bien entendu celles voisines relevant de la psychologie évolutionnaire appliquée aux animaux. Nous en ajoutons nous-mêmes une autre, la simulation des phénomènes de l'esprit sur des systèmes d'intelligence artificielle évolutionnaire. Dans un article récent, nous avons signalé la coopération qui s'était établie récemment sur ce point entre le psychiatre Philippe Marchais et le roboticien, bien connu des lecteurs de cette revue, Alain Cardon 1)


Perdons nous connaissance?


Il se trouve que Lionel Naccache vient de publier un nouvel essai, «  Perdons-nous connaissance » où il s'interroge sur le sens que peut prendre ce concept dans une société telle que la nôtre. Elle se proclame en effet  société de la connaissance et dans le même temps, se définit comme une société de l'information. Ces deux qualificatifs sont effectivement mérités. Non seulement les œuvres de toutes sortes sont diffusées très largement (là où du moins le permettent les quelques censures qui demeurent) mais de plus en plus de gens jusque là inaudibles peuvent témoigner et discuter en leur nom propre ou en celui de minorités diverses. Beaucoup d'esprits chagrins déplorent la cacophonie qui en résulte. Ce n'est pas le cas de Lionel Naccache aux yeux de qui les outils de la société de l'information, notamment Internet, rendent d'immenses services. Mais pour lui ils ne règlent pas cependant la question de la connaissance. Si Internet favorise en effet indiscutablement l'accès aux travaux scientifiques qui sont quoiqu'en pensent les sceptiques les seules sources objectives de connaissance sur l'univers et sur tout ce qu'il contient, il favorise aussi la diffusion d'informations dont nul ne peut dire si elles sont inventés et propagées par des esprits y trouvant un moyen de se donner de l'importance, ou si elles renvoient à des faits réels dont nous n'aurions pas été jusqu'à présent informés. 2)


Au delà de la question des relations entre l'information et la connaissance, qui est en effet de plus en plus d'actualité, Lionel Naccache se pose une autre question, dont les implications en philosophie des sciences sont tout aussi grandes: pourquoi les traditions antiques dont témoignent les textes qui nous sont parvenus manifestent-elles une telle défiance à l'égard de la connaissance? Qu'est-ce alors que cette connaissance, décrites comme tellement dangereuse par certains philosophes grecs et surtout par les écritures chrétiennes et juives ? Pourquoi alors aujourd'hui nos sociétés de la connaissance, excepté les contestataires des techno-sciences (dont ils font eux-mêmes sans s'en rendre compte un mythe), ne semblent plus s'en défier?


Lionel Naccache pense répondre à cette double question en rappelant que la connaissance n'est pas seulement une relation entre un Réel extérieur jusque là inconnu et une description qui en est donnée sous une forme impersonnelle. C'est aussi une relation avec le sujet qui procède à cette description ou qui s'en inspire pour améliorer son rapport au monde. Or le sujet n'est pas l'observateur neutre que postulent beaucoup de sciences. C'est une entité singulière, prenant la forme d'un corps et d'un esprit profondément déterminée par des contraintes lui interdisant un rapport objectif avec ce qu'il perçoit du monde. Les constructions que fait son cerveau des données perçues par ses sens, les interprétations qu'il donne ensuite à ces constructions en fonction notamment de la façon dont elles sont reçues par les autres, correspondent à un besoin vital pour le sujet: élaborer une description de lui-même et de son histoire, autrement dit de son Je, qui soit aussi valorisante, mobilisatrice, que possible.


On a pu dire en effet, Lionel Naccache en particulier dans le Nouvel Inconscient, que le Je était une projection hallucinée de l'être tout entier sur l'écran de visualisation permis par la conscience. Il est donc important de montrer comment le Je conscient crée ou utilise l'information, qu'elle soit de détail ou qu'elle s'organise en vastes systèmes de connaissances, pour améliorer son adaptativité dans le conflit darwinien pour la survie qui l'oppose aux autres espèces et à ses semblables.


Pour illustrer cette thèse, que nous espérons avoir résumée sommairement sans la déformer, la première partie du livre propose une incursion dans la Mythologie dont la précision surprendra ceux ayant un peu oublié l'histoire des philosophies et des religions. Il aborde successivement la mythologie grecque et les propos de Platon, les écritures de la Bible et leurs commentaires par le Talmud, les légendes plus récentes de la Renaissance européenne, avec notamment le mythe du Dr Faust. Dans tous ces cas, selon les auteurs inconnus de ces légendes, ceux qui avaient voulu s'alimenter aux fruits de la Connaissance ont subi des destins effroyables, aussi nobles qu'aient pu être leurs intentions.


Lionel Naccache montre ensuite comment le Siècle des Lumières et les Encyclopédistes ont pris le contre-pied de ces attitudes, en proposant au contraire l'accès de tous aux connaissances scientifiques de l'époque, au risque de s'illusionner sur l'influence bénéfique que pouvait avoir l'esprit des Lumières sur des cerveaux encore englués dans les anciennes croyances. Il se pose sans apporter de réponses précises, on le conçoit, une question sur laquelle nous allons revenir: à quel type de Connaissance faisaient allusion les anciens mythes et pourquoi voulaient-ils tellement en tenir écarté le vulgum pecus ? L'hypothèse selon laquelle les institutions religieuses et politiques voulaient s'en réserver le monopole est un peu trop simple sans doute.


La deuxième partie du livre, plaisamment intitulée Une histoire de neurosciences-fiction, est toute différente. Elle commente l'expérience clinique de l'auteur et de nombre de ses confrères confrontés aux véritables drames que sont les destructions, même plus ou moins localisées, des différentes aires cérébrales qui concourent à la cohérence d'ensemble de l'esprit et à son expression à travers le langage et les comportements sociaux. Les ouvrages de neurosciences rapportent dorénavant nombre de tels cas, mais il est bon de les entendre évoqués par un clinicien situé si l'on peut dire en première ligne.


On y voit notamment comment les rationalisations, c'est-à-dire les histoires que se raconte un patient pour expliquer un déficit de perception ou d'interprétation sans l'imputer à un trouble interne qui en est la vraie cause mais qu'il ne peut observer lui-même, construisent pour ce patient un univers de connaissances très satisfaisant, mais qui repose évidemment sur une distorsion profonde de ce que nous appelons la réalité. Freud avait fait la même constatation à propos des rationalisations que dans certaines névroses et psychoses le malade invente pour la plus grande gloire de son moi. On sait que dans les rêves, chacun d'entre nous fait de même à tous moments et à tous propos, sans que cela, en principe, ne perturbe la bonne qualité de notre jugement lorsque nous nous réveillons.


Ces exemples tirés de la clinique permettent à l'auteur de revenir sur la définition de l'acte de connaissance. Cet acte met en scène trois unités, le sujet X tel qu'il était et se représentait à lui-même avant de connaître l'objet Y, cet objet Y tel qu'il existe dans le monde extérieur au sujet et enfin le sujet X', le sujet tel qu'il est devenu après avoir assimilé l'objet Y. Les objets de connaissance sont multiples, mais tous modifient en le réorganisant le sujet qui s'en laisse pénétrer et quasiment coloniser. Si l'on veut tenter de comprendre le monde extérieur générant les objets de connaissance qui circulent à son propos, il ne faut pas se limiter à analyser les informations brutes en émanant, mais les sujets et plus précisément, dans le champ de la conscience, les Je des sujets qui reprennent et interprètent ces informations, en les présentant comme participant à un processus objectif de connaissance. Les sujets subissent en recueillant ces informations des transformations plus ou moins profondes qui se traduisent par des stratégies destinées à protéger ou renforcer leurs Je. Dans certains cas, ces informations leur semblent si dangereuses pour la salubrité de ces Je qu'ils les nient purement et simplement. C'est un déni de réalité, que nous pourrions illustrer par le fameux déni de grossesse dont on a fait mention récemment dans la presse 3)


La troisième partie du livre est consacrée à l'analyse de la société de l'information telle qu'elle s'établit dans les régimes démocratiques où notamment l'Internet se déploie sans censures trop marquées. Lionel Naccache insiste là à juste titre sur le fait que cette information n'est pas pour autant synonyme de connaissance généralisée et uniformément répartie. Il est bon de démonter les illusions que recèle le concept, au moins pour les naïfs qui le prendrait au pied de la lettre. Au delà de considérations qui seraient familières pour nos lecteurs à qui n'échappe aucune des illusions mais aussi aucune des vertus du média que nous utilisons constamment, il souligne à nouveau que ne pas prendre en compte les « sujets qui parlent » conduit directement à l'erreur grossière et à la manipulation. Beaucoup de stratégies de captation de l'intérêt (et du soutien financier) des citoyens de la société de l'information s'appuient sur le prestige tenant à l'argumentation pseudo-technique et pseudo-scientifique. Il cite à cet égard, après bien d'autres, mais qui ne sont pas encore assez nombreux, les mensonges des défenseurs de l'Intelligent Design.


Nous sommes bien placés sur ce site pour en parler puisque nous avons subi les attaques de ceux qui, derrière la Templeton Foundation américaine, prétendent donner des bases scientifiques aux affirmations des Ecritures chrétiennes. Aujourd'hui, les défenseurs d'une prétendue science islamique ne procèdent pas différemment (voir par exemple notre brève d'actualité récente : A la gloire de la science islamique 4).


Dans cette troisième partie, qui comprend beaucoup d'incidentes que nous ne pouvons mentionner, figure une critique que nous estimons tout à fait fondée. Elle s'adresse aux mathématiciens, toujours aussi nombreux, qui prétendent, avec à leur tête l'illustre Alain Connes, déchiffrer un univers existant en soi, en dehors des cerveaux humains et même des réalités matérielles, celui des mathématiques pures. Il montre aisément que les mathématiques, quelles que soient leurs formes et langages, sont des constructions trouvant leurs sources, non seulement dans les intentions des sujets qui les « découvrent », mais dans des bases neurales spécifiques, propres non seulement aux primates que nous sommes mais aussi à de nombreux autres animaux, comme l'a récemment montré Stanislas Dehaene. Il s'agissait initialement de constructions de survie permettant de mettre de l'ordre, en fonction des expériences empiriques vécues par les sujets, dans le flux constant des phénomènes qui les assaillaient.


Observations


Nous pourrions poser ici à l'auteur beaucoup de questions et faire beaucoup d'observations, découlant des nombreux ouvrages approchant de près ou de loin le sujet dont il s'est saisi, et que nous avons été conduits à présenter sur ce site. Faute de place, car ce serait un livre d'au moins 200 pages qui serait nécessaire pour cela, nous nous bornerons à évoquer quelques points qui nous paraissent directement dans la ligne de son essai et sur lesquels nous aimerions avoir ses réactions.


La question du réel


Tout procès de prise de connaissance, comme d'ailleurs toute émission d'information renvoyant à quelque chose, fait l'hypothèse qu'existe en arrière-plan un réel suffisamment cohérent pour être modélisé et/ou observé. Nous avons abondamment traité de cette question sur ce site, à propos du monde quantique et des descriptions qui en sont données. Nous avons retenu pour notre part la solution que l'on pourrait sommairement décrire comme constructiviste. L'observateur/acteur ne peut pas prétendre accéder à un réel des essences, fut-il voilé selon le terme de Bernard d'Espagnat. Il ne peut traiter que des constructions l'associant, en tant qu'observateur doté d'un cerveau cognitif, à des instruments et à des entités observationnelles (les prétendues particules, par ex.) ayant fait l'objet d'une préparation adéquate. Malgré ces réserves, le réel que nous pourrions qualifier de relativisé ainsi obtenu est suffisamment consistant pour supporter tous les développements de l'électronique moderne. Nous pensons avoir montré que ce relativisme constructiviste peut parfaitement être étendu à tous les domaines des sciences macroscopiques. Il nous semble alors que la prise en compte des stratégies signalées par Lionel Naccache, stratégies dont peuvent jouer à titre individuel ou collectif les Je des observateurs/acteurs manœuvrant dans le monde des connaissances et des informations pourrait parfaitement apporter un relativisme de plus, combien nécessaire, aux descriptions du monde proposées par les sciences et les scientifiques.


La question des connaissances scientifiques comparées aux connaissances empiriques


Nous pensons, mais peut-être est-ce une illusion créée par les psychismes de ceux qui se sentent un peu noyés dans le monde des observations et des théories, qu'il conviendrait de distinguer, au sein de la connaissance décrite par Lionel Naccache, les contenus qui résultent des processus de la science expérimentale et ceux qui résultent de processus préscientifiques, tout aussi honorables, destinés à rassembler les consensus nécessaires à leur égard. Les uns et les autres, les premiers tout autant que les seconds, peuvent faire l'objet des manipulations apportés par les Je des sujets qui s'en servent pour comprendre le monde. Mais les premiers ont l'avantage, étant soumis à une critique et à des accords aussi larges que possible, d'être plus universels. Les contenus scientifiques n'ont pas prévalu, au terme de la longue histoire des sciences et des techniques, sur les produits de la métaphysique et de l'empirisme parce qu'ils étaient plus « vrais » que ces derniers. Ils l'ont fait, au terme d'une compétition darwinienne très ordinaire, parce qu'ils produisaient les meilleurs résultats en tant que guide de conduite collective et parce que, de ce fait, ils recrutaient plus de soutiens que la foule disparate de leurs concurrents empiriques et mythologiques. Leur émergence sur la scène intellectuelle s'est affirmée au siècle des Lumières. Mais ce ne sont pas les encyclopédistes et autres savants de l'époque qui ont décidé volontairement d'assurer leur diffusion. Ils ont diffusé spontanément en fonction de leurs succès dans la transformation du monde du fait notamment des premières technologies industrielles.


Les symbioses entre humains et machines


Lionel Naccache fait allusion à la fin de son livre à l'influence croissante que prennent les machines dans les stratégies cognitives des cerveaux humains qui leur sont associés. Ce n'est pas nous qui le contredirions. Nous aimerions par contre ajouter ici que le phénomène, selon nous, est bien plus étendu et général qu'il ne le laisse entendre. C'est l'association des composants biologiques et des composants technologiques au sein d'entités nouvelles, que nous avons nommé des systèmes anthropotechniques, qui a provoqué il y a plus d'un million d'années la mise en route de la société de l'information et de la société de la connaissance telles que nous les connaissons. Notre hypothèse n'est en rien, pensons nous, remise en cause par celles de Lionel Naccache. Au contraire, celles-ci l'enrichissent. 5)


Dans cet ordre d'idées, nous ajouterons que les considérations relatives à la symbiose entre les humains et les robots, qui prend de plus en plus de réalité aujourd'hui, n'auraient qu'à gagner à tenir compte de ce que Lionel Naccache nous apprend dans son excellent livre 6).

 

Notes
1) Voir http://www.admiroutes.asso.fr/larevue/2009/101/marchais.htm
2) Un bon exemple d'une telle confusion se trouve dans le hoax qui commence à circuler selon lequel le tremblement de terre à Haïti aurait été provoqué par les Américains pour renforcer leur présence sur une ile comportant parait-il de nombreuses ressources minières (voir http://www.alterinfo.net/Selon-les-armees-russes,-les-Etats-Unis-ont-provoque-le-tremblement-de-terre-a-Haiti_a41765.html
et http://www.alterinfo.net/Haiti-regorge-de-ressources-en-matieres-premieres_a41739.html . Ces "informations font-elles du mal ou du bien, et à qui? Nous pensons qu'elles ont au moins l'intérêt d'apprendre aux puissants qu'ils ne peuvent plus, aussi facilement qu'avant, donner des prétextes à de nouvelles Nuits de Cristal, Kristallnacht. sans se faire immédiatement démentir.
3) Une des critiques que nous faisons à la mémétique est qu'elle ne tient pas assez compte, pour expliquer la circulation et la prolifération des mèmes, de la réaction des terrains, c'est-à-dire notamment des cerveaux où ils se développent.
4) Voir http://www.admiroutes.asso.fr/larevue/2010/103/actualite.htm#actu2
5) Voir L'actualité politique et le paradoxe du Sapiens
http://www.admiroutes.asso.fr/larevue/2010/102/sapiens.htm
6) Voir Des hommes et des robots http://www.admiroutes.asso.fr/larevue/2010/103/robots.htm

 

Repost 0

Articles Récents

Liens