Overblog Suivre ce blog
Administration Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

5 septembre 2009 6 05 /09 /septembre /2009 09:50



Supersense: Why We Believe in the Unbelievable

Bruce M. Hood

Harper One 2008

Présentation et commentaires par Jean-Paul Baquiast - 03/09/2009

 


Le professeur Bruce M. Hood préside le Centre d’étude du développement cognitif au département de psychologie expérimentale de l’université de Bristol. Il a été chercheur à Cambridge, professeur invité au MIT et professeur à Harvard.


Page personnelle http://psychology.psy.bris.ac.uk/people/brucehood.htm



Nous pourrions traduire le titre de ce livre par « Le sens du surnaturel. Pourquoi nous croyons dans ce que nous ne devrions pas croire si nous étions rationnels ». Ceci pour lever une ambiguïté que semble comporter le titre en anglais. Il y a en effet une contradiction dans « to believe in the unbelievable » , croire dans l’incroyable. Si nous croyons en une certaine chose, nous ne pouvons pas affirmer que cette chose soit incroyable, puisque précisément nous y croyons. Pour bien faire, il faudrait préciser que ladite chose est incroyable au regard des explications rationnelles, ou scientifiques, que d’autres en donnent – ou que nous pourrions nous-mêmes lui donner si nous prenions conscience des motivations héritées de notre passé, en tant qu’individu ou en tant qu’espèce, qui nous conduisent à y croire.

Dans un entretien avec un critique, Bruce Hood a expliqué que son attitude vis-à-vis des croyances dans le surnaturel est différente de celles communément mises en avant par les sceptiques. Pour ceux-ci, ces croyances relèvent de réactions primitives dont les esprits rationnels devraient être indemnes. Pour lui au contraire, il n’y a rien de plus « normal » ou « naturel » que la croyance au surnaturel. Nous serions tous nés avec un sens du surnaturel ou « supersense » résultant d’un instinct héréditaire qui nous conduit à rechercher des forces inconnues ou identifier des signes et relations (patterns) cachées dans la plupart des objets de notre environnement. Ce sens du surnaturel est universel. Aucun de nous n’y échappe, même les plus sceptiques des rationalistes.

Bruce Hood veut se distinguer d’athées tels que Daniel Dennett et Richard Dawkins pour qui les superstitions seraient du même ordre que les croyances religieuses et résulteraient d’un endoctrinement reçu pendant l’enfance. Pour lui, s’il existe en effet un sens du surnaturel que génèrent ou qu’exaltent les différentes religions (religious supernatural), ce sens du surnaturel trouve sa source principale dans ce qu’il nomme un « sens naturel " ou spontané du surnaturel (secular supernatural) universellement répandu. L’omniprésence de ce dernier tient au fait que les rituels découlant de croyances partagées confèrent à ceux qui y participent, aujourd’hui encore comme aux temps préhistoriques, des avantages importants dans la compétition pour la survie.

Ceci ne veut pas dire que les esprits rationnels devraient adopter toutes les croyances que suggère en eux ce sens naturel du surnaturel, aussi profondément ancré qu’il soit dans leurs psychismes. Cela veut dire seulement qu’ils doivent consacrer toutes les ressources de la psychologie évolutionnaire et des autres sciences du comportement humain et animal à faire apparaître les bases neurales et les acquis comportementaux qui déterminent le « sens naturel du surnaturel » et qui entrent souvent en conflit avec les explications plus scientifiques. Pour cela, Bruce Hood, spécialiste de la psychologie de la petite enfance, donne une importance considérable à l’étude de la façon dont les nouveaux-nés, dès le premier jour de leur venue au monde sinon quelques jours auparavant, construisent des représentations de leur environnement leur permettant de s’y adapter avec les meilleures chances de survie.

La richesse insoupçonnée du cerveau des nouveaux-nés

Une grande partie du livre est consacrée à la mise en évidence des sources enfantines donnant naissance aux superstitions et croyances que l’on rencontre abondamment dans nos sociétés et qui sont contraires à l’évidence expérimentale. L’auteur élabore un vaste catalogue, très réjouissant, de telles croyances. On pourra discuter la pertinence de certains exemples, mais peu importe. Pratiquement, aucune de celles que nous pouvons nous-mêmes constater autour de nous, parfois en nous, n’échappe à ce recensement. Pour chacune d’elles, il montre comment elles ont pris naissance dans le psychisme des nouveaux-nés et jeunes enfants.

En termes de recherche fondamentale, à cet égard, les lecteurs avertis n’apprendront rien de l’ouvrage . Bruce Hood se borne à reprendre ce que d’autres ont affirmé avant lui. Il rappelle ainsi que le cerveau du nouveau-né, pour lui comme pour tous les évolutionnistes auxquels il se réfère, tel Steven Pinker, ne doit pas être considéré comme une ardoise blanche (blank slate). Il est déjà organisé en fonction des expériences multiséculaires acquises au long de millions d’années d’évolution, tant chez les premiers hominiens que chez leurs ancêtres animaux. Si les connaissances en résultant, et les comportements en découlant, ont été conservés par l’évolution, c’est qu’ils étaient vitaux. Aujourd’hui, l’enfant fait appel instinctivement à cet héritage pour interpréter le monde au sein duquel il est plongé à sa naissance.

Les mécanismes de ces interprétations ont été depuis quelques années bien mis en évidence par les neurosciences, comme l’a par exemple montré le neuro-psychologue Michaël Gazzaniga dans l’ouvrage que nous avions présenté : Human - The Science behind what makes us unique (Harper Collins – 2008. Des cartes cognitives génétiquement acquises sous forme de câblages innés résident dans les cerveaux et permettent à chaque enfant de donner un sens aux expériences individuelles qu’il affronte. L’interaction du nouveau né, par l’intermédiaire de ses organes sensoriels et moteurs avec le monde vivant et le monde inanimé dans lequel il se trouve plongé, oblige son cerveau, s’appuyant sur ces cartes cognitives innées, à produire incessamment, sur le mode des essais et des erreurs, des hypothèses complémentaires qui guideront son comportement global. Les hypothèses qui résisteront à la sélection par l’expérience seront conservées. Elles permettront d’actualiser et enrichir les cartes cognitives. Cela ne voudra pas dire que ces hypothèses seront plus vraies que les autres. Cela voudra dire seulement qu’elles auront apporté au sujet, ici et maintenant, des réponses ayant permis sa survie.

Cependant, de sélections en sélections, après soit confirmations soit éliminations, se construiront dans le cerveau de l’enfant des représentations de plus en plus proches de celles qui seront les siennes à l’âge adulte. Il retrouvera notamment, en communiquant par le langage avec des humains plus expérimentés que lui, les interprétations du monde plus générales s’étant imposées au sein du groupe auquel il appartient. Il pourra alors s’éloigner de points de vue trop subjectifs pour atteindre à une certaine objectivité (objectivité inter-subjective). Ceci ne voudra pas dire pour autant que la rationalité se substituera dans son esprit à l’irrationalité. Les sociétés restent globalement superstitieuses. Néanmoins, celles qui semblent s’adapter le mieux aux contraintes de la survie sont généralement celles qui s’attachent à la matérialité des phénomènes plutôt qu’aux interprétations imaginaires pouvant en être données.

Bruce Hood rappelle également que des convictions philosophiques qu’il rejette en tant que matérialiste mais qui donnent toutes leurs forces aux dogmes religieux comme aux superstitions, trouvent leurs sources dans le cerveau du jeune enfant. Il s’agit notamment de l’essentialisme, de la théorie de l’esprit et du créationnisme. L’essentialisme consiste à croire que les choses et les êtres peuvent être classés en catégories distinctes en fonction de caractères qui se situent en dehors du monde matériel. Il conduit directement au dualisme selon lequel les êtres et même les choses sont dotés d’un double immatériel, esprit ou âme, transcendant les contingences du monde matériel. La théorie de l’esprit consiste à prêter aux êtres et même aux choses des capacités cognitives, des connaissances et des sentiments analogues à ceux dont l’on perçoit l’expression en soi. Le créationnisme enfin considère les objets et les êtres dont on constate l’existence comme ayant toujours existé. Pourquoi se fatiguer à rechercher dans un lointain passé d’éventuels ancêtres communs aux entités dont l’on perçoit la présence, surtout si celles-ci correspondent à des essences toutes différentes les unes les autres? Il est plus facile d’imaginer qu’elles sont apparues toutes en même temps, de façon surnaturelle.

Ces convictions mystico-philosophiques propres à la grande majorité des adultes d’aujourd’hui, sont sous forme de réflexes inconscients innés, présentes chez tous les jeunes enfants. L’enfant est spontanément essentialiste, dualiste, animiste et créationniste. Bruce Hood en donne de nombreux exemples, dont certains pourront surprendre. Beaucoup d’entre nous qui n’ont des jeunes enfants que des connaissances approximatives, même lorsqu’ils sont parents ou font le métier d’éducateur, découvriront ou redécouvriront grâce à ce livre et à l'abondante documentation présentée en annexe, l’extraordinaire richesse des outillages de survie que l’esprit des enfants met à leur disposition. Ils comprendront mieux ce faisant les raisons pour lesquelles la sélection naturelle a implanté ces outils dans les cerveaux humains par l’intermédiaire de la sélection des gènes permettant leur expression. En conséquences, ils comprendront mieux pourquoi des croyances et comportements stéréotypés résultant de la mise en œuvre de ces outils durant l’enfance puis tout au long de la vie continuent à déterminer fortement les comportements collectifs et les structures sociales. Ceci devrait permettre de combattre ceux de ces préjugés qui mettent en danger la survie des sociétés et des individus modernes.

L’enfant est aussi ce que Bruce Hood nomme un « savant-né ». Comme tout savant qui doit être un bon observateur, il multiplie les rapprochements entre causes et effets possibles, il détecte des constantes ou des lois à l’œuvre autour de lui et si les hypothèses ainsi élaborées sont confirmées par l’expérience, il les intègre au corpus de connaissances sur le monde dont il s’est doté. Evidemment, les expériences dont il se sert pour confirmer ses hypothèses sont peu rigoureuses et très personnelles. Mais, en grandissant et en se confrontant à d’autres, il est généralement conduit à élargir ses références et remettre en causes ses croyances enfantines. Ce n’est évidemment pas le cas de tous les enfants. Certains conservent à l’âge adulte l’habitude de voir dans tous les évènements de la vie des signes et des relations révélant ce qu’ils pensent être un monde surnaturel. Les religions favorisent évidemment ce penchant, puisque le fidèle est conduit à suspecter en toutes choses l’effet de la main de Dieu. Mais les superstitions grandes et petites reposent elles aussi sur la permanence chez l’adulte de réflexes essentialistes, animistes et créationnistes non liés aux religions.

Le rôle de la dopamine

Les neurosciences font apparaître à cet égard les mécanismes générateurs d’un envahissement de la vie psychique par les croyances religieuses et les superstitions. Ce ne sont pas les cultures qui seraient en premier lieu les responsables de cet envahissement. C’est pourtant ce qu’affirment, notamment, les défenseurs de la mémétique en insistant sur la contamination des cerveaux par les croyances transmises d’un individu à l’autres. Le facteur véritablement décisif serait le niveau de dopamine présent dans les circuits cognitifs. Un excès de ce neurotransmetteur favorise les hallucinations et la schizophrénie, un manque crée de l’indifférence au monde. Les amphétamines et la cocaïne agissent sur le niveau de dopamine et peuvent donc provoquer des hallucinations ou des dépressions. Les sceptiques seraient donc dans cette hypothèse des individus dont le système dopaminique (dopamine system) serait bien équilibré, la dopamine y étant correctement dosée et répartie.
 

Nous attendions à cet égard de Bruce Hood qu’il se pose une question importante : pourquoi certaines personnes, lui-même en premier lieu, sont-elles systématiquement sceptiques et d’autres systématiquement prêtes à croire à n’importe quelle mythe ? Répondre à cette question ne serait pas anodin. On pourrait faire l'hypothèse qu’il s’agit de propriétés aléatoirement distribuées du système dopaminique au sein des populations.

Quoiqu’il en soit, le dosage de dopamine nécessaire à l’obtention d’un scepticisme efficace doit être subtil. Si je prends la fuite dès que je vois des traces de pas sur le sol en les attribuant à un animal animé d’intentions meurtrières, je serai aussi inadapté que dans le cas inverse : celui où constatant sur le sol des traces manifestement laissées par le passage récent d’un lion, je ne prenais aucune des précautions permettant d’éviter la rencontre avec ce prédateur. Le bon sens dira à cet égard qu’un peu trop d’imagination, autrement dit un peu trop de dopamine, est préférable à un manque. On ne se méfie jamais assez de l’inconnu. Dans les domaines où la science demeure encore muette, il est probable qu’un peu d’essentialisme et de théorie de l’esprit (induisant au dualisme) ne peut faire de mal. Ainsi ll'on verrait dans les phénomènes mal connus la marque d’entités capables de nourrir des intentions soit favorables soit destructrices. Ceci serait plus stimulant que naviguer les yeux fermés dans un univers de phénomènes supposés aléatoires, autrement dit sans intentions.


Bruce Hood au demeurant se garde de toutes condamnations sommaires. S’il n’encourage aucunement les croyances propagées par les sectes et les églises, il reconnaît cependant, comme indiqué plus haut, que certaines de ces croyances continuent à jouer un rôle utile, en poussant les individus et les groupes humains à se dépasser dans des voies paraissant aujourd’hui utiles à la survie collective. C’est le rôle qu’il attribue notamment à la conviction universellement répandue chez les Occidentaux, consistant à croire en l’existence d’un Je doté d’un libre-arbitre et capable de faire des choix altruistes. Pour l’auteur, en bon matérialiste qu'il est, il ne s’agit que d’une illusion générée par l’activation de zones cérébrales bien définies, elles mêmes s’activant sous l’influence de neurotransmetteurs particuliers. Il nous rappelle que scientifiquement parlant le concept de libre-arbitre n’a pas de sens. On ne peut imaginer comment un sujet pourrait prendre des décisions libres de tous déterminismes, sauf à se fier à des choix au hasard. Mais en ce cas, le libre-arbitre perdrait toutes les vertus dont le pare la pensée essentialiste. Cependant il faut reconnaître que l’illusion de disposer d’un Je autonome (doté de libre-arbitre) a permis le développement de toutes les constructions scientifiques et philosophiques caractérisant ces animaux particuliers que sont les humains.

L'effet activateur de la croyance au Je

Pourquoi cela? La raison en est simple. Si les individus, bien qu’étant principalement les agents inconscients de macroprocessus les dépassant, s’imaginent être des Je rationnels capables de comportements émergents eux-mêmes réputés rationnels (Bruce Hood en donne une liste : prévision à long terme, inhibition des pensées ou actions inopérantes, évaluation des résultats, planification des actions futures, mutualisation des connaissances), il en résultera bien quelque chose qui les distinguera de ceux n’ayant pas acquis de telles croyances, s’imaginant par exemple être des instruments passifs dans la main d’une puissance surnaturelle dont ils accompliront sans réfléchir les prétendues volontés.

Ainsi Bruce Hood assimile les comportements rationnels, ceux dont nous venons de donner une liste, à des sous-produits d’une croyance irrationnelle en l’existence d’un Je doté de libre-arbitre. Nous aurions aimé le voir développer un peu cette vision, car elle est très importante. Elle tend à situer les comportements dits rationnels au sommet de la pyramide des comportements irrationnels, dont ils ne seraient qu’une forme collective « bénéfique », apparue au sein de sociétés ayant développé les interactions entre contenus cognitifs.

Autrement dit, si l’on admettait comme Bruce Hood que le sens du surnaturel est universel et a, finalement, permis aux humains de se dégager de l’animalité, il faudrait dire plus clairement que la croyance en la rationalité, en la possibilité par exemple de créer un monde nouveau gérés par la raison (un monde par exemple où les écosystèmes cesseraient d’être massacrés par l’exploitation sans contrôle des ressources naturelles) relève elle aussi de l’irrationnel, ou plutôt d’une forme d’irrationnel ayant émergé du développement des sociétés techno-scientifiques, que nous appelons nous-mêmes par ailleurs des sociétés anthropotechniques.

Mais il faudrait revoir à la lumière de cette croyance intuitive l’image que se font les neurosciences du fonctionnement du cerveau humain. Celui-ci, qui est profondément conditionné par sa symbiose avec les outils, pourrait alors être perçu comme une machine à générer des hallucinations. Ce seraient ces hallucinations (dont celle relatives à l’existence du Je, de la raison, du progrès) qui pousseraient les systèmes anthropotechniques à se dépasser en permanence, modifiant l’évolution des écosystèmes terrestres d’une façon sans doute importantes, mais imprévisible et par conséquent incontrôlable. Autrement dit, pour compléter le propos de l’auteur « Why we believe in the unbelievable », nous pourrions ajouter que c’est parce que nous fonctionnons ainsi et ne pourrions pas fonctionner autrement. Les multiples modules du cerveau travailleraient en permanence à la limite du déséquilibre entra hallucinations et informations concrètes perçues par les sens. Si le cerveau n’avait que ces dernières pour alimenter son activité, et que des raisonnements rationnels susceptibles de les relier entre elles, il se rapprocherait vite d’un état végétatif.

Repost 0
24 août 2009 1 24 /08 /août /2009 10:57
The Human Connectome Project et la Connectomique
par Jean-Paul Baquiast 24/08/2009

On reproche souvent aux technologies de l’imagerie cérébrale fonctionnelle de donner du cerveau humain et de ses activités cognitives des vues trop réductrices. Les observations étaient en effet jusqu’à présent focalisées sur de très petites aires cérébrales. Il était inévitable que les neuroscientifiques les interprétassent au moins partiellement en fonction des idées préconçues qu’ils pouvaient avoir relativement au fonctionnement du cerveau.

Des vues plus globales des aires responsables des états mentaux préconscients seraient cependant désormais disponibles. C’est ce qu’annoncent des scientifiques de la Rutgers University à Newmark et de l’université de Calofornie à Los Angeles dans un numéro à paraître (oct. 2009) de la revue Psychological Science,. On sait qu’il est admis qu’avant leur perception par le niveau conscient (awareness), les informations définissant un état mental donné sont traitées par le cerveau « inconscient ».

Des chercheurs des laboratoires précités, Stephen José Hanson, Russell A. Poldrack et Yaroslav Halchenko, pensent pouvoir prédire avec une précision raisonnable, en utilisant la Résonnance magnétique nucléaire (fMRI), les états mentaux d’une personne, avant même qu’ils ne s’expriment au niveau conscient. Pour cela, ils ont cherché à se donner un aperçu général de l’activité du cerveau, en élargissant la cartographie des observations. Pour eux, l’idée reçue selon laquelle des fonctions mentales spécifiques relèvent d’aires strictement localisées est inexacte.

Il serait selon eux réducteur de penser que des fonctions spécialisées, telles que l’apprentissage, la mémoire, la peur et l’amour, relèvent de bases neurales qui leurs seraient spécifiquement dédiées. Le cerveau est plus complexe qu’il n’apparaît dans ce modèle simple. En analysant son activité globale, ils montrent que plusieurs de ces fonctions font appel à des réseaux particuliers de neurones s’étendant à travers tout le cerveau. Ces réseaux différent les uns des autres selon les fonctions. Ainsi, globalement, à ce niveau, le cerveau ne doit pas être considéré comme statique. Il est capable de moduler les connections correspondantes en fonction des tâches entreprises.

De ce fait, en imageant par fMRI les patterns de connections neuronales qui s’établissent en permanence, il serait possible de prédire avec une bonne précision l’activité mentale particulière à laquelle se livre la personne observée. On pourrait donc dresser un catalogue intéressant un grand nombre de fonctions mentales en les caractérisant par les patterns spécifiques de réseaux neuronaux qui s’établissent à l’occasion de leur exécution par le cerveau. Ceci pourrait être un premier pas dans la voie de la caractérisation de fonctions mentales supérieures, telles que le raisonnement abstrait ou le mensonge. On pourrait aussi détecter les dysfonctionnements subtils se produisant à ce niveau et susceptibles de générer l’autisme ou la schizophrénie.

La réalisation du catalogue des patterns correspondant aux grandes fonctions mentales est déjà engagée. Il s’agit du Projet Connectome. Il vise à terme la réalisation d’une carte complète des connexions neuronales du système nerveux central. Cette carte permettra d’envisager les multiples connections correspondant à une fonction mentale simple, au lieu de se focaliser sur quelques millimètres carré de tissu cortical.

Une première étude a reposé sur la participation de 130 sujets, chacun d’eux chargés de tâches plus ou moins complexes, tout en étant observés par RMI. Pour ce faire, les chercheurs ont observé la somme considérable d’un demi-million de points à la surface du cerveau. Ils ne savaient pas à quelle activité se livraient les témoins. Ils ont pu cependant identifier avec une précision de 80% huit de ces tâches en s’appuyant sur le catalogue des patterns correspondant à des tâches précédemment référencées à partir d’observations précédentes. De plus, dans d’autres expériences, ils ont pu identifier les objets que des sujets pouvaient observer avant que ces derniers ne prennent conscience de le faire. Ceci a confirmé l’hypothèse depuis longtemps admise selon laquelle l’afférence dans l’espace de travail conscient se produit avec retard au regard des traitements primaires réalisés dans les zones sensorielles et motrices.


Le programme de recherche des National Institutes of Health américains, Blueprint for Neuroscience Research, s’insérant dans la National Neurotechnology Initiative, a lancé un projet de $30 millions destiné à cartographier les circuits neuronaux d’un adulte en bonne santé. On utilisera pour cela les techniques d’imageries cérébrales les plus modernes. Les images seront collectées à partir de centaines de sujets volontaires. Le projet vise à accélérer la « Neuro-révolution » que décrit l’ouvrage récent de Zack Lynch The Neuro Revolution: How Brain Science Is Changing Our World (St. Martin's Press, July 2009).

L’objetif est de faire apparaître les principales connections qui permettent au cerveau d’accomplir les fonctions mentales les plus importantes. Trois techniques d’imagerie seront utilisées : 1. HARDI pour High angular resolution diffusion imaging with magnetic resonance qui détecte la diffusion des molécules d’eau dans les tissus fibreux et peut ainsi visualiser les faisceaux d’axones, 2. R-fMRI pour Resting state fMRI, qui détecte les fluctuations dans l’activité du cerveau chez une personne au repos et peut faire apparaître des réseaux s’activant de façon coordonnée et 3. E/M fMRI pour Electrophysiology and magnetoencephalography (MEG) combined with fMRI. Cette dernière procédure complète l’information relative à l’activité cérébrale parallèlement aux signaux obtenus par la fMRI. Dans ce cas, la personne accomplit une tâche telle que plusieurs régions cérébrales supposées associées à cette tâche soient activées.

Comme ce sera la première fois que ces trois techniques seront utilisées simultanément, le projet devra développer de nouveaux outils informatiques et mathématiques pour analyser les données recueillies.

* NIH Blueprint for neuroscience research
http://neuroscienceblueprint.nih.gov/

Un tel programme, comme on pouvait le supposer, suscite beaucoup de scepticisme. L’objectif consistant à identifier en 5 ans des milliers sinon plus de faisceaux neuronaux actifs, voire dans certains cas de neurones individuels, parait irréaliste. On rappelle que le cerveau comprend des centaines de milliards de cellules et un nombre astronomiquement plus grand de synapses. De plus, certaines des techniques envisagées, qui ont été développées en expérimentant chez l’animal, paraissent encore inapplicables à l’homme.

Plus généralement, établir une carte à grande échelle des connections entre régions cérébrales soulève de nombreux problèmes. D’une part, aucun cerveau n’est comparable à un autre. Mais d’autre part, même en acceptant des approches statistiques, il n’existe pas d’accord sur la délimitation fonctionnelle des aires cérébrales du cortex humain. Il n’est pas certain par exemple que les données dite de tractographie obtenues par certaines techniques, telles que les tenseurs de diffusion observés, puissent être corrélées avec les réalités anatomiques. Autrement dit, comme l'aurait rappelé Borgès, la carte n'est pas le territoire 1).

Les sceptiques continueront donc à se méfier de l’interprétation des observations obtenues par ces nouvelles approches globales. Elles risquent de transporter à un niveau supérieur la subjectivité qui était reprochée aux interprétations des images obtenues avec des techniques moins globales.

Nous dirons pour notre part que, comme toujours en science, notamment lorsque les observations instrumentales recoupent des observations relevant de l’analyse psychologique, la prudence devra continuer à s’imposer. Indéniablement cependant, la voie ouverte par un projet tel que le Connectome aura des suites, notamment pour les informaticiens qui s’efforceront par ailleurs de simuler sur ordinateurs des éléments plus ou moins importants du tissu cérébral (le Blue Gene Project d’IBM, par exemple, dont on vient d’annoncer de nouveaux développements).


1) Plus précisément, comme nous l'indique Luc Charcellay que nous remercions::
""En cet empire, l'Art de la Cartographie fut poussé à une telle Perfection que la Carte d'une seule Province occupait toute une Ville et la Carte de l'Empire toute une Province. Avec le temps, ces Cartes Démesurées cessèrent de donner satisfaction et les Collèges de Cartographes levèrent une Carte de l'Empire, qui avait le Format de l'Empire et qui coïncidait avec lui, point par point."
Suarez Miranda, Viajes de Varones Prudentes
Histoire universelle de l'infamie JLB



Pour en savoir plus

* Le Connectome Project http://iic.harvard.edu/research/connectome
* Article de Physorg.com Researchers develop 'brain-reading' methods
http://www.physorg.com/news167921900.html

Repost 0
24 juillet 2009 5 24 /07 /juillet /2009 22:48
Par Jean Paul Baquiast

La question est abominable. Posons là cependant.
Dans le courrier des lecteurs de notre magazine scientifique favori, un intervenant pose la sempiternelle question ; «  Sachant que le dernier rapport annuel du Stockholm International Peace Reserach Institute évalue à quelques $1.464 milliards les dépenses militaires mondiales, les gouvernements du monde ne pourraient-ils pas s'accorder pour qu'au moins une petite partie de cette somme soit dépensée en faveur des besoins de survie du tiers-monde?»

Un autre lecteur lui répond immédiatement que ce sont les divers lobbies politico-militaro-industriels (MICC, ou military-industrial-congressional complex, en anglais) qui comme ils l'ont toujours fait, continuent aujourd'hui à gouverner le monde. Il en résulte selonce lecteur  qu'aucune force politique ne pourrait leur imposer de renoncer aux profits considérables découlant des contrats militaires.   

Ce court petit débat suggère plusieurs questions  qui mériteraient d'être approfondies. Bornons nous à les esquisser :

1.    Existe-t-il un « ordre du monde » qui se manifesterait d'abord dans le domaine économique et qui différencierait ceux qui produisent les ressources  de ceux qui se les approprient et qui les consomment ? Cet ordre du monde se manifesterait corrélativement dans le domaine social, différenciant ceux qui obéissent et ceux qui commandent. Il faudrait être bien naïf pour nier qu'un tel ordre existât et qu'en tant que tel il s'impose à tous. Nous utiliserons ici le terme d'ordre sans le charger de sens moral. Bornons nous à constater qu'il traduit un état actuel dans les rapports de force, état d'ailleurs susceptible de changer au cours de l'évolution. On pourra dire de même qu'il existe un ordre géologique selon lequel les roches sédimentaires récentes se trouvent généralement situées, sauf évolutions dues à la dérive continentale, au dessus des roches cristallines d'origine magmatique.

2.    Quelle force pourrait obliger ceux qui (en l'espèce les divers MICC) consomment les richesses produites par les autres (les travailleurs de la base) à ne plus consommer et à distribuer ce qu'ils consomment ? Notre second lecteur répond très simplement : PERSONNE. Nous sommes volontiers de son avis. Ce ne seront pas les institutions politiques ni les ONG ni les travailleurs de la base ni les citoyens aux grandes âmes qui pourraient le faire. Il faudrait que survienne un véritable bouleversement de l'ordre économique et social actuel, autrement dit, une révolution, analogue à une rupture dans la tension entre plaques tectoniques, pour que l'ordre soit modifié. Mais on peut craindre que, pour rester dans notre comparaison avec la géologie (elle vaut ce qu'elle vaut), de nouvelles strates se substituent à celles qui dominaient jusqu'alors les couches  géologiques, mais que finalement, on retrouve après le séisme, comme avant, des roches situées au dessus et des roches  situées au dessous, les premières écrasant les secondes de leur poids..

-    C'est d'ailleurs bien cette conviction qui rend beaucoup de gens sceptiques face aux perspectives de révolutions économiques et sociales. La révolution passée, et les morts enterrés, on retrouverait des dominants et des dominés. Autrement dit, le réformisme prôné par certains mouvements politiques modérés n'aboutirait à rien qu'à des changements superficiels (c'est ce qu'est en train de démontrer Barack Obama et ceux qui le soutiennent). Mais la révolution violente serait encore pire. C'est ce qu'ont amplement démontré les révolutions survenues, après l'URSS et la Chine de Mao, dans les diverses démocraties populaires.   

3.   Si l'on constate que les volontés, individuelles ou collectives, ne peuvent pratiquement rien faire pour faire évoluer l'ordre du monde dans un sens différent de celui qu'il adopte spontanément, n'est-on pas fondé à ce demander si cet ordre, dont nous déplorons les effets désastreux, en termes écologiques, économiques, sociaux  et finalement peut-être en termes de survie à long terme, n'aurait pas des fondements  biologiques remontant aux origines mêmes de la vie sur Terre et aux conditions du  développement de celle-ci ? Poser cette question fait dire aux gros malins, ceux à qui on ne la fait pas, que sous couvert de science, celui qui s'interroge ainsi se met au service des dominants pour bénéficier de leur protection. Prenons en cependant le risque.  

Un ordre stable


Vu sous l'angle, si l'on peut dire, de la thermodynamique des systèmes ouverts, la vie biologique terrestre repose sur l'activité de « travailleurs » qui utilisent leur force de travail pour transformer des éléments chimiques inassimilables directement en éléments organiques dont ils se nourrissent. Depuis l'apparition de la fonction chlorophyllienne chez les premières algues vertes, ces travailleurs  sont les végétaux, qui utilisent l'énergie solaire pour transformer  le gaz carbonique, disponible en grande quantité mais non directement utilisable, en composés carbonés et en oxygène. Sans les végétaux, que nous pourrions qualifier de travailleurs de la base, pour reprendre la terminologie proposée plus haut, la vie disparaîtrait. Il s'est trouvé cependant, du fait des hasards de l'évolution, que sur cette couche de végétaux se sont installées deux autres couches profitant du travail des premiers. Il s'agit des organismes herbivores, qui se nourrissent de végétaux, et des organismes carnivores ou omnivores, qui se nourrissent des deux autres catégories.

Un ordre stable, de type thermodynamique, s'est alors installé, associant les végétaux qui produisent les richesses et les animaux, herbivores et carnivores, qui les consomment. Dans le cadre de cet ordre, qui n'évolue que lentement, chaque catégorie ne survit que parce que son activité profite à celle des autres. Les herbivores consomment les végétaux en excès, et les carnivores les herbivores en excès, ce qui permet au stock de végétaux de se reconstituer. On peut aussi présenter cet ordre thermodynamique ou si l'on préfère, cet ordre économique, comme un ordre social.  Bien que dépendant des végétaux, les animaux, plus mobiles et dotés d'une plus grande quantité de matière grise, apparaissent comme ceux qui commandent, les végétaux apparaissant comme ceux qui obéissent. Mais il ne s'agit que d'une interprétation d'ordre anthropomorphique, puisque les deux catégories sont interdépendantes.

Supposons qu'au sein de cet ordre économique et social du monde, ordre vieux d'au moins 650 millions d'années, quelques bons esprits apparaissent,  expliquant par exemple que les carnivores devraient consommer moins et distribuer aux travailleurs de la base, en l'espèce les végétaux, une part plus grande des ressources globalement produites. Ainsi des végétaux survivant à grand peine dans des zones désertiques pourraient-ils s'engraisser et mieux lutter contre l'aridité. Il s'agirait d'une recommandation de bon sens. Outre que son aspect moral serait indiscutable (aider les végétaux à ne pas disparaître), elle ferait appel à l'instinct de conservation de tous, puisque sans végétaux il n'y aurait plus d'animaux. Malheureusement, cette recommandation de bon sens, à supposer que quelqu'un existât pour la formuler, n'aurait pas de chance d'être entendue. Aucune force au monde  ne pourrait forcer les herbivores à changer leur nature en diminuant leur consommation de végétaux ni les carnivores à diminuer leur consommation d'herbivores. L'ordre économique et social du monde se poursuivra donc  cahin-caha comme il est actuellement, le cas échéant jusqu'à disparition des formes supérieures de vie si les ressources globalement disponibles s'éteignaient  par excès de la consommation sur la production.

Si nous considérons les sociétés humaines et leurs relations avec leur environnement naturel comme des formes de vie non radicalement  différentes de celles dont nous venons de donner une description sommaire, on en conclura que les fondements biologiques ayant permis le développement des premières formes de vie se retrouvent à la base du développement des formes de vie plus complexes dont nous sommes des représentants. Autrement dit, l'ordre économique et social se caractérisant par l'existence de travailleurs de la base (pour reprendre notre terminologie) se dédiant à la production des ressources et de couches dirigeantes qui consomment ses ressources, en dehors de la part minima affectée à la reproduction de la force de travail, n'a aucune chance d'être modifié. Des révolutions locales pourront remplacer les premiers par les seconds et réciproquement, mais l'ordre social, grâce auquel se distinguent ceux qui produisent et ceux qui consomment, ceux qui commandent et ceux qui obéissent, ne changera pas.

Une touffe d'herbe accrochée à la falaise

On nous objectera que ce raisonnement ne tient pas, car nous assimilons les humains à des végétaux et, au mieux, à des animaux. Que fait-on de la puissance de leur « raison », soutenue par la grandeur de leur « sens moral » ? Nous répondrons que pour l'heure, l'observation des forces qui se déchirent pour assurer leur domination économique et politique sur le monde, tout en sachant très bien qu'elles conduisent ce même monde à la catastrophe, ne nous permet pas de parler de raison et de sens moral. Nous sommes en présence de déterminismes complexes, ne différant pas beaucoup de ceux ayant accompagné la naissance et le développement de la vie jusqu'à ce jour. Sur le long terme, la vie fut-elle celle représentée par nos sociétés dites développées, est aussi fragile que l'est une touffe d'herbe s'étant installée l'espace d'une saison sur le flanc aride d'une falaise. La prochaine pluie ou la prochaine sécheresse la fera disparaître sans recours.

Les choses pourraient changer si, au hasard de l'évolution stochastique de leurs gènes, quelques organismes, simples ou complexes, découvraient une fonction capable de fournir des ressources nouvelles en aussi grande quantité que celles procurées par la toute nouvelle fonction chlorophyllienne aux premières bactéries aérobies. Mais des mutations de l'ampleur de celles ayant fait apparaître la fonction chlorophyllienne, dont toute notre science d'ailleurs ne nous a pas encore permis de comprendre le mécanisme, ne se commandent pas. Elles surviennent...on non.  
Repost 0
19 juillet 2009 7 19 /07 /juillet /2009 15:34
L’expression des systèmes anthropotechnique dans les cerveaux et les génomes individuels
par Jean-Paul Baquiast 19/07/2009


Nous avons fait l’hypothèse, dans divers articles publiés sur ce site et dans un essai à paraître prochainement 1) qu’il existait une intrication profonde mais encore mal étudiée entre les objets matériels et ceux qui les utilisent. Ceci qu’il s’agisse d’animaux faisant occasionnellement ou durablement appel à des outils ou qu’il s’agisse d’humains. Pour désigner cette intrication, notamment lorsqu’elle se manifeste chez l’homme, nous avons proposé le concept de système anthropotechnique.
 

Cette terminologie n’est pas gratuite. Elle vise à dépasser la constatation devenue banale que les outils déterminent en grande partie les comportements des individus. Nul ne discute le fait que, si j’emploie un marteau pour planter un clou, mes gestes moteurs s’adapteront pendant quelques minutes, aussi exactement que possible, à l’outil et à la tâche entreprise. Il s’agira de pratiques largement automatiques acquises par l’usage. Mais nul n’ira prétendre que je sois moi-même devenu, au moins pendant ce temps, une sorte d’hybride biotechnique au sein duquel mon corps et le marteau se retrouveraient unis d’une façon quasiment indiscernable. Même lorsque les individus paraissent se laisser dominer par leurs machines, automobiles, récepteurs de télévision, téléphones portables, le sens commun postule qu’ils conservent suffisamment d’indépendance pour reprendre leur liberté si les circonstances l’exigeaient.
 

L’hypothèse du système anthropotechnique affirme exactement le contraire. Selon cette hypothèse, nous nous unissons à nos outils dans des entités d’un nouveau genre, durables sinon permanentes, qu’il convient désormais d’étudier en tant que telles. Certes, les outils et les technologies avec lesquels interagissent les individus sont multiples. Il en est de même des systèmes anthropotechniques en résultant. Il est possible cependant d’en proposer des modèles généraux. Deux approches s’imposent à cet égard. La première, sociétale, relève des sciences humaines et sociales qui explorent le concept très général mais très pertinent de superorganisme. On étudiera ainsi la nature et le comportement d’un système anthropotechnique collectif tel que le Pentagone, produit de l’interaction des technologies militaires avec un nombre considérable et très divers d’humains et d’intérêts. Nous n’aborderons pas cette approche dans cet article.

Une approche plus technique, que nous proposons ici, s’appuie sur deux voies récemment ouvertes, l’une par les neurosciences et l’autre par la biologie. Concernant la première, nous rappellerons que l’imagerie cérébrale fonctionnelle a récemment mis en évidence l’existence au sein des cortex sensoriels et moteurs de zones et fibres nerveuses dédiées à l’imitation et fonctionnant en miroir, d’où le nom général de neurones miroirs. Ces observations permettent de comprendre comment, au sein des systèmes anthropotechniques, les individus partagent étroitement avec leurs outils les ressources de leurs aires sensori-motrices et de leurs facultés cognitives 2).


La seconde voie permet selon nous d’expliquer pourquoi des individus plus ou moins différents peuvent adopter des comportements et souvent des morphologies semblables, en conséquence de l’utilisation de tels ou tels outils, aujourd’hui de telles ou telles technologies, si bien qu’ils finissent par co-évoluer avec ces dernières. Pour ce faire nous nous appuierons sur la toute nouvelle théorie de l’ontophylogenèse, due au biologiste Jean-Jacques Kupiec, selon laquelle les « environnements », quels qu’ils soient, constituent des milieux sélectifs orientant à long terme l’expression « stochastique » (aléatoire) des gènes pilotant l’évolution des phénotypes, c’est-à-dire des individus et de leurs modalités de reproduction 3). Nous faisons l’hypothèse que les systèmes anthropotechniques constituent de tels environnements sélectifs, capables d’influencer non seulement les propriétés physiques et mentales (phénotypiques) des individus mais sans doute aussi l’expression de leurs génomes voire à plus long terme la composition ou l’architecture de ceux-ci.


1. Systèmes anthropotechniques et neurones miroirs


Le développement des techniques d’exploration du cerveau par l’imagerie fonctionnelle a fourni les données expérimentales les meilleures pour tester l’hypothèse selon laquelle, au niveau des individus et non plus seulement des groupes, la façon dont les objets du monde extérieur avec lesquels nous interagissons imposent leurs marques dans le fonctionnement des aires cérébrales commandant nos comportements. On peut montrer que ces objets nous obligent à agir en fonction de leurs logiques propres ou, plus exactement, en fonction de celles du couple hybride que chaque objet forme avec l’animal ou l’humain qui, passagèrement ou durablement, en fait usage 4).


L’ouvrage précité du neurologue Giacomo Rizzolati et du philosophe des sciences Corrado Sinaglia, consacré aux neurones miroirs, apporte à cette réflexion des éclairages extrêmement importants. L’étude de ce qui a été nommé d’une façon un peu simplificatrice les neurones miroirs a commencé depuis une trentaine d’années. Depuis, des centaines d’observations et de publications ont été réalisées, faisant du sujet un thème incontournable de l’étude du cerveau et de son évolution épigénétique au sein des espèces supérieures. Ainsi fut notamment mise en évidence la coopération entre les aires du cortex moteur et les aires des cortex sensoriels dans la commande des gestes découlant de l’interaction avec les objets et les êtres du monde extérieur. Nous ne pouvions pas manquer pour notre part de remarquer les arguments que ces travaux, dont ce n’était évidemment pas l’objet, apportent à notre réflexion sur les systèmes anthropotechniques. Résumons ci-dessous ce qu’à notre sens il est possible d’en retenir.


1.1. Les fonctions « cognitives » des cortex moteurs et sensoriels


Un humain utilisant un objet technique tel qu’une automobile est généralement présenté comme libre de l’usage qu’il en fait. L’expérience quotidienne montre au contraire qu’il lui est plus ou moins durablement asservi. Il s’agit d’un asservissement complexe, prenant de multiples formes. L’automobile ne transforme pas systématiquement l’automobiliste en une brute destructrice ou en un paon vaniteux. Cependant elle interagit, non seulement avec un grand nombre de ses circuits sensoriels et moteurs, mais avec ce que l’on nomme généralement son cerveau cognitif, celui qui construit des représentations, des intentions et des affects, qu’elles soient inconscientes ou conscientes.. Or l’opinion commune a le plus grand mal à s’en convaincre. La croyance en l’indépendance du cerveau cognitif par rapport aux gestes moteurs liés à l’usage de tel ou tel outil reste bien implantée. Pour elle, un homme, sauf cas pathologiques d’addiction, ne « naît » pas automobiliste. Il ne le « devient » pas non plus, sauf de façon imagée. Il reste l’homme qu’il était avant d’acquérir une voiture ou de s’en servir.


Il s’agit pourtant en grande partie d’une illusion. L’ouvrage de Giacomo Rizzolati montre comment les zones motrices du cortex cérébral, celles, pour conserver notre exemple, où s’exécutent les tâches manuelles de la conduite automobile, ne se distinguent pas fonctionnellement des aires réputées plus « nobles » du cortex dit associatif, seules capables d’élaborer les ordres nécessaires à l’exécution de stratégies intentionnelles à long terme. Les neurosciences traditionnelles, ceci jusque aux années 1980, avaient en effet totalement sous-estimé le rôle du cortex moteur dans le traitement des perceptions et dans la définition d’actions orientées, non seulement par ces perceptions ou par les intentions du sujet à leur propos, mais par les caractéristiques spécifiques des outils et techniques utilisées pour mener ces actions.


Pour comprendre comment le sujet s’engageait dans des activités corporelles souvent complexes, il avait fallu supposer qu’entre les aires sensorielles travaillant sur un mode récepteur passif (aires visuelles, auditives et somatosensorielles) d’une part et les aires motrices du cortex frontal commandant passivement les comportements moteurs, intervenaient de vastes aires dites associatives situées entre les aires sensorielles et motrices. On faisait l’hypothèse que les informations provenant des diverses aires sensorielles étaient assemblées dans ces aires associatives et qu’à partir d’elles étaient élaborés des percepts visuels portant aussi bien sur les objets que sur l’espace. Ces percepts étaient ensuite envoyés dans les aires motrices où ils commandaient des mouvements adéquats. Le système moteur ne jouait ainsi, dans ce modèle, qu’un rôle périphérique, principalement d’exécution. Mais ce qui se passait exactement dans les aires associatives supposées restait inconnu.


Par ailleurs, on ne se posait pas la question de la façon dont les objets et outils du monde extérieur étaient perçus par les sujets, en fonction de leurs caractères propres et surtout en fonction de la façon dont ils pouvaient, grâce à certains de ces caractères particulièrement attractifs, générer des besoins et des intentions chez les sujets. En conséquence, on ne cherchait pas à savoir quel type de réponse motrice à long terme suscitait la perception de tel objet, en fonction de ces mêmes caractères. Plus exactement, on pensait que toutes les opérations complexes liées à l’utilisation des objets était décidées au niveau d’un cortex associatif prétendu supérieur, celui responsable des conduites dites rationnelles, et non au sein du cortex moteur. On les associait généralement à la conscience, c’est-à-dire à la façon dont les perceptions sont représentées (rapportées) dans les aires et réseaux associatifs constituant l’espace de travail conscient.


Cette façon ancienne de se représenter le fonctionnement cérébral face aux objets et outils persiste dans l’opinion courante. Même lorsque nous sommes informés du rôle du cerveau dans la construction des représentations à partir des donnés de type électromagnétique perçues par les capteurs sensoriels, nous ne nous interrogeons pas véritablement sur la façon dont notre cerveau charge ces données primaires de significations et les transforme en commandes d’actions intentionnelles, inconscientes ou conscientes. Si mes sens perçoivent les émissions lumineuses ou olfactives émanant d’une tasse de café chaud (la tasse de café joue un grand rôle dans les démonstrations proposées par Giacomo Rizzolati), la construction de l’image de cette tasse et l’élaboration des ordres moteurs qui permettront de la prendre en mains et la porter aux lèvres se font, selon cette façon ancienne de voir les choses, dans le cortex associatif, que ce soit au plan inconscient ou au plan conscient. Les aires motrices n’interviennent pas. Elles se bornent à transmettre les ordres permettant aux muscles de la main et des bras de faire les gestes nécessaires.


Aujourd’hui cependant les neuroscientifiques s’étant intéressés aux neurones miroirs ont admis que les choses ne se passaient pas de cette façon. On savait depuis longtemps que chaque individu, animal ou humain, devient vite capable, sous la pression de la nécessité, d’identifier dans son environnement des objets vivants ou inertes imposant des conduites bien déterminées, sélectionnées lors des expériences passées, celle de la lignée comme celle de l’individu. Mais point n’est besoin de faire appel à un cerveau supérieur hypothétique qui se chargerait de ces tâches vitales. Pour ce faire, toutes les aires sensorielles et motrices coopèrent, que ce soit pour se défendre contre l’attaque d’un lion ou pour saisir une tasse de café pleine. Si mon cortex visuel identifie une tasse emplie de liquide, tasse reconnaissable à ses formes géométriques définissant une façon bien particulière de s’en saisir, mon cortex moteur prépare sans attendre la suite de gestes complexes permettant de la prendre et la porter à la bouche. Ces gestes sont prêts avant même que j’ai physiquement touché la tasse, et même avant que j’ai pris conscience de la présence de la tasse. Il en est de même si je dois m’emparer d’une lance pour repousser un lion.


Ceci veut dire que derrière le simple geste consistant à saisir une tasse de café (oublions le lion...), des répertoires extrêmement riches de sensations (visuelles, tactiles, olfactives, proprioceptives), d’associations avec des besoins organiques profonds (tels que boire ou se nourrir), de postures corporelles préparatoires et finalement d’actions motrices très variées (saisir la tasse par l’anse ou par le corps) avaient été mémorisées par mon système moteur et n’attendaient qu’une occasion pour se manifester, celle de la rencontre de mon envie de café avec une tasse de ce produit.


L’ouvrage de Giacomo Rizzolati montre que le système moteur est composé d’une véritable mosaïque de régions fortement interconnectées bien qu’anatomiquement et fonctionnellement distinctes. Elles forment des circuits travaillant en parallèle et intégrant les informations sensorielles et les informations motrices correspondant aux effecteurs corporels. Il comporte aussi des circuits responsables de l’élaboration des intentions, de la planification à long terme et du choix du moment où entreprendre une action. Le système moteur enfin est en étroite relation avec les aires du cortex pariétal postérieur qualifiées traditionnellement d’associatives, lesquelles comportent des propriétés motrices.


Le système moteur n’est donc pas le simple exécutant d’ordres venus d’ailleurs. Il est non seulement en charge des comportements de tous les jours mais de l’amorce de processus considérés comme d’un ordre supérieur, généralement attribués à la cognition : perception et reconnaissance des actions conduites par les autres, imitations, communication posturale et vocal. Ces découvertes très importantes ont entraîné une véritable rupture épistémologique. Mais en quoi intéressent-elles notre réflexion sur les systèmes anthropotechniques ? C’est parce qu’elles permettent d’assurer un lien direct entre les objets et outils de notre environnement et la façon dont se construisent les comportements individuels et sociaux les plus élaborés.


1.2. Le lien entre les objets et les comportements


Pour comprendre ce lien, il est utile de faire appel à la notion d’affordance, sur laquelle la première partie de l’ouvrage de Giacomo Rizzolati met l’accent. Comme nous n’interagissons pas qu’avec des tasses de café, mais avec des milliers d’outils et de machines, ces différents objets génèrent au niveau du cerveau de ceux qui les utilisent de multiples répertoires sensori-moteurs et cognitifs qui s’activent spécifiquement à l’occasion de chaque interaction. Ce sont les caractères physiques spécifiques de ces outils et machines qui sont responsables de ces activations. Ils le font en compétition darwinienne, les caractères auxquels le sujet est le plus sensible l’emportant sur les autres. Le concept anglais d’affordance proposé par James Gibson en 1979 5)regroupe l’ensemble des spécificités physiques ou symboliques propres à des objets déterminés qui induisent telles ou telles réactions chez ceux qui les utilisent ou plus simplement qui les aperçoivent. Il est également possible de parler d’affordance pour désigner les traits par lesquels un animal ou un humain est identifié par un autre humain dans le cadre d’une interaction spécifique avec lui.


L’affordance est donc la capacité d’un objet à suggérer sa propre utilisation, notamment sous forme d’outil. Le mot est utilisé dans différent champs, notamment la psychologie cognitive, la psychologie de la perception, le design, l'interaction homme-machine et l'intelligence artificielle (Wikipedia). Ce n’est ni l’objet seul qui suggérerait sa propre utilisation, ni son utilisateur qui redécouvrirait à chaque fois les conditions de son emploi. Les relations entre l’objet et l’utilisateur, ayant abouti à une adaptation réciproque, résultent d’une longue expérience de cohabitation et de co-évolution. Certaines de ces relations remontent aux racines mêmes de la civilisation et sont donc mémorisées dans l’organisation héréditaire des aires cérébrales concernées (cf. ci-dessous, 2.) Je sais (sans doute héréditairement) que pour satisfaire ma soif, à moins de clapper l’eau comme un animal, je dois porter celle-ci à ma bouche avec un objet creux. Mais j’ai appris expérimentalement, cette fois-ci à titre personnel, que pour éviter de me brûler, j’ai intérêt à saisir une tasse de café chaud par l’anse et non par le corps. Il en est de même pour l’ensemble des répertoires de sensations, postures et gestes auxquels nous faisions allusion.


Ce n’est pas la vue seule de l’objet qui déclenche tout le répertoire d’actions permettant au cortex moteur de l’utiliser. Il faut que cette vue s’insère dans un processus chargé de significations individuelles ou sociales correspondant à des besoins corporels ou affectifs puissants. Une tasse de café ne mobilisera mon système sensori-moteur que si j’ai un tant soit peu soif ou que si je veux me joindre à l’acte social consistant à prendre un café avec des collègues. Sinon, quand bien même mon cortex visuel aurait enregistré la présence de la tasse pleine de café, mon cortex moteur restera indifférent au message reçu. C’est ce qui se passe lorsque j’observe sans y prêter véritablement attention la présence de tasses de café sur un comptoir de bar, destinés à d’autres consommateurs que moi. Autrement dit, l’affordance ne se manifestera, pour un objet donné, que si le sujet est déjà, du fait d’expériences antérieures, sensibilisé à la possibilité de l’utiliser, notamment en tant qu’outil, pour répondre à des besoins corporels ou affectifs bien identifiés.


Que se passera-t-il chez un sujet naïf, autrement dit un sujet n’ayant pas encore personnellement expérimenté l’intérêt d’utiliser tel objet pour répondre à des désirs ou besoins qu’il ressent, sans savoir encore que cet objet, devenu outil, pourrait l’aider à les satisfaire. C’est alors qu’intervient l’imitation. Un enfant ou un primitif ignorant qu’une tasse peut servir à boire regardera quelqu’un plus expérimenté que lui consommer un liquide avec une tasse. Rapidement, il sera conduit à faire de même. Mais comment trouvera-t-il sans trop de difficultés le répertoire de sensations et de gestes complexes qu’exige le simple fait de porter une tasse à ses lèvres. Un robot classique, peu adaptatif, n’en serait pas capable. Il faudrait le programmer en détail. C’est le mécanisme dit des neurones miroirs qui aidera notre sujet inexpérimenté.


1.3. Les neurones miroirs


Nul n’ignore désormais ce dont il s’agit, grâce à l’écho justifié reçu par les travaux ayant mis en évidence, sous ce terme, une fonction cérébrale semble-t-il essentielle, mal identifiée jusqu’à présent. Si je regarde un tiers saisir une tasse de café et la porter à la bouche, l’imagerie cérébrale fonctionnelle montre que les mêmes zones sensori-motrices auxquelles ce tiers fait appel dans ce geste se trouvent mobilisées chez moi à vide, grâce à des circuits neuronaux dits neurones miroirs qui s’activent par une sorte d’empathie ou de résonance. Autrement dit, je ne mobilise pas encore tout le « vocabulaire » ou répertoire des capacités sensorielles et motrices fines permettant de me saisir de la tasse de café, mais dans la mesure au moins où certaines de ses capacités–types se trouvent déjà mémorisées dans mon cerveau et mon corps à la suite d’acquis ancestraux ou d’expériences personnelles, fussent-elles différentes, je me trouve très vite prêt à les mettre en œuvre pour atteindre le but précis que je voudrais accomplir à mon tour : me saisir de la tasse et boire le café qu’elle contient. On considère que si l’évolution a sélectionné de tels circuits neuronaux, ce fut notamment du fait des avantages qu’ils apportaient dans la diffusion des expériences réussies au sein des groupes, pour le plus grand profit des jeunes et des individus « naïfs ». .


Ce furent une fois de plus, comme pour la plupart des découvertes récentes intéressant les neurosciences, les techniques diverses de l’imagerie cérébrale fonctionnelle qui ont montré l’inconsistance du postulat trop simpliste que nous décrivions au début de cet article : considérer que le cortex moteur n’était qu’un simple agent passif d’exécution, les décisions se prenant dans un hypothétique cerveau associatif. Des expériences ont permis d’identifier l’activité corrélée de zones plus ou moins étendues au sein des cortex sensoriels et moteurs, acctivité s'exerçant dans le cadre de processus très semblables les uns aux autres dits en miroir résultant de l’observation d’un geste et de l’accomplissement de ce geste. Elles ont permis de montrer que c’est au niveau de ces zones que se produisent les intégrations de type cognitif permettant l’élaboration de comportements complexes. Ces expériences furent d’abord menées chez des primates, puis rapidement étendues à des adultes consentants en bonne santé, comme à des patients atteints d’accidents cérébraux divers où l’exploration fonctionnelle s’imposait à des fins thérapeutiques.


En se perfectionnant, ces techniques d’imagerie ont mis en évidence l’activité de mini-zones spécifiques, voire de neurones individuels jouant un rôle déterminant dans l’imitation et la compréhension d’autrui, qui furent désignés par le terme de neurones miroirs. Nous avons plusieurs fois évoqué ces travaux sur ce site.


Le grand public, succès oblige, simplifie cependant beaucoup la question des neurones miroirs. On a tendance à la résumer au fait que, comme nous l’avons dit, lorsqu’un sujet, animal ou humain, observe un de ses congénères accomplir une action, des circuits cérébraux identiques à ceux que ce sujet aurait mobilisé pour accomplir cette action s’activent dans son cerveau, en dehors de toute action de sa part. L’observation est exacte et a été vérifiée dans de multiples circonstances. On peut en déduire des hypothèses très fécondes relatives aux causes ayant permis le développement de comportements sociaux complexes, faisant appel non seulement à l’analyse « intelligente » des actes moteurs, mais à leur motivations affectives : empathie, imitation, théorie de l’esprit, etc. A partir de là, il est possible de mieux comprendre le développement des activités collectives dite culturelles favorisant l’apprentissage, l’éducation, le langage, comme aussi les comportements de foules les plus aveugles…


Mais il semble aujourd’hui que les fonctions jusqu’ici attribuées aux neurones miroirs soient en fait beaucoup plus réparties. Elles intéressent l’ensemble des cortex moteur et associatif. En exagérant un peu, on pourrait dire que c’est le cerveau tout entier, voir l’ensemble du corps, que ce soit chez l’animal ou chez l’homme, qui pourrait sous la pression de la nécessité s’engager dans des comportements dont la commande est attribuées aux seuls neurones- miroirs. L'activité de ceux-ci ne serait, si l’on peut dire, que le sommet de l’iceberg.


Quoiqu’il en soit, nous pensons que les travaux publiés sur le thème des neurones miroirs permettent d’éclairer de façon significative la pertinence du concept de système anthropotechnique. Ce serait selon nous grâce aux neurones miroirs que des comportements individuels liés à l’utilisation d’un certain type d’outil se répandent au sein d’un groupe jusqu’à former des systèmes anthropotechniques collectifs. Si je considère par exemple que le superorganisme des usagers de l’automobile impose aux individus qui à titres divers en font partie des comportements génériques bien déterminée, je dois comprendre pourquoi ces individus adoptent chacun pour ce qui les concerne les comportements personnels définissant au plan statistique le profil de l’ « automobiliste ».


Un premier point concerne le concept d’affordance ou capacité d’un outil à suggérer sa propre utilisation. On pourrait penser qu’il s‘agit là d’une image. Ce n’est pas l’outil qui impose son utilisation mais les concepteurs de l’outil. Si l’automobile est dotée d’un volant et d’un accélérateur, on dira que ce sont des ingénieurs qui l’ont voulu ainsi, afin de faciliter son emploi. Mais nous avons montré par ailleurs que dans le développement contemporain quasi exponentiel des outils technologiques, il était tout à fait possible d’envisager que ces outils ou les filières technologiques dans lesquelles ils s’insèrent se développent selon des dynamiques autonomes, même si ce sont des humains qui, en apparence, prennent les décisions de détail. Ces outils se dotent ce faisant de tous les traits pouvant suggérer aux humains de s’en saisir et de les utiliser.


En fait, ce ne sont pas les outils qui prennent seuls de telles décisions. Ce sont les systèmes anthropotechniques au sein desquels ces outils se retrouvent en symbiose avec des humains. Ce faisant cependant les outils modernes acquièrent par sélection darwinienne un indépendance croissante dans leurs capacités à produire sans cesse de nouvelles versions ou processus capables de s’imposer aux mécanismes biologiques et mentaux des humains. On a déjà depuis longtemps constaté que par des « affordances » de plus en plus séduisantes, les objets techniques courants, tels que les automobiles, colonisent véritablement les humains, tant au niveau des individus que des groupes. Mais des technologies encore plus modernes, celles par exemple intéressant l’intelligence artificielle et la robotique autonome, disposent d’aptitudes au développement autonome bien supérieures à celles de l’automobile. Les robots autonomes associés à des humains dans les systèmes anthropotechniques correspondants auront un « pouvoir d’affordance » bien supérieur à celui des tasses à café, et même à celui des automobiles les plus séduisantes.


Il est probable à cet égard que plus la composante technologique des systèmes anthropotechniques sera capable de suggérer des comportements disposant d’un grand potentiel de contagiosité, plus ils seront imités grâce aux neurones miroirs. Les décisions en résultant se produiront initialement dans des aires cérébrales n’appartenant pas nécessairement à ce que l’on nomme l’espace de travail conscient. Mais ensuite elles seront validées et rationalisées au sein de cet espace de travail, c’est-à-dire par ce que l’on nomme la conscience. Ceci se passera à un niveau antérieur à celui-ci.


2. Systèmes anthropotechniques et co-évolution ontophylogénétique des individus et des outils.


Nous avons indiqué en introduction à cet article que la nouvelle théorie de l’ontophylogénèse, présentée récemment par le biologiste Jean-Jacques Kupiec nous parait fournir des explications très fortes au paradoxe selon lequel, technologie par technologie, des individus au départ très différents peuvent se retrouver identiquement dépendants (addicts) des comportements imposées par l’évolution des outils au sein des systèmes anthropotechniques auxquels ils appartiennent. L’analyse doit évidemment tenir compte du fait qu’un même individu peut être membre de systèmes anthropotechniques différents, pouvant s’exprimer dans des intervalles de temps très courts sinon simultanément. Ainsi un addict de l’automobile qui serait en même temps un addict des armes à feu pourrait au cas où son ego d’automobiliste se trouverait agressé par un tiers recourir abusivement à l’emploi d’une arme à l’encontre du prétendu agresseur.


L’anthropologie traditionnelle attribue les grands types de comportements individuels à l’influence des milieux culturels dans lesquels ont été élevés et agissent les individus. Ces milieux culturels comportent, ici et maintenant, un nombre considérables de facteurs déterminants. Beaucoup sont liés au développement des technologies modernes. L’automobile ou la télévision constituent aujourd’hui de tels facteurs dont on se plait à souligner l’importance. On ne peut le nier. Mais il est devenu évident depuis longtemps, grâce aux analyses de la sociobiologie mettant l’accent sur les causes biologiques des comportements, que beaucoup des façons par lesquelles les individus s’adaptent à l’usage de ces technologies dépendent de déterminismes génétiques, acquis et transmis tout au long de l’évolution animale. Ainsi la défense du territoire ou le besoin d’affirmer sa dominance sexuelle ou sociale, qui sont des réflexes très anciens, sont sous-jacents à beaucoup des façons dont sont utilisés de nos jours les outils technologiques.


On considère généralement cependant, dans le cadre du déterminisme génétique néo-darwinien, que les milieux sociaux et les comportements y prenant naissance ne peuvent influencer l’organisation des génomes que dans le cadre des processus longs et aléatoires liés au mécanisme de la mutation/sélection. Autrement dit, les caractères acquis par les phénotypes ne se répercutent que très lentement et difficilement sur les génotypes. Les généticiens ne nient sans doute pas que l’utilisation des premiers outils lithiques et pyrotechniques ait favorisé par mutation-sélection l’évolution génétique des hominiens dont est issu l’homo sapiens moderne. Mais ils refuseraient avec horreur d’imaginer qu’en quelques centaines d’années, voire en quelques décennies, l’évolution des techniques modernes puisse se répercuter sur le sacro-saint programme génétique définissant l’homo sapiens, entraînant des évolutions plus ou moins marquées de ce programme.

Or la théorie de l’ontophylogenèse, vérifiée par un nombre grandissant de preuves expérimentales, nous parait appuyer l’hypothèse selon laquelle se serait, pour parler de façon imagée, de véritables « humains nouveaux », y compris en termes génétiques, qui émergeraient de la cohabitation avec les outils modernes au sein des systèmes anthropotechniques, notamment au sein des plus récents d’entre eux.


2.1. L’expression aléatoire des gènes et les hétéro-sélections


Rappelons que l'on désigne par ontogenèse la genèse de l'individu, la phylogenèse désignant celle de l'espèce. Depuis toujours, on a considéré qu'il s'agissait de deux processus différents, pour lesquels il fallait développer deux théories différentes. Dans la période actuelle on a, d'un côté, pour la phylogenèse, une théorie de l'évolution qui est la théorie néo-darwinienne faisant appel à la sélection des variants apparus lors de certaines mutations et de l'autre côté, concernant l'ontogenèse, l'embryogenèse des animaux adultes qui est sous contrôle, autrement dit qui résulte, de l'expression du programme génétique inclus dans l'ADN.

Jean-Jacques Kupiec s’est élevé avec succès contre cette contradiction. Il a créé le concept d'ontophylogenèse pour signifier qu'il n'existe qu'une seule modalité de développement et que l'on ne doit avoir qu'une seule théorie pour la décrire. Il considère qu'un seul et même processus, celui de la sélection darwinienne des variants apparus au hasard, peut jouer aussi bien dans la formation de l'individu adulte au moment de l'embryogenèse (le darwinisme cellulaire) que dans la sélection des individus adultes capables de survivre aux contraintes de l'environnement et susceptibles d'être regroupés ensuite par un observateur extérieur en catégories homogènes que l'on baptisera espèces par commodité, s'ils présentent des caractères globalement semblables. Il refuse donc de considérer que la construction des individus résulte de l’application d’un programme génétique stricte, selon lequel les gènes sélectionneraient d’une façon déterministe les protéines responsables des différents niveaux d’organisation du corps. Il considère que les gènes s’expriment de multiples façons, sur un mode aléatoire. C’est ce qu’il nomme l’expression stochastique des gènes.

Comme cependant les gènes ne donnent pas naissance à d’innombrables solutions toutes différentes, mais qu’apparaît un certain ordre au niveau macroscopique, il faut qu’interviennent des modes de sélection provenant du milieu extérieur, ce qu’il nomme l’hétéro-sélection. Selon la théorie de l'ontophylogenèse le niveau moléculaire est intrinsèquement aléatoire. On pensait que cela constituait un inconvénient en biologie, en empêchant par exemple l'apparition d'individus viables. Or c'est un avantage car il s'agit d'une réserve de diversité, de plasticité adaptative. Mais cette diversité est contrôlée par les contraintes sélectives qui viennent de l'environnement et qui se propagent dans l'organisme via les structures cellulaires et pluricellulaires constituant une hiérarchie de paliers sélectifs. Cette théorie du darwinisme cellulaire constitue un renversement complet par rapport au principe du programme génétique.

Pour lui le milieu s'intériorise. A un moment donné, les individus disposent d'une certaine structure. Cette structure est le résultat de toute leur histoire passée, qui remonte à la première cellule vivante. Elle est transmise aux descendants dans les cellules germinales. Un œuf, l'ovocyte chez les mammifères, est une cellule déjà hautement structurée. Cette structure est le résultat de contraintes environnementales ayant agi dans l'histoire de la lignée généalogique dont les humains sont le dernier maillon. Cette structure cellulaire va contrôler l'expression des gènes et permettre de réduire et d'orienter la stochasticité inhérente au niveau moléculaire 6).
Mais l’organisation sociale dans laquelle naissent et s’expriment les individus joue aussi un rôle sélectif en réduisant la stochasticité inhérente à tous les niveaux d’organisation des corps et des relations sociétales. C’est ce qui permet selon nous de comprendre le paradoxe évoqué précédemment : pourquoi des humains biologiquement différents parce que résultant de processus aléatoires différents deviennent-ils, lorsqu’ils se trouvent en interaction avec des technologies puissantes, plus ou moins dépendants de l’influence de ces technologies ?


2.2. L’interaction avec les outils techniques modifie de façon continue les phénotypes et les génotypes des humains


Sans en revenir à un Lamarckisme simpliste selon lequel les caractères acquis par les individus dans le cadre de leur adaptation à un certain milieu se transmettraient héréditairement, la thèse de l’ontophylogenèse montre cependant qu’il existe une continuité entre l’évolution des individus imposée par l’adaptation à l’environnement extérieur et la façon dont les gènes tiennent compte et reproduisent les traits adaptatifs ainsi acquis. Nous en déduisons pour notre part que ce processus d’évolution continue permet de comprendre comment, sur un long terme de plusieurs centaines de milliers d’années, l’utilisation des outils a entraîné la transformation des premiers primates bipèdes en humains tels que nous les connaissons aujourd’hui.

Elle permet aussi de comprendre comment, sur le court terme, sont en train d’apparaître de véritables « hybrides » entre humains et technologies au sein des systèmes anthropotechniques modernes. On remarquera qu’à l’instar de Jean–Jacques Kupiec, nous ne nous engagerons pas dans des discussions sans fin portant sur la question de savoir si ce sont de nouvelles espèces d’hominiens ou d’humains qui ont résulté et résulteront de ces évolutions. Le concept d’espèce, à ce niveau, fut-ce celui d'espèce humaine, représente une construction artificielle, sacralisé par la mythologie. Seules comptent les modifications progressivement introduites dans les lignées reproductrices humaines par les processus darwinien de variation aléatoire et d’hétéro-sélection.


Comme, selon la thèse de l’ontophylogenèse, le processus de modification des génotypes et des phénotypes est continu, sa portée dépendra de nombreux facteurs dont certains seront de plus en plus liés à la dynamique transformationnelle des technologies. Si celle-ci est faible, elle n’entraînera pas à court terme de modifications perceptibles des cultures et surtout des conséquences qui s’imposeront aux phénotypes, c’est-à-dire aux individus. A plus forte raison l’expression des génomes reproductifs n’en sera pas modifiée. Ce sera le cas dans l’exemple évoqué plus haut de la tasse de café. Qu’en sera-t-il de technologies beaucoup plus contraignantes, comme celles associées à l’automobile et aux armes à feu ? Il faudra au cas par cas étudier les modes de sélection de type épigénétique s’imposant soit aux caractères non transmissibles héréditairement des adultes, soit même aux génomes commandant la reproduction de ceux-ci, que ce soit au niveau de la sélection darwinienne des modes d’expression des gènes, soit au niveau des gènes eux-mêmes.


Nous pensons que la thèse de l’ontophylogenèse, correctement utilisée, pourrait permettre de faire apparaître les sélections de détail, apparemment infimes, résultant des contraintes aléatoires liées à l’utilisation des technologies, notamment de celles ayant le plus fort caractère « structurant ». Mais on pourrait montrer que ces sélections de détail, s’accumulant sur des populations nombreuses, induisent des transformations importantes et visibles portant non seulement sur les phénotypes mais sur les génotypes. On pourrait en conséquence envisager sans abus de langage l’apparition continue de nouveaux "humains" au sein des grands systèmes anthropotechniques modernes. C’est déjà le cas concernant la cohabitation des humains actuels avec les technologies contemporaines. Il n’y a plus guère de points communs entre l’homme d’aujourd’hui, fut-il habitant des pays dits pauvres, et celui du début du 20e siècle, ayant-il vécu dans les pays riches de l’époque. Ce sera de plus en plus le cas avec les technologies dites de l’artificialisation, dont nous avons montré par ailleurs la puissance transformationnelle.


Ainsi, dans cette optique, le concept de post-humain ou de trans-humain pourrait-il prendre une consistance scientifique et enrichir celui plus englobant de système anthropotechnique. Mais il faudrait pour cela abandonner l’idée simpliste de la transformation d’une prétendue espèce humaine actuelle en une espèce post-humaine nouvelle. Il faudrait au contraire se placer dans l’hypothèse d’une transformation continue des lignées d’hominiens, en cours depuis l’apparition des premiers bipèdes manieurs d’outils jusqu’à celle des hybrides biotechniques résultant de l’évolution probable des technologies de l’artificialisation.


Notes

1) Le paradoxe du sapiens, Jean-Paul Bayol
2) Giacomo Rizzolati et Corrado Sinaglia. Les neurones miroirs. La version anglaise sur laquelle nous nous sommes appuyés date de 2008, Mirrors in the Brain, How our Minds Share Actions and Emotions. Oxford University Press. La version italienne originale est de 2006.
3) Jean Jacques Kupiec, L’origine des individus, Fayard 2008
4) Diverses observations récentes ont montré, sans faire allusion à la question des neurones miroirs, comment le cerveau incorpore dans ses représentations du corps les outils que celui-ci utilise. Une étude d’Allessandro Farné et d’une équipe de l’Université Claude Bernard à Lyon vient de le confirmer. http://www.scienceblog.com/cms/brain-represents-tools-temporary-body-parts-study-confirms-22536.html
5) JJ Gibson The Ecological Approach to Visual Perception, Houghton Mifflin 1979
6) Certains biologistes, tout en saluant le caractère novateur de la thèse de Jean-Jacques Kupiec, se refusent à abandonner totalement le concept d’un programme qui déterminerait de façon linéaire le développement des individus. Ainsi en est-il d’un article de Eric Werner paru dans Nature (vol 460/2 juillet 2009) présentant la version anglaise de l’Origine des individus. Cela tient selon nous, dans ce cas, à ce que Werner ne prend pas suffisamment en considération le poids sélectif des environnements complexes dans lesquels se développent les phénotypes, environnements construits sur le mode stochastique par l’activité antérieure de ces mêmes phénotypes.

Repost 0
21 juin 2009 7 21 /06 /juin /2009 10:24
Les origines de la vie: une réponse possible dans la décennie?
Jean-Paul Baquiast 20/06/2009


Dans la recherche jamais encore aboutie des origines de la vie sur Terre, que l'on fait remonter à environ 4 milliards d'années avant notre ère, au moins deux approches sont utilisées. La première fait appel aux méthodes de la biologie synthétique et cherche à construire des molécules présentant pour l’essentiel les propriétés des molécules biologiques. Les chercheurs travaillent sans se préoccuper de reconstruire ce qu’était le milieu primitif, dont on ne sait pas grand-chose. La seconde approche au contraire cherche d’abord à imaginer ce que pouvaient être les conditions primitives, il y a quelques 4 milliards d’années. On se demande comment ce milieu aurait pu favoriser l’apparition des molécules vivantes telles que nous les connaissons ou de composés pouvant être considérés comme des précurseurs plus ou moins directs de ces molécules.


Dans cette seconde approche, les hypothèses nouvelles ne manquent pas. Il est à peu près établi que vers – 4 ou – 3,9 milliards d’années avant notre ère, la Terre, comme d’ailleurs la Lune, a subi des bouleversements importants, d’origine extra-terrestres, provoquant la formation d’énormes cratères et des changements dans la composition chimique et la température des océans et des continents. Or les quelques roches datant de ces époques qui nous soient parvenues semblent contenir les preuves de processus de type biologique. Les hypothèses n’ont pas manqué depuis une trentaine d’années pour expliquer l’apparition si rapide de la vie sur une Terre encore très jeune, depuis l’appel à une peu vraisemblable auto-organisation des molécules chimiques jusqu’à la panspermie, selon laquelle les molécules prébiotiques (voire biotiques) sont nombreuses dans l’espace.


Rien de tout ceci n’avait été jugé très convaincant. Il semble pourtant que des hypothèses récentes permettent de préciser les modalités d’une origine terrestre de la vie. Nous en avons déjà évoquées certaines dans notre revue 1). Les travaux à la base de ces hypothèses s’appuient en priorité sur la première des approches que nous avons évoquée, celle de la biologie synthétique. Mais ils cherchent à être compatibles avec ce que l’on peut savoir des conditions géologiques et climatiques initiales.


Convergence toute récente dans la solution de vieilles difficultés


Concernant la biologie de synthèse, quatre séries d'hypothèses très prometteuses sont actuellement présentées avec une convergence impressionnante. Elles concernent ce que nous nommerons pour simplifier : les protocellules, la synthèse spontanée des nucléotides, l’ARN réplicant et une explication du caractère dextrogyre des molécules biotiques. Précisions d'emblée cependant que ces hypothèses pourront, comme toujours en science, faire l'objet de critiques ou compléments reposant sur de nouvelles bases expérimentales.


Les protocellules


Le Dr Jack W. Szostak, du Massachusetts General Hospital a récemment montré lors d’un Symposium sur l’évolution au Laboratoire de Cold Spring Harbor à Long Island 2) que des acides gras primitifs du type de ceux susceptibles de se former sur la Terre aux dates critiques pour l’apparition de la vie, peuvent spontanément produire des sphérules dotées d’une double paroi, analogues aux membranes des cellules vivantes actuelles. De plus, ces protocellules peuvent s’incorporer de nouveaux acides gras présents dans l’eau et se diviser éventuellement.

Les cellules modernes se protègent de l’entrée de produits chimiques dissous dans leur environnement. Mais les protocellules du Dr Szostak peuvent absorber sans difficultés de petites molécules. Par contre, si celles-ci, à l’intérieur de la protocellule, se combinent en molécules plus importantes, ces dernières ne peuvent plus franchir la barrière membranaire en sens inverse. Cette propriété présente un intérêt essentiel. Si l’on construit une protocellule encapsulant un petit morceau d’ADN et si on la « nourrit » de nucléotides, les briques constitutives de l’ADN, c'est-à-dire d’autres nucléotides, vont entrer dans la cellule et s’y associer en formant une nouvelle molécule d’ADN.


Ceci a permis au Dr Szostak d’affirmer qu’il était optimiste quant à la possibilité d’obtenir prochainement un système de réplication chimique à base d’acides nucléiques à l’intérieur d’une protocellule (voir ci-dessous, les recherches du Dr Joyce). Il pourrait être possible ensuite d’intégrer un tel système d’ARN réplicant à l’intérieur de protocellules capables de se diviser.


La synthèse spontanée des nucléotides

Ceci étant, les composés chimiques entrant dans de possibles cellules réplicantes ainsi obtenues en laboratoire sont beaucoup plus complexes que ceux ayant existé dans les conditions de la Terre primitive. Les chimistes prébiotiques étaient encore loin d’espérer pouvoir comprendre comment, notamment, les nucléotides auraient pu se former spontanément.

Une nouvelle avancée dans cette direction capitale vient d’être apporté par le Dr John Sutherland, chimiste organique à l’université de Manchester. 3). Par ce qui a été qualifié de « véritable tour de force synthétique », il a réussi à synthétiser une molécule d’ARN à partir de ses composants, un sucre, un phosphate et une de 4 nucléobases possibles. Ces composants, jusqu’à présent, refusaient de s’associer en un nucléotide viable. L’équipe de John Sutherland y est arrivée en mettant au point un processus nouveau leur permettant de se combiner à partir de précurseurs plus simples et d’eau chaude.

Ce processus aurait été susceptible de se produire sur la Terre primitive dans les mares tièdes où Darwin avait situé l’origine de la vie. Les précurseurs nécessaires ont été détectés également dans l’espace. Pourquoi ne pas imaginer que des conditions favorables à leur assemblage puissent s’y rencontrer plus facilement que l’on ne pense aujourd’hui. Sur Terre, de telles combinaisons se produisant spontanément seraient sans doute détruites du fait de la toxicité de l'environnement actuel.

Dès lors qu’un système, fut-il primitif, d’ARN répliquant inclus dans une protocellule et capable de se former à partir de nucléotides se trouvant présents dans le milieu sera mis au point, tout le reste de l’évolution pourra en découler sans présenter de difficultés méthodologiques majeures. Tout ne sera, comme l’avait remarqué il y a quelques années le généticien Francis Crick, qu’une affaire de temps.

Un ARN réplicant

Quelques difficultés restent encore à résoudre. La plus importante concerne précisément les modalités permettant d’obtenir un ARN auto-réplicateur dans les conditions prébiotiques, c’est-à-dire capable de se reproduire en faisant appel aux propriétés des molécules existant à ces époques. Le Dr Gerald Joyce, du Scripps Research Institute à La Jolla, vient d’annoncer dans la revue Science avoir obtenu des résultats significatifs dans cette voie. Il a montré que l’ARN avant de jouer un rôle dans la production des molécules d’ADN, peut intervenir comme un enzyme permettant de provoquer des réactions chimiques.

Il a développé deux molécules d’ARN qui peuvent catalyser leur synthèse réciproque à partir des 4 espèces de nucléotides nécessaires. Il annonce ainsi avoir réalisé une molécule immortelle, en ce sens que l’information la concernant pourrait se reproduire indéfiniment. Sans qu’il soit vivant à proprement parler, ce système peut comme la vie se répliquer et s’adapter à de nouvelles conditions environnementales.

Des sucres dextrogyres


Une autre difficulté restait à résoudre: expliquer pourquoi dans les cellules vivantes, les acides aminés sont tous lévogyres alors que les sucres et les nucléotides sont dextrogyres 5). Dans les milieux naturels non biotiques, les deux formes coexistent à peu près régulièrement, sans se mélanger. Mais les nucléotides lévogyres sont mortels pour les cellules car elles les empêchent de former des chaînes d’acides nucléiques telles que celles de l’ARN et de l’ADN en les associant avec des nucléotides dextrogyres. On ne comprenait pas comment les premières cellules vivantes avaient réussi à extraire des composants terrestres l’une seule des deux sortes de molécules nécessaires. Or récemment la Pr Donna Blackmond de l’Imperial College London a pu montrer qu’un mélange de molécules lévogyres et dextrogyres pouvaient être converti en une seule sorte de ces molécules par des cycles de refroidissement et de réchauffage analogues à ceux ayant pu se produire sur la Terre primitive 6).

La conjonction de ces diverses avancées laisse présager que l’impossible pourrait survenir dans les prochaines années, 5 à 10 ans au plus tard: réaliser en laboratoire un modèle de cellule vivante artificielle, à partir de processus et composants susceptibles d’avoir existé dans les conditions régnant sur Terre il y a 4 milliards d’années.


Dans quels types de milieux la vie s'est-elle développée à ses débuts?


Mais l’exploit serait encore plus grand si l’on pouvait enclencher le processus correspondant dans des milieux naturels proches de ceux caractérisant la Terre à ces époques. Nous avons relaté dans de précédents articles les points de vue différents, sinon contradictoires qui avaient cours jusqu’à présent.

Pour les uns, tels le chimiste Günther Wächtershäuser, les éruptions sous-marines générant les gaz et les catalyseurs métalliques susceptibles d’engendrer des processus métaboliques étaient les plus favorables. Pour d’autres au contraire, les composants nécessaires à la vie auraient été trop dilués dans un milieu aquatique salin. Les mares d’eau douce tiède mentionnées par Darwin leur paraissent plus favorables à la production sur leurs berges de concentrations chimiques adéquates et des cycles de chauffage, refroidissement et évaporation nécessaires.

Les vestiges authentifiés comme biologiques ne sont guère explicites, puisque l’on retrouve des bactéries fossiles d’environ 2 milliards et que parallèlement des mélanges d’isotopes de carbone pouvant signer des processus biologiques ont été identifiés dans des roches âgées de 3,9 milliards d’années. Mais les premières formes de vie auraient-elles survécu aux bombardements météoritiques qui, comme rappelé en introduction, ont atteint la Terre et la Lune vers ces époques ?

En fait certaines hypothèses font remarquer que la vie a du commencer bien auparavant et avoir survécu aux grands bombardements météoritiques, grâce à l'abri offert par les océans profonds. Cela se serait produit au sein d’anciennes roches tels que les zircons qui sont apparues 4,4 milliards d’années avant notre ère. Ainsi la vie aurait pris naissance avant les bombardements et aurait donc pu, en principe, leur survivre.

Pour lever les doutes, on pourrait, en principe, réaliser des " environnements naturels primitifs reconstitués", par exemple au sein des « fumeurs » océaniques ou sur des argiles diverses, dans lesquels on essaierait de faire prendre les modèles prébiotiques présentés plus haut. Mais alors, très vraisemblablement, manquerait le temps évoqué par Francis Crick pour que l’évolution darwinienne naturelle puisse faire son œuvre. On ne voit pas comment court-circuiter les milliards et plus d’essais et erreurs nécessaires à l’apparition d’une bactérie moderne fut-elle très simple, si le biochimiste n’intervient pas par quelques coups de pouce pour précipiter les évènements.

Ceci étant, reconstruire les détails de 4 milliards d’années d’évolution serait-il utile, dès lors que l’on disposerait de modèles simulant avec vraisemblance certains des précurseurs de la vie terrestre et les processus ayant permis leur apparition. Au plan philosophique, de tels modèles permettrait d’éliminer définitivement, espérons-le, les divagations créationnistes. Plus utilement, ils permettraient de reconnaître sur d’autres planètes l’existence de phénomènes biologiques ayant été ou étant semblables aux nôtres, s’ils s’en trouvaient.

Rendez-vous donc dans quelques années.

Notes
1) Notamment une simulation informatique qui, bien qu’intéressante, n’est pas très démonstrative
http://www.admiroutes.asso.fr/larevue/2008/91/actualite.htm#ac1
2) CSHL. Evolution Meeting. The Molecular Landscape Mai-juin 2009
http://meetings.cshl.edu/meetings/symp09.shtml
3) Article de Wired
http://www.wired.com/wiredscience/2009/05/ribonucleotides/
voir aussi dans Sciencenews
http://www.sciencenews.org/view/generic/id/43723/title/How_RNA_got_started
4) Sur les travaux de Gerald Joyce, voir Self-Sustained Replication of an RNA Enzyme
http://www.sciencemag.org/cgi/content/abstract/1167856
5) En chimie, une molécule lévogyre (« qui tourne à gauche », du latin laevus, gauche) a la propriété de faire dévier le plan de polarisation de la lumière polarisée vers la gauche d'un observateur qui reçoit la lumière. Plus précisément, l'observateur en question voit le plan tourner dans le sens contraire à celui des aiguilles d'une montre. C’est l’inverse pour une molécule dextrogyre (wikipedia)
6) How the primordial soup took a left turn. Article dans Nature (accès payant) http://www.nature.com/nature/journal/v441/n7093/full/7093xia.html
Voir aussi http://www.npr.org/templates/story/story.php?storyId=5448305

Repost 0
17 juin 2009 3 17 /06 /juin /2009 20:13

 Contre l’hypothèse du multivers.
Lee Smolin ou le temps retrouvé
Jean-Paul Baquiast 17/06/2009

Nous avons souvent évoqué l’hypothèse de plus en plus à l’ordre du jour chez les cosmologistes les plus réputés, selon laquelle l’univers que nous observons ne serait qu’une émergence parmi une infinité d’autres provenant d’une réalité physique sous jacente à tous les univers possible, sans référence au temps et à l’espace. On désignerait par le terme de multivers soit ce générateur d’univers, soit le nombre indéterminé des univers qu’il générerait. Certains préfèrent alors en ce cas parler des multivers et non du multivers.

Observons qu’il y aurait une ressemblance entre l’hypothèse du multivers et l’hypothèse, généralement admise aujourd’hui en physique quantique, ayant trait à l’existence d’un monde infra-quantique sous jacent au monde des particules élémentaires qu’étudie la physique, qu’ils s’agisse des micro-états de la physique quantique ou des particules macroscopiques de la physique ordinaire. Il semble admis que ce monde infra-quantique, qualifié par certains parfois de vide quantique (vide de particules mais pas d’énergie), se situerait en dehors du temps et de l’espace tels que notre physique les définit. Il serait parcouru de fluctuations énergétiques générant sur le mode aléatoire des paires « virtuelles » de particules et d’antiparticules dont la plupart s’annihileraient immédiatement. Certaines d’entre elles donneraient cependant naissance à des particules matérielles s’inscrivant dans notre espace-temps et répondant aux lois de notre physique. Elles deviendrait alors observables.

Dans cette vue du monde physique, il ne serait pas exclu que notre univers lui-même soit né d’une de ces fluctuations, ayant enclenché par décohérences successives et autres phénomènes agrégatifs la production de toutes les particules constituant l’univers observable, dont évidemment nous-mêmes en tant qu’observateurs/acteurs nous sommes des composants.

En élargissant le regard, il n’y aurait pas de raison d’exclure a priori l’idée que ces fluctuations du vide quantique, encore une fois non liées aux cadres spatio-temporelles qui sont ceux de notre univers, c’est-à-dire provenant d’un univers a-temporel, puissent produire une infinité d’univers analogues ou différents du nôtre, dotés de lois fondamentales, notamment en ce qui concerne l’espace-temps, elles-mêmes analogues ou différentes de celles auxquelles nous sommes assujettis. En ce cas, le vide quantique ne serait pas seulement la source d’une infinité de paires de particules vouées à l’annihilation, mais d’une infinité d’univers ayant résulté de modes différents de matérialisation de celles de ces paires ayant résisté de façon aléatoire à l’annihilation complète. On pourrait alors parler d’une cosmologie quantique qui correspondrait, en ce qui concernerait la création des univers, à la physique quantique en ce qui concerne la création des particules matérielles que nous observons.

Cette image d’un infra-univers intemporel ou statique qui serait le « père » de tous les autres, a toujours déplu au physicien Lee Smolin. Il vient de publier un article important résumant plusieurs années de travail, partagées avec le philosophe brésilien Roberto Mangabeira Unger et d’autres de ses collègues du Perimeter Institute, dans lequel une nouvelle fois il conteste la pertinence de la cette hypothèse. Il la replace dans une tendance qu’il a toujours implicitement ou explicitement combattue, celui de la cosmologie théorique moderne qui se soucie de moins en moins de formuler des hypothèses testables.

Dès les premiers mois de parution de notre revue, nous avions souligné le mélange d’audace et de bon sens de Lee Smolin, tant dans ses vues critiques sur la physique contemporaine que dans la production de ses propres hypothèses. Il est donc intéressant de prendre connaissance de son article et de la philosophie qui le sous-tend.

La dérive de la cosmologie théorique

Lee Smolin constate au début de l'article le changement survenu en trente ans en matière de cosmologie théorique. Initialement la physique théorique et la cosmologie ne produisaient d’hypothèses que dans la perspective de les vérifier expérimentalement le plus tôt possible, en utilisant les instruments disponibles. Puis on en est venu à décrire non seulement notre propre univers mais des univers différents, avec des dimensions, des particules, des forces et des lois fondamentales différentes, qu’il n’était bien entendu pas possible d’observer expérimentalement. Aujourd’hui, le pas a été franchi : des univers, du fait qu’ils sont logiquement possibles, sont considérés comme pouvant être réels, voire comme étant réels. C’est ce qu’exprime le concept de multivers. Le multivers n’est quasiment plus présenté comme une hypothèse, mais comme une réalité, notre univers visible n’étant alors que l’un parmi un nombre infini d’autres univers.

Il s’agit là, pourrions nous ajouter, d’une nouveau pas accompli par le « réalisme » en science, ou platonisme, qui postule que les objets dont traite la science, fussent-ils non observables, font partie d’une réalité en soi, indépendante de l’observateur, que le discours scientifique peut progressivement mettre au jour. Nous avons indiqué précédemment, en commentant la méthode de Conceptualisation Relativisée de Mioara Mugur-Schächter, qu’il s’agissait probablement d’une illusion.

Dans cette conception quantique de la cosmologie, que Lee Smolin nomme la cosmologie quantique et qui aboutit à l’hypothèse du multivers, les phénomènes que nous observons, qu’il s’agisse des phénomènes matériels ou de ceux liés au temps, c’est-à-dire à la durée, ne correspondent pas à des propriétés (ou « réalités ») fondamentales de l’ensemble des univers. De la même façon, dans le monde quantique de la physique contemporaine, on ne considère pas que les particules et le temps correspondent à des propriétés fondamentales du monde infra-physique. Ce sont des propriétés approximatives traduisant des régularités statistiques correspondant à ce que nous-mêmes, composés d’un grand nombre de particules élémentaires, pouvons observer. Il en serait de même au niveau de la cosmologie quantique. Si pour nous notre univers évolue dans le temps, à un niveau plus profond cet univers ferait partie d’un méta-univers (ou ensemble d’univers) statique, éternel, où le temps n’existerait pas.

Dans un tel univers les lois de la physique doivent être très différentes de celles s’appliquant dans notre univers, puisqu’elles doivent pouvoir s’appliquer à l’ensemble des multivers. Il ne s’agit plus alors de lois « effectives » prescrivant les phénomènes observés dans chaque univers, y compris dans le nôtre, mais d’une loi « fondamentale » unique reposant sur des principes premiers et s’appliquant à l’ensemble des univers. La théorie des cordes, pour Lee Smolin, vise à découvrir une telle loi fondamentale. Mais il faudrait alors que cette loi fondamentale puisse être, au moins indirectement, en relation avec ce que l’on observe. Pour cela il faudrait qu’elle puisse prédire des phénomènes observables rattachables à ce que prédisent les lois effectives utilisées par la physique s’appliquant à notre univers. Or ce n’est pas le cas, pour le moment du moins.

Observons pour notre part que l’on pourrait envisager un multivers statique quantique qui ne serait régi par aucune loi que ce soit, mais seulement par l’aléatoire régnant au niveau des très hautes énergies. Les univers en émergeant apporteraient avec eux leurs propres lois fondamentales, toutes découlant des processus aléatoires ayant présidé à leur naissance. Ils n’auraient donc a priori aucun point commun entre eux. L’hypothèse ne serait pas si bizarre qu’elle le parait, puisque c’est bien ce que la cosmologie classique semble penser de ce qui se passe au cœur des trous noirs. Si elle décrit les phénomènes se produisant à l’horizon de ceux-ci, elle ne s’aventure pas, que nous sachions, à prédire ce qui se passe au cœur de chacun d’eux, ni à supposer – à défaut de commencements de preuves expérimentales - que des régularités quelconques puissent y être envisagées. Mais on comprend bien que renoncer à postuler l’existence d’une loi fondamentale unique à tous les univers ne constituerait pas un encouragement à la recherche en cosmologie théorique appliquée aux multivers. Ceci d’autant plus que, ne connaissant pas d’autres univers que le nôtre, nous ne pourrions pas rechercher des points communs entre leurs lois respectives.

La cosmologie théorique moderne ne va pas jusqu’à repousser l’hypothèse de l’existence d’une loi fondamentale propre à tous les multivers. Mais, selon Lee Smolin, elle ne se comporte pas très différemment. Il avait expliqué dans son ouvrage précédant « The Trouble with Physics » que la théorie des cordes, comme les autres théories semblables, fournit seulement un vaste panorama (landscape) de lois effectives possibles. Il faut alors comprendre pourquoi notre univers ne présente qu’une seule gamme de lois effectives parmi toutes les autres possibles, et pourquoi cette gamme là plutôt que l’une des autres.

Répondre à cette question, nous dit-il, est à la source de l’hypothèse des multivers. On peut supposer que la sélection des lois effectives reposerait sur un mécanisme aléatoire. Selon certaines hypothèses, cette sélection se produirait au sein d’un univers statique à des niveaux d’énergie trop élevés pour que nous puissions les observer expérimentalement. Un univers comme le nôtre, évoluant à des niveaux d’énergie bien moindres, permettant l’apparition de la vie, serait donc extrêmement atypique. L’hypothèse anthropique en découle, selon laquelle nous ne pouvons observer que des univers favorables à la vie. Mais il en découle aussi que nous ne pouvons pas observer les caractéristiques de l’ensemble ni d’aucun objet extérieur à notre univers qui en serait issu, puisque nous ne pouvons produire que des postulats non testables relatifs à eux. Observons à nouveau que cette proposition n’est pas très différente de celle découlant de l’hypothèse que nous évoquions précédemment, selon laquelle l’infra-univers quantique semble ne répondre à aucune loi que ce soit, étant entièrement régi par l’aléatoire.

Pour échapper à cette impasse, Lee Smolin avait proposé, dans son ouvrage de 1992, le concept de sélection naturelle cosmologique, comportant, selon lui, des prédictions testables. Des générations successives d’univers verraient le jour à partir de rebonds (bounces) se produisant à l’intérieur des trous noirs existant dans un univers comme le nôtre. Une évolution naturelle un peu comparable à l’évolution biologique y sélectionnerait progressivement des univers de plus en plus favorables à la vie. La sélection naturelle privilégierait les univers réglés pour produire le plus grand nombre possible de trous noirs, eux-mêmes susceptibles de produire le plus grand nombre possible d’univers favorables à la vie. Notre univers serait dans ce cas placé dans une position particulièrement favorable.

Si l’on retenait cette approche et que l’hypothèse de la sélection naturelle cosmologique pouvait être confirmée grâce aux preuves expérimentales proposées par Lee Smolin, il faudrait réintroduire le concept de temps. Contrairement à l’hypothèse selon laquelle les univers seraient produits par un mécanisme aléatoire se produisant à très haute énergie à partir d’un multivers statique, l’hypothèse de l’évolution devrait nécessairement s’inscrire dans le temps. Le temps, pour elle, serait aussi « réel » que le type de multivers postulé.

Personnellement, il ne nous semble pas que cette hypothèse d’une évolution cosmologique des univers soit très crédible, même si Lee Smolin propose quelques preuves expérimentales susceptibles de lui être apportées assez rapidement. Elle oblige de toutes façons à postuler l’existence d’autres univers que le nôtre, se situant dans le passé ou dans le futur de celui-ci. Au lieu d’être confrontés à un multivers statique, nous serions confrontés à une chronologie de multivers Autant dire que nous nous trouverions nécessairement plongés dans la métaphysique, qui est précisément le reproche que formule Lee Smolin à l’égard de la théorie des cordes.

Réintroduire le temps et refonder la cosmologie

Cependant la théorie des cordes présente un intérêt, qu’il souligne lui-même : celui d’obliger à discuter l’application à la cosmologie du postulat de base de la physique quantique selon lequel le temps n’intervient pas dans la construction de notre propre univers au niveau microscopique ou quantique, d’où il découle que ce que nous observons au niveau macroscopique n’est que le produit de mécanismes probabilistes se produisant sans interventions du temps. Comment appliquer ceci à la description telle que proposée par la théorie des cordes d’ensembles d’univers où les théories probabilistes ne s’appliqueraient pas. Il faudrait pour cela avoir recours à quelques unes des hypothèses ad hoc envisagées par les chercheurs en gravitation quantique. Mais il nous prévient que pour lui, elles ne se justifient que pour expliquer ce que nous observons, c’est-à-dire l’émergence de l’espace-temps classique que nous connaissons. On peut observer à ce propos que Lee Smolin ne semble plus très intéressé par les développemments d'une version de la gravitation quantique qu'il avait contriué à lancer pour échapper aux principales critiques portées à la théorie des cordes: la gravitation quantique à boucles (Loop quantum gravity)

Par contre il accorde du crédit à deux approches, les causal dynamical triangulations et la quantum graphity que nous ne pouvons discuter ici (voir http://en.wikipedia.org/wiki/Event_symmetry ). Il s’agit de théories qui refusent, contrairement aux autres théories intéressant la gravitation quantique, de considérer que le temps soit émergeant. Elles donnent des indications concernant l’émergence de l’espace à l’intérieur d’un temps fondamental préexistant. C’est ce même temps fondamental qui s’impose pour donner un sens aux probabilités et de décrire l’évolution des lois effectives.

L’existence d’un temps global fondamental lui parait indispensable à toute théorie de la gravitation quantique tenant compte de la relativité générale. Plus généralement elle est indispensable à toute étude portant sur l’évolution des phénomènes à partir des conditions initiales, dans le cadre d’une loi physique réputée invariante. Nous renvoyons le lecteur à l’article sur ce point trop complexe pour être résumé ici.

Ayant éliminé les raisons de penser que le temps est une illusion, Lee Smolin énumère les 3 principes ci-dessous que, conjointement avec Unger, il propose de retenir pour justifier ce qu’il nomme une philosophe naturelle relative à la cosmologie. Il s’agira de refonder celle-ci sur la base d’un univers unique et d’un temps retrouvé :

1. Il n’existe qu’un univers, le nôtre, et il n’existe pas d’autres univers qui en seraient des copies, ni à l’intérieur, ni à l’extérieur de notre univers. En conséquence de ce principe, il ne peut exister d’objet mathématique isomorphe à l’univers entier (le simulant entièrement).

2. Le temps est réel et tout ce qui est réel est situé dans le temps. Rien ne peut exister de façon intemporelle.

3. Tout état de ce qui est réel, situé à un temps donné, s’insère dans un processus de changement conduisant à un nouvel état lié au précédent par une relation causale survenant dans un temps suivant. Ceci veut dire que le temps est une caractéristique indissociable des relations causales. Quelque chose qui aurait existé à un certain moment sans entraîner de conséquences se manifestant dans le moment suivant aurait disparu à ce même moment. Les objets qui persistent doivent être considérées comme des processus conduisant à de nouveaux objets. Un atome défini à un temps déterminé doit être considéré comme un processus conduisant à un atome modifié ou différent au temps suivant.

Il en résulte que, puisque rien n’existe ou n’est vrai en dehors du temps, on ne peut parler de lois physiques éternelles. Nous appelons lois des régularités que nous observons sur de longues périodes de temps, mais rien ne nous permet d’inférer que ces lois puissent être éternelles. Les lois doivent donc pouvoir évoluer dans le temps. Lee Smolin rappelle que le logicien américain Charles Sanders Peirce l’avait déjà écrit en 1891. Il n’est donc pas possible de dépasser notre expérience du monde liée au temps pour découvrir des lois qui seraient intemporelles. Les physiciens ne peuvent que se limiter à mettre en évidence des lois valables pour un univers évoluant dans le temps. Vouloir aller au-delà répond à un besoin religieux de transcendance qui n’est pas scientifique.

Dans ces conditions, nous n’avons pas besoin du multivers. Nous n’avons pas besoin de postuler l’existence d’un mécanisme intemporel produisant un grand nombre d’autres univers différents du nôtre. Nous n’avons pas non plus besoin d’imaginer la possibilité d’un grand nombre d’univers virtuels dont certains seulement se réaliseraient. Nous devons nous limiter à imaginer les lois s’appliquant au seul univers qui existe, le nôtre.

De la même façon, il ne nous est pas possible d’imaginer des lois virtuelles qui flotteraient à l’intérieur d’un multivers en attendant qu’apparaisse un univers précis auquel elles s’appliqueraient. Lee Smolin fait notamment allusion dans ce passage, que nous ne détaillons pas ici, à l’univers platonicien des mathématiques, que beaucoup de scientifiques, et pas seulement des mathématiciens, imaginent exister, sous forme de premiers principes, en dehors du monde physique et donc intemporellement. Comme l’univers ne peut apparaître qu’une seule fois, il faut trouver des lois qui s’appliquent exclusivement à partir de son origine. Il faut de ce fait qu’il s’agisse de lois qui évoluent dans le temps.

Les critiques jugeront que Lee Smolin affirme ses trois principes comme s'il s'agissait d'articles de foi. Nous sommes donc en pleine métaphysique. Mais il ne s'en cache pas. Il s'agit, comme il le dit, d'une métaphysique (ou philosophie) naturaliste, visant comme le rasoir d'Ockam, à économiser les hypothèses et les démonstrations. Il en tire cependant une conclusion très riche.

Lee Smolin conclut en effet son article en évoquant deux hypothèses. La première serait que le paradigme dominant aujourd’hui concernant l’existence d’un multivers statique (atemporel) serait correct. Dans ce cas, écrit-il, nous serions engagés dans un processus éliminant la réalité du temps et remplaçant celui-ci par une « existence » non définie à l’intérieur d’un monde gelé constitué d’un grand nombre de possibilités non réalisées. Dans une seconde hypothèse, celle où les principes qu’il a proposés avec Unger étaient corrects, il faudrait repenser le concept de loi de façon à l’appliquer à un univers unique n’étant apparu qu’une fois. Ceci conduirait à concevoir notre univers d’une façon très différente de celle actuellement en vigueur. La science actuelle en serait modifiée. Mais, dit-il, on ne pratique pas la science pour sauver les vieux postulats. On la pratique pour en proposer d’autres à l’intention de nos enfants.

Une hyper-science

Lee Smolin ne précise pas en quoi la science actuelle serait modifiée par le fait que les lois proposées devraient s’appliquer à un univers unique n’étant apparu qu’une fois. La réponse nous parait être la suivante : comme l’univers évolue dans le temps, ainsi qu’il est facile de le constater en observant ses états successifs liés pas des relations causales situées dans le temps, les lois que la science propose pour rendre compte de cette évolution doivent elles-mêmes évoluer. Il s’agira de lois proposant des dynamiques et non des contraintes intangibles. Appliquées aux lois et constantes fondamentales de l’univers, par exemple, on postulera qu’elles puisent changer et l’on proposera des expériences mettant en évidence ces changements afin d’élaborer de nouvelles lois et constantes (pas si constantes que cela) qui en rendront compte. C’est ainsi qu’il pourrait être intéressant (c’est nous qui parlons et non Smolin, précisons-le), en matière de force gravitationnelle, de faire l’hypothèse que celle-ci pourrait ne pas être uniforme dans l’ensemble de l’univers ou tout au long de son histoire, afin de rendre compte d’observations qui ne seraient pas explicables dans le cadre d’une gravité constante en tous temps et en tous lieux.

On peut penser qu’il serait aujourd’hui très utile d’introduire plus de pragmatisme dans l’énoncé des lois permettant de comprendre de nombreux phénomènes cosmologiques que l’observation peut de moins en moins expliquer dans le cadre des lois actuelles, par exemple l’énergie noire ou la matière noire – sans mentionner des problèmes plus traditionnels tels que ceux liée à l’apparition de la vie. Il ne s’agirait pas de vouloir changer les lois à tous propos, mais seulement d’avancer dans la compréhension de phénomènes durablement réfractaires aux explications par les lois actuelles et donc d’avancer dans l’élaboration de lois futures plus explicatives. Il pourrait s’agir là de l’émergence d’une hyper-science que beaucoup appellent aujourd’hui de leurs vœux. La science a d’ailleurs toujours progressé de cette façon. La cosmologie serait-elle donc si spécifique qu’elle exigerait des méthodes différentes ?

Il est certain que, si en s’appuyant sur le postulat du multivers, on se satisfaisait de constater ces phénomènes encore mystérieux sans chercher à les comprendre, sous prétexte qu’une infinité d’autres phénomènes différents existeraient dans une infinité d’univers différents, on ne progresserait pas beaucoup dans la compréhension de ce qui se passe dans notre propre univers.

Mais les défenseurs de l’hypothèse du multivers ne manqueront pas de dire que les progrès de la science sont venus aussi de formulations qui, dans l’état des techniques expérimentales propres aux époques considérées, n’étaient ni testables ni même exprimables en termes faisant place à l’expérimentation. On sait qu’en ce qui concerne la théorie des cordes, les spécialistes ne désespèrent pas de pouvoir prochainement tester certaines de leurs hypothèses. Quant à spéculer sur d’autres univers que le nôtre, comportant ou non des références au temps, il ne s’agirait absolument pas de jeux d’esprit gratuits ou de simples fuites dans la métaphysique. Un questionnement immédiat de notre physique en découle nécessairement.

Nous avons indiqué plus haut que ce serait déjà le cas, nous semble-t-il, des fondements de la physique quantique. Celle-ci postule l’existence d’un infra-monde intemporel et aléatoire, ce dont beaucoup de physiciens semblent aujourd’hui ne plus se satisfaire. En ce domaine, par exemple, rien ne permet d’affirmer que la physique s’appliquant à ce monde ne fera pas apparaître prochainement des déterminismes sous-jacents actuellement inobservables ainsi qu’un temps convenablement quantifié dont le déroulement pourrait alors être pris en compte par les modèles que nous nous en donnons. Ainsi disparaîtrait une différence importante séparant encore la cosmologie observationnelle et la cosmologie théorique, quand celle-ci s’appuie sur la physique quantique à l’occasion des recherches concernant la gravitation quantique.

Nous ajouterions enfin que la démarche de Lee Smolin, qu’il l’ait conçue explicitement ainsi ou non, conduit à retrouver les bases neurologiques de la connaissance scientifique. Or celle-ci n’exclut pas le recours à l’imagination, fut-elle la plus débridée. Il s’agit de processus relatifs à l’élaboration de toutes connaissances, quelles qu’elles soient, dans un système cognitif tel que le cerveau, propre à tous les animaux dits supérieurs. Le cerveau constate à la suite d’expériences réussies initialisées sur le mode « essais et erreurs » un certain nombre de régularités. Il les désigne par des concepts ou les hiérarchise à l’intérieur de règles répétitives. Concepts et règles permettent d’identifier les nouveaux éléments d’observations auxquels se heurtent l’animal et son cerveau. Ceci que l’on se place au niveau du cerveau individuel ou du cerveau collectif partagé par le groupe.

Mais les concepts et les règles ainsi élaborés ne sont pas et ne peuvent pas être éternels. Ils doivent évoluer dans le temps au fur et à mesure que s’accumulent de nouvelles expériences qu’ils n’expliquent pas. C’est toujours l’expérience qui a le dernier mot. Si l’animal donnait la priorité à l’autorité de lois n’ayant pas évolué, il ne vivrait pas longtemps pour apprécier le bien fondé de son dogmatisme. Mais dire que l’expérience doit avoir le dernier mot ne veut pas dire que l’expérience passée puisse suffire à formuler de nouvelles hypothèses. L’expérience passée conduirait vite l’animal à ne plus porter d’attention aux changements du monde dangereux qui l’entoure. Elle doit être relayée par l’imaginaire et la spéculation théorique.
 

Pour en savoir plus
Lee Smolin. Il ne peut exister qu'un seul univers
http://physicsworld.com/cws/article/indepth/39306

Repost 0
25 mai 2009 1 25 /05 /mai /2009 21:20
18 mai 2009
Propos recueilis par Jean-Paul Baquiast


Ce texte a été relu par Jean-Jacques Kupiec
Voir aussi la présentation de son ouvrage sur ce blog
L'origine des individus, Fayard 2008




Jean-Jacques Kupiec est chercheur en biologie et en épistémologie au centre Cavaillès de l'Ecole Normale Supérieure de Paris. Il s'était fait connaître du public cultivé en publiant avec Pierre Sonigo ce qui fut une sorte de coup de tonnerre dans le ciel encore serein de la biologie moléculaire et du déterminisme génétique : "Ni Dieu ni gène. Pour une autre théorie de l'hérédité" (Seuil, 2000, réédité en 2003).
Voir notre présentation de ce premier livre

Depuis Jean-Jacques Kupiec a poursuivi ses recherches, afin de développer la théorie, ou si l'on préfère, le paradigme de l'ontophylogénèse, présenté dans ce premier livre. Dans cette ligne de pensée, l'ouvrage "L'origine des individus" constitue un travail considérable visant à faire connaître le phénomène d' "expression stochastique des gènes" dont l'auteur a été indiscutablement le premier à proposer un modèle explicatif, ceci dès 1980.

Mais c'est aussi un manifeste philosophique et politique visant à illustrer, dans un milieu de plus en plus pénétré par l'influence des chercheurs et des entreprises américaines, le type de recherches fondamentales auxquelles les scientifiques français excellent, et qui leur sont de plus en plus interdites aujourd'hui, faute des quelques milliers d'euros qui pourraient leur permettre de travailler sans s'obliger à produire en quelques mois un produit applicatif immédiatement commercialisable.

Nous remercions Jean-Jacques Kupiec d'avoir accepté cet entretien. Il nous a donné l'occasion d'aller avec lui au-delà des propos du livre, leur donnant ainsi un sens supplémentaire particulièrement éclairant.

Automates Intelligents

 

Jean-Paul Baquiast (JPB) pour Automates Intelligents : La première question que suscite non seulement la lecture de votre livre mais les nombreux échos très favorables qu'il a reçu dans la presse, tant scientifique que généraliste, concerne la pénétration en profondeur des idées véritablement révolutionnaires que vous défendez avec quelques collègues. Ces idées peuvent être résumées par quelques formules qui ont fait date : l'ontophylogenèse, le darwinisme cellulaire, l'hétéro-organisation. Elles ont été présentées dans la recension de votre livre publiée précédemment sur ce site. Ce que nous appellerions volontiers la bastille de la biologie moléculaire, de l'empire du «Tout-génétique», des carrières et des business qui y sont associés, en France comme ailleurs, commence-t-elle à se fissurer ? Avez-vous en d'autres termes gagné la bataille entreprise depuis plus de trente ans?

JJK. : La bataille a effectivement commencé pour moi en 1981 puisque j'avais à cette date exposé les principes de ce que j'appelle le darwinisme cellulaire à un colloque organisé par mon professeur de génétique Jean Tavlitzki(1). Depuis je les ai repris et développés dans deux articles publiés en 1983 et 1986, puis une autre série d'articles dans les années 1990, dans lesquels j'ai intégré de nouvelles données expérimentales et les résultats de la recherche épistémologique que j'avais entreprise entre temps.. «Ni Dieu ni gène» a marqué l'extension de ces idées dans le grand public. Où en est-on aujourd'hui?

Nous sommes dans une situation charnière. Il est clair que le dogme de la biologie moléculaire n'est plus. Il n'y a plus personne pour le défendre. Ce dogme enseignait qu'il existe une relation causale, linéaire, allant du gène à l'organe. La biologie moléculaire et la génétique qui s'en inspirent sont déterministes. Elles excluent la participation de tout mécanisme probabiliste (on parle de hasard, mais nous y reviendrons) dans le construction de l'individu lors de l'ontogenèse.. Or il est expérimentalement démontré aujourd'hui, par de multiples preuves, que le hasard intervient dans l'expression des gènes, c'est-à-dire dans la manière dont les gènes fabriquent les protéines. C'est ce que j'appelle l'expression stochastique des gènes – stochastique étant synonyme d'aléatoire.

JPB. : La bataille est donc gagnée ?

JJK. : Je ne dirais pas cela. Aujourd'hui, on n'entrevoit encore qu'à peine les conséquences de cette découverte. Certes, de plus en plus de chercheurs sont attentifs à la théorie du darwinisme cellulaire. Mais ceci se fait à plusieurs niveaux. Il y a en effet diverses façons d'interpréter les faits expérimentaux. On peut considérer que les expériences traduisent une marge de fluctuation dans les systèmes biologiques, mais que la théorie antérieure reste fondamentalement valable. On peut aussi considérer qu'elles impliquent un remaniement complet de la théorie, ce qui est mon point de vue. Même en ce cas, il apparaît différentes opinions dans la communauté des biologistes – je parle de ceux qui sont déjà alertés par l'importance de la découverte des mécanismes de hasard et des mécanismes probabilistes dans l'expression des gènes. Il y a néanmoins un progrès certain. En témoigne le livre que nous avons publié, «Le hasard au cœur de la cellule» où se sont exprimés de nombreux chercheurs venus d'horizons différents. Il ne s'agit donc plus d'idées totalement marginales(2). On ne peut pas dire que la partie soit entièrement gagnée. Il subsiste encore des noyaux de résistances très forts. Il est évident cependant que dorénavant les têtes de pont sont solidement établies...

JPB. : C'est Syllepse qui a édité ce dernier livre. Il s'agit d'un éditeur qui s'affiche comme matérialiste, ce qui est rare et bien utile dans un monde où prolifèrent les influences spiritualistes de toutes origines...

JJK. : Il est vrai que derrière la façon d'interpréter les mécanismes que j'ai décrits se trouvent des enjeux philosophiques plus importants, et donc des résistances. C'est pourquoi je continue à penser que nous ne sommes pas à l'abri d'une récupération. Il s'agit du même phénomène de résistance que le travail de Darwin avait suscité, à une bien plus grande échelle, dès sa parution. Il y a eu des récupérations spiritualistes multiples, provenant des tous les partisans de l'émergence et l'évolution créatrice de type bergsonien. Ils ont repris l'idée d'évolution pour en faire autre chose. Or je constate qu'il y a déjà des gens qui s'efforcent de faire de même aujourd'hui avec l'expression stochastique des gènes et l'ontophylogenèse. C'est tout le courant de l'auto-organisation, dont les défenseurs sont les descendants des émergentistes spiritualistes.

Il s'agit d'une véritable imposture intellectuelle. Les gens de l'auto-organisation n'ont jamais mis en avant des théories intrinsèquement probabilistes, surtout au niveau de l'expression des gènes. Maintenant que les biologistes moléculaires ont démontré le rôle fondamental du hasard en biologie moléculaire– ils ne pouvaient pas faire autrement – les partisans de l'auto-organisation essaient de récupérer les mécanismes correspondants pour les mettre à leur sauce.


Sur l'auto-organisation, l'émergence et…le réductionnisme


JPB. :
Arrêtons-nous sur deux points de vocabulaire : vous avez cité dans votre livre, comme ici dans cet entretien, les concepts d'auto-organisation et d'émergence en expliquant qu'ils excluent le rôle du hasard et de la sélection par le milieu extérieur. N'avez-vous pas de ces concepts une vue un peu réductionniste ? Il me semble que beaucoup de ceux qui évoquent l'auto-organisation dans les systèmes n'affirment pas qu'il s'agit de systèmes qui s'auto-organiseraient d'eux-mêmes ou sous l'influence d'un quelconque élan vital. Ils s‘auto-organisent par interaction avec un milieu et par sélection. C'est ce que montre bien par exemple le gros livre que E.O. Wilson vient de consacrer aux fourmis(3). Il n'y dit pas que les fourmilières sortent de la cuisse de Jupiter. Elles résultent pour lui de ce que Gilbert Chauvet, entre autres, nommait «le hasard contraint». Je dois dire, en appui de votre point de vue, que Wilson n'emploie pas de façon systématique le terme d'auto-organisation. Il parle de «superorganisme» comportant plusieurs paliers d'organisation.

JJK. : Il faut en effet de la clarté dans les débats intellectuels. Il y a eu des définitions très fortes du concept d'« émergence »(4). Celle-ci était présentée par les partisans de l'auto-organisation comme résultant d'un phénomène d'organisation spontanée dans le cadre de conceptions holistes. Mais on ne peut pas dire une chose et son contraire quand il s'agit d'en venir à la réalité expérimentale. A partir du moment où l'on dit que cette organisation se fait sous contrainte, il ne s'agit plus d'auto-organisation mais de ce que j'appelle l'hétéro-organisation. Autrement dit, on revient dans le champ du darwinisme. Le concept d'auto-organisation n'a plus de validité.

Précision importante : je ne connais aucun réductionniste, aussi obtus soit-il, pour penser qu'un système ne se constitue pas par interaction entre ses constituants (par exemple les molécules). Même Monod, prototype des réductionnistes, parle de morphogenèse spontanée. La question posée n'est pas celle de l'interaction des constituants d'un système, que nul ne conteste. Elle est de savoir ce qui guide ces interactions. Et là on trouve soit des chercheurs de bonne foi qui se laissent embarquer dans un spiritualisme implicite du fait de la confusion volontairement répandue, soit de ceux que je n'hésite pas à nommer des esprits malhonnêtes. Il y a clairement un courant de pensée apparu fin XIXe siècle, début XXe, qui a mis en avant le concept d'émergence sur lequel s'appuient les théoriciens de l'auto-organisation.

Pour les tenants de ce courant holiste-émergentiste, l'organisation apparaît spontanément. Quand vous mettez en présence telles ou telles molécules, des propriétés nouvelles vont spontanément émerger. Pour un matérialiste, cela pose un vrai problème, car cela signifierait qu'il y a saut qualitatif non réductible aux éléments de départ. On se trouverait alors dans une forme de création ex nihilo. On ne parle pas encore de l'influence d'un Dieu extérieur à la nature. Mais on s'en rapproche. On immerge Dieu dans la nature. Supposer une espèce de Création rampante est proche du spinozisme. C'est la position d'Henri Atlan.

Dans l' "Origine des individus", j'ai consacré un chapitre entier à la question. Ce n'est pas que j'aie une position a priori. Je voulais seulement regarder si les théories de l'auto-organisation peuvent répondre aux problèmes concrets qui sont posés par la stochasticité, par ces aspects probabilistes qui sont découverts à l'heure actuelle par les biologistes moléculaires eux-mêmes. J'ai présenté et discuté les principaux penseurs de l'auto-organisation : Prigogine, Kauffman, Atlan, Paul Weiss et d'autres biologistes américains. Dans certains cas, leurs travaux ont une certaine pertinence, par exemple celui que vous avez cité. Mais dans leurs analyses, on s'aperçoit qu'ils ne parlent plus réellement d'auto-organisation. D'un côté, on trouve des affirmations théoriques relatives à la création spontanée de propriétés qualitativement nouvelles, d'un autre côté, en analysant concrètement les modèles qu'ils proposent, on s'aperçoit qu'ils mentionnent toujours des contraintes environnementales. Ils les intègrent dans leurs modèles. Ils ne pourraient pas ne pas le faire sans nier l'évidence, mais ils n'en tiennent pas compte dans le discours final, dans la manière dont ils conceptualisent le phénomène.

Je donne l'exemple des convections de Bénard(5), qui constituent l'exemple paradigmatique toujours évoqué par les partisans de l'auto-organisation. Celles-ci ne se produisent que si on applique un gradient de température. Il s'agit donc d'une contrainte extérieure, produisant par conséquent ce que je nomme une hétéro-organisation. Dans tous les cas analysés dans mon livre, j'ai mis en évidence les contraintes externes appliquées aux systèmes au sein des modèles qu'ils ont développés. Je ne mets pas en doute ces modèles concrets. Prigogine savait résoudre des équations différentielles. Je conteste la récupération de ces mécanismes réels par le concept d'auto-organisation, laquelle selon moi relève du tour de passe-passe. C'est un enjeu très important pour les matérialistes.

Quant au mot émergence, que nous utilisons ici, je ne vais pas prétendre l'interdire. Il existe et désigne très bien le fait que constamment de nouvelles choses apparaissent au regard de l'observateur, y compris dans la vie quotidienne. Il y est bien adapté. Par contre, il est aussi devenu un concept clairement défini dans un dispositif théorique. Il a été utilisé par les partisans du holisme et de l'auto-organisation. Je fais un certain nombre de citations dans lesquelles les auteurs affirment la création spontanée de propriétés irréductibles et inexplicables. On ne peut selon eux que les constater, mais non les expliquer. Autrement dit, on réintroduit de l'irrationnel dans le domaine scientifique. Les matérialistes doivent y faire très attention. Ce n'est pas un hasard si aux Etats-Unis, des fondations connues comme créationnistes telle la Fondation Templeton soutiennent à fond les théories de l'auto-organisation.

Je voudrais ajouter que le mot de réductionnisme est un peu considéré de nos jours comme désignant une maladie honteuse de la pensée. Or il ne faut pas oublier que la science a toujours été et demeure réductionniste. Il s'agit d'un autre mot pour désigner la méthode analytique. Les grandes avancées de la biologie ont toujours été réalisées par des chercheurs utilisant cette méthode. Il faut le dire même y compris en tenant compte des critiques que l'on peut lui faire a posteriori. Critiquer le réductionnisme génétique, c'est critiquer une forme de réductionnisme très particulière et non critiquer le réductionnisme en général. Pour moi, d'ailleurs, le réductionnisme génétique n'est pas un vrai réductionnisme, au sens scientifique profond. Comme vous savez, je mets en avant le fait qu'il faille réintroduire dans les mécanismes biologiques l'importance du hasard brownien, les lois de la physique et plus particulièrement les lois de la physique statistique. Or cette position exprime une forme de physicalisme, une forme de réductionnisme, encore plus forte que le réductionnisme génétique. Comme je l'indique dans mon livre, il n'y a pas de différences de nature entre les lois physiques et les lois biologiques (ce qui ne veut pas dire que la biologie soit la même chose que la physique). Or dire cela, c'est défendre une forme de réductionnisme que je trouve indispensable.

JPB. : On pourrait ajouter que parler de mouvement brownien ne veut pas dire que les molécules individuelles (à supposer que ce concept de molécule individuelle ait un sens) n'obéissent pas à de micro-lois qu'un instrument très puissant, comme celui dont rêvait Laplace, pourrait observer. Chaque molécule est soumise aux lois de Newton.


Sur le hasard


Ceci nous reconduit à votre théorie de l'ontophylogenèse. Vous faites appel au hasard, mais vous ne dites pas qu'il s'agisse d'un hasard de nature extranaturelle. C'est un hasard qui pourrait être analysé si l'on pouvait remonter au niveau des micro-déterminismes qui font que tel gène active telle protéine et non telle autre. C'est un hasard qui laisse ouvert la voie à des études plus approfondies...

JJK. : Bien sûr. Le mot hasard est généralement mal compris. On est obligé d'employer ce mot pour que les gens comprennent ce que l'on veut dire, mais c'est un très mauvais terme. Il sous-entend en quelque sorte l'irrationalité. Le mot adéquat est probabilité. Le calcul des probabilités est une technique qui permet une approche rationnelle de toute une série de phénomènes qui auparavant étaient couverts par le mot hasard. On s'est aperçu que l'on pouvait avoir une approche rationnelle grâce à un outil technique développé par l'homme, le calcul des probabilités, qui permet de réintroduire de la rationalité là où l'on n'en voyait pas. C'est tout le contraire de ce que l'intuition commune entend quand on fait appel à l'absence de causes, au chaos, etc. Le calcul des probabilités permet de faire des prédictions très précises.

JPB. : Vous n'ignorez pas que c'est exactement ce que disent les physiciens quantiques. Même si vous ne voulez pas, très modestement, sortir de votre discipline, la biologie, il peut être utile de faire remarquer les convergences. Elles font apparaître ce que l'on pourrait appeler une science des méta-systèmes, une méta-science, qui devrait être très éclairante à l'avenir...

JJK. : C'est possible en effet. Je crois cependant qu'il faut être d'une extrême prudence dans l'exportation des concepts d'une discipline à une autre. Je me place en disant cela du point de vue de la biologie. La biologie du XXe siècle a souffert d'une importation non contrôlée des concepts de la cybernétique : les notions de programme, d'information, y ont été particulièrement funestes. Personnellement, je suis conscient de mes limites et je ne veux pas me hasarder à parler de choses que je connais moins bien.

JPB. : Ceci vous honore. Convenez cependant que si les notions de programme ou d'information développés par l'informatique linéaire des années 1960 sont mal venues en biologie, les nombreux travaux menés avec des populations de robots évolutionnaires donnent aujourd'hui un sens très concret au darwinisme appliquée à la biologie. On voit comment, sans que cela ait été programmé à l'avance par des programmeurs de génie, de tels robots acquièrent, selon les processus du hasard contraint, différentes capacités non seulement propres aux êtres vivants mais aussi à leurs cerveaux.

Je voudrais aussi vous dire un mot de la neurologie. Si l'on considère que le cerveau est composé (image) de milliers d'unités discrètes interagissant pour produire à tout instant des milliers de représentations du monde, lesquelles entrent en compétition pour produire une formulation langagière unique à la suite de contraintes internes et externes diverses, ne pourrait-on pas pour décrire ces mécanismes utiliser les formules que vous appliquez au darwinisme cellulaire ?

JJK. : C'est exact. Il y a deux théories faisant appel au darwinisme pour expliquer le fonctionnement du cerveau, celle de Danchin et Changeux (1973) dite de la stabilisation sélective des synapses(6), et celle d'Edelman, qui a plus ou moins reprise celle de Changeux sous le nom de darwinisme neural (1987) On peut citer aussi les descriptions darwinienne du système immunitaire. Rien de cela n'est remis en cause, bien au contraire.


Réunifier l'ontogenèse et la phylogenèse


JPB.
: Je pense que vous devriez ici, pour ceux qui liront cet entretien, expliquer pourquoi vous avez proposé d'unifier l'ontogenèse et la phylogenèse. C'est véritablement le point le plus fondamental de votre théorie (je souligne), le plus révolutionnaire, le plus susceptible de répercussions multiples. Il faut absolument que les lecteurs le comprennent...

JJK. : Oui. Rappelons que l'on désigne par ontogenèse la genèse de l'individu, la phylogenèse désignant celle de l'espèce. Depuis toujours, on a considéré qu'il s'agissait de deux processus différents, pour lesquels il fallait développer deux théories différentes. Dans la période actuelle on a, d'un côté, pour la phylogenèse, une théorie de l'évolution qui est la théorie néo-darwinienne faisant appel à la sélection des variants apparus lors de certaines mutations et de l'autre côté, concernant l'ontogenèse, l'embryogenèse des animaux adultes qui est sous contrôle, autrement dit qui résulte, de l'expression du programme génétique inclus dans l'ADN.

Or le problème fondamental est qu'en fait les espèces n'évoluent pas. L'espèce chien n'a pas évolué en renard. Non plus que l'espèce cheval en âne. Tout simplement parce que l'espèce est une entité abstraite. Ce ne sont pas les espèces qui évoluent, mais des individus. Dans la réalité, la seule chose qui existe, c'est la reproduction continuelle des individus. Il faut donc nécessairement qu'il y ait un point de contact entre les deux théories.

J'insiste là-dessus, car la question n'est pas évidente. Elle est pourtant essentielle, car elle a des implications philosophiques. Cette question traverse à mon avis toute l'œuvre de Darwin. Celui-ci a déconstruit le réalisme de l'espèce (le fait que l'on considère l'espèce comme une réalité en soi) pour en arriver à une conception généalogique qui se traduit par l'idée d'un continuum d'individus. Comme on avait jusqu'ici considéré qu'il y avait deux processus différents, on a développé pour les expliquer deux théories différentes. C'est de là que proviennent toutes les contradictions théoriques et expérimentales (car la théorie influence les expériences que l'on bâtit à partir d'elles) ayant jusqu'à présent affecté la biologie.

J'ai crée le concept d'ontophylogenèse pour dire qu'il n'y a qu'un seul processus et que l'on ne doit avoir qu'une seule théorie pour le décrire. La théorie néodarwinienne actuelle a opéré une régression théorique par rapport à Darwin puisque celui-ci n'avait de l'espèce, comme nous venons de le dire, qu'une conception généalogique. Dans le cadre de la biologie moléculaire, on en est revenu à un réalisme de l'espèce : celle-ci correspond à une structure identifiable correspondant elle-même à une information génétique.

JPB. : Ce que vous avez montré, sauf erreur de formulation de notre part, c'est qu'un seul et même processus, celui de la sélection des variants apparus au hasard, peut jouer aussi bien dans la formation de l'individu adulte au moment de l'embryogenèse (le darwinisme cellulaire) que dans la sélection des individus adultes capables de survivre aux contraintes de l'environnement et susceptibles d'être regroupés ensuite par un observateur extérieur en catégories homogènes que l'on baptisera espèces par commodité, s'ils présentent des caractères globalement semblables...

JJK.: Oui. On peut noter d'ailleurs que l'idée darwinienne selon laquelle il n'existe que des reproductions d'individus avait été clairement exprimée par Claude Bernard dans un texte dont je donne la citation intégrale.

JPB. : Vous avez bien fait de rendre hommage à Claude Bernard, trop souvent oublié aujourd'hui. Mais comment expliquez-vous que des gens supposés intelligents, et qui ne soient pas guidés par une idéologie spiritualiste, aient pu supporter si longtemps la contradiction induite par le néo-darwinisme ?

JJK. : C'est qu'en biologie, les implications idéologiques sont si fortes qu'il a fallu un considérable travail scientifique pour se dégager des a priori psychologiques, philosophiques, métaphysiques qui gênent le développement des idées. En biologie, ces a priori sont encore plus prégnants qu'en physique. On y parle constamment non seulement des espèces, mais aussi de l'espèce humaine. Or renoncer au réalisme de l'espèce, renoncer à l'idée que l'espèce est une entité réelle, c'est aussi renoncer à l'idée que l'espèce humaine serait une entité réelle. En tant qu'être humain, nous avons probablement là un problème par rapport à notre propre identité. Les concepts d'information et de programme génétique ont donc réintroduit le réalisme des espèces, en partie sans doute de manière inconsciente pour résoudre ce problème d'identité. On affirme ainsi qu'il existe une structure réelle correspondant à une information et un programme génétiques qui définissent l'Homme. De là découlent toutes les régressions.

JPB. : Le concept de stéréospécificité, que vous avez très largement démoli, visait à démontrer qu'il y avait un ordre moléculaire, correspondant à l'ordre de l'espèce.

JJK. : Les biologistes moléculaires ont projeté le concept d'espèce ou de spécificité sur le monde moléculaire. La stéréospécificité des molécules repose en effet sur l'idée que les molécules sont spécifiques, qu'il y a des classes de molécules lesquelles réagissent les unes avec les autres d'une façon définie, et qu'il existe finalement un ordre moléculaire. On évacue totalement le hasard (au sens que nous avions défini toute à l'heure) du monde moléculaire de la biologie. On veut montrer qu'au niveau moléculaire, il règne un ordre parfait des molécules, une sorte de défilé militaire du 14 juillet, les bataillons de molécules entrant en scène les uns après les autres. Or on c'est aperçu que cela était faux. Cet ordre moléculaire est le reflet de l'ordre correspondant à l'information génétique contenue dans les gènes. C'est d'ailleurs inscrit dans l'étymologie du mot qui vient de genos en grec c'est-à-dire le genre ou espèce.


La structuration des protéines


JPB. :
Le concept de stéréospécificité était lié à la découverte du repliement de la molécule et à la possibilité qu'elles ont de mettre ainsi en concordance des sites actifs afin de produire des interactions univoques entre elles. Cela est-il abandonné aujourd'hui ?

JJK. : Oui et non. Les biologistes moléculaires considèrent toujours qu'il existe une structure tridimensionnelle des protéines. Mais, pour vous donner une idée, ils savent aujourd'hui que 30 à 60% des protéines ont des régions entières qui ne peuvent pas spontanément donner de structures secondaires, donc qui ne pourront pas donner de structures tridimensionnelles. On les appelle des régions intrinsèquement désordonnées. Ceci n'a rien d'anecdotique. Très souvent il s'agit de plus de 50% de la protéine. Ce ne sont pas des régions marginales, car elles touchent aux sites actifs. Dans certains cas, c'est la protéine entière qui est totalement désordonnée.

Qu'est-ce qui confère alors leur structure à ces protéines ? Ce n'est pas l'information contenue dans le gène, comme l'affirme le dogme génétique, mais c'est le fait qu'elles rencontrent une autre protéine. C'est donc l'interaction avec une autre protéine qui va stabiliser la protéine. Mais en fonction de l'autre protéine rencontrée, la première sera stabilisée sous des formes totalement variables. On sait maintenant qu'une protéine impliquée dans la structuration de la chromatine et l'expression des gènes peut se stabiliser, interagir, avec plusieurs dizaines de gènes différents. Dans certains cas, deux protéines peuvent interagir ensemble de deux façons différentes. Il y a donc là obligatoirement un élément d'aléatoire considérable.

Ceci pour dire que l'absence de la stéréospécificité ne signifie pas seulement qu'une protéine puisse interagir avec de nombreux partenaires parce qu'elles ont les mêmes séquences d'interaction. Elle signifie aussi que la protéine est intrinsèquement capable de se structurer différemment. Ce qui fait que la protéine est ce qu'elle est, c'est son histoire en temps réel dans la cellule, et pas l'information codée dans le gène dont elle est issue. On est donc obligé de remettre en cause de fond en comble tout ce que l'on s'imaginait connaître. Ce dont nous parlons en ce moment résulte de travaux très récents, parallèles à ceux concernant l'expression des gènes.

JPB. : Il reste que, comme pour ce qui concerne l'expression stochastique des gènes, les gens qui étudient ce que vous appelez la structuration stochastique des protéines, en fonction des partenaires qu'elles vont rencontrer, n'en tirent pas toutes les conclusions qui s'imposeraient.

JJK. : Oui. Il faut tenir compte de l'échelle d'observation à laquelle on se place. Au niveau moléculaire, il n'y a pas de spécificité, il y a de la stochasticité. Mais, au niveau macroscopique, à notre niveau, il apparaît une forme d'ordre. Nous parlions d'espèces. Elles évoluent lentement. Il y a des individus qui se ressemblent parce qu'ils sont proches généalogiquement, dans le temps. Toute la question est de savoir pourquoi malgré tout il y a de l'ordre qui apparaît au niveau macroscopique. La théorie de l'ontophylogenèse que j'ai proposée consiste à dire que c'est justement là qu'interviennent les contraintes. Ceci veut dire que le niveau moléculaire est intrinsèquement aléatoire. On pensait que cela constituait un inconvénient en biologie, en empêchant par exemple l'apparition d'individus viables. Or c'est un avantage car il s'agit d'une réserve de diversité, de plasticité adaptative. Mais cette diversité est contrôlée par les contraintes sélectives qui viennent de l'environnement et qui se propagent dans l'organisme via les structures cellulaires et pluricellulaires. Cela, c'est la théorie du darwinisme cellulaire. C'est donc un renversement complet par rapport au principe du programme génétique.

JPB. : Il me semble que vous devriez mettre en valeur une conséquence importante de votre théorie. Au niveau macroscopique et dans l'espace de quelques générations, les modalités d'évolution des individus et des espèces n'apparaissent pas. Mais si l'on veut rentrer dans le détail et faire apparaître des mutations fussent-elles initialement mineures mais pouvant être lourdes de conséquences, il faut comprendre comment elles se produisent. Vous avez évoqué dans votre livre cette problématique à propos de l'étude de la cancérisation dont le processus peut s'initialiser au niveau d'une seule cellule. J'y reviendrai plus loin.

JJK. : Bien sûr. Nous, en tant qu'observateurs, nous faisons des regroupements permettant de parler d'espèces. Mais il n'y a jamais deux entités qui soient rigoureusement identiques. Là, on aborde la question du nominalisme et la querelle des universaux. Darwin l'avait bien dit. Il a écrit quelque part que « nul ne peut nier que les individus ne sont jamais coulés dans le même moule ». Darwin a rédigé des pages entières pour démontrer qu'il n'existe pas de noyaux structurels d'invariance. Tout peut varier et c'est cette variabilité qui permet l'évolution. Ceci dit, les regroupements que nous créons, à notre échelle, ont une certaine validité. Nous avons besoin de nous repérer, ne pas confondre un cheval et un chien.

JPB. : Dans une certaine mesure, on peut donc dire que le milieu influence la façon dont l'individu se reproduira. Il entraîne des conséquences sur ce que l'on appelle l'espèce. Ne pourrait-on dire que l'on en revient d'une certaine façon au lamarckisme. Tout ne se fait pas par mutations désordonnées. Quand je parle du milieu, il s'agit du milieu naturel et pas du milieu culturel. On sait depuis longtemps que le milieu culturel influe en termes épigénétiques sur le développement des individus regroupés en société, mais il s'agit d'une problématique différente de celle examinée ici. Je fais allusion dans ma question à un milieu extérieur à l'individu et à l'espèce. Pour reprendre l'image canonique des girafes, si celles-ci ont acquis un long cou, ce n'était pas pour brouter les feuilles des arbres élevés ni même en étirant leur cou pour ce faire. Elles ont acquis un long cou parce que des mutations survenues au hasard, au sein des cellules germinales de lignées d'individus contraints par la nécessité de survivre en se nourrissant de feuilles d'arbres, ont ouvert à ces individus un nouveau créneau d'adaptation, la possibilité d'atteindre le sommet des arbres – mutations au hasard n'étant pas survenues dans d'autres lignées d'individus, par exemple chez les chèvres.

JJK.: Vous avez raison, mais comme vous l'indiquez vous-mêmes, on n'en revient pas avec ma théorie au lamarckisme proprement dit. De plus, on peut préciser qu'il ne s'agit pas d'une influence du milieu répétée à chaque génération. Je pense que le milieu s'intériorise. A un moment donné, nous disposons d'une certaine structure. Cette structure est le résultat de toute notre histoire passée, qui remonte à la première cellule vivante. Cette structure, on la transmet à nos descendants dans nos cellules germinales. Un œuf, l'ovocyte chez les mammifères, est une cellule déjà hautement structurée. Cette structure est le résultat de contraintes environnementales ayant agi dans l'histoire de la lignée généalogique dont nous sommes le dernier maillon. Nous la transmettons à nos descendants et c'est cette structure là, la structure cellulaire, qui va contrôler l'expression des gènes, qui va permettre de réduire et d'orienter la stochasticité inhérente au niveau moléculaire.

Comme cette structure, en ce qui nous concerne, représente ce que nous appelons l'être humain, l'individu qui va être créé à la génération suivante sera aussi un être humain. Ceci explique que, sans faire appel à la notion de gène, on puisse comprendre la reproduction de structures appartenant à la même espèce. Précisons à l'occasion qu'il existe deux structures qui vont rester en interaction permanente avec l'environnement et évoluer en conséquence, indépendamment du vieillissement qui affecte le reste du corps. Il s'agit du cerveau et du système immunitaire.

JPB. : Je reviens sur ces points qui sont importants. Dans une première version de la recension que j'avais faite de votre livre, j'avais écrit : «On peut dire d'une façon imagée que les molécules sont agitées d'un mouvement brownien n'excluant pas la construction temporaire de structures qui se désassemblent aussitôt qu'assemblées, sauf à rencontrer un environnement favorable, atomique ou thermique, propice à leur persistance. Ces structures, qui ont toutes par définition des composants et des organisations différentes (aucun plan d'ensemble ne guidant leur assemblage) entrent en compétition darwinienne les unes avec les autres. Celles qui survivent constituent des structures plus complexes que l'on pourrait qualifier de niches écologiques imposant des contraintes sélectives orientées aux nouvelles venues. Chacune constituent à son niveau des «milieux extérieurs» jouant le rôle d'agents sélectifs au sein d'un milieu intérieur plus vaste. Ainsi apparaissent des tissus, des organes, des fonctions et de nouvelles sources de création de structures. Progressivement des structures cadres se forment et se stabilisent.».

Or vous m'avez répondu : «Ce passage est important. Il pose la question de l'origine. Pour moi, il n'y a pas construction de structures puis constitution d'un environnement. Ce qui laisserait intacte l'idée d'une origine homogène et identifiable. Du fait du caractère intrinsèquement probabiliste du réel, on est d'emblée dans l'hétérogène, donc d'emblée il y a un intérieur et un environnement. De manière plus explicite : il n'y a pas d'origine». J'ai donc retiré mon paragraphe. Mais dans la suite de ce que nous disons ici, pouvez vous m'expliquer cette remarque, alors que précisément je pensais avoir traduit votre pensée. Je n'avais pas fait allusion à une origine quelconque – sauf peut-être à l'émergence initiale de la matière à partir de l'énergie du vide quantique.

En revanche , je voulais exprimer une idée que j'avais retenue en travaillant avec un ami biologiste, malheureusement mort depuis, Gilbert Chauvet, père de la « physiologie intégrative »(7). Il avait réalisé un modèle informatico-statistique du corps humain et de son évolution illustrant le principe de ce qu'il avait, lui aussi, nommé le hasard contraint. Sans se placer comme vous au niveau moléculaire, il n'en était pas loin, car il étudiait notamment le devenir des intrants pharmacologiques dans l'organisme. Ce type d'approche, je suppose, vous ne le niez pas…

JJK. : Non, bien sûr. Votre passage était bon et il ne fallait pas le retirer. Mais je voulais seulement attirer l'attention sur le fait qu'il pouvait induire un malentendu sur la question de l'origine. On aurait pu penser en vous lisant qu'il existait une origine, par exemple au niveau moléculaire, à partir de laquelle toutes les molécules et structures macromoléculaires se seraient constituées. Or cette idée de l'origine, pour les matérialistes, pose un problème important. Comme mon livre s'intitule l'Origine des individus, ce qui fait allusion à l'Origine des espèces de Darwin, j'ai voulu préciser dans l'introduction qu'il fallait exclure du champ la question de l'origine, comprise comme l'origine temporelle, comme le début d'une histoire. L'origine peut pour moi être comprise de deux façons. Soit il s'agit de l'origine chronologique, qui pose la question de l'avant et donc du Pourquoi, soit il s'agit plus simplement du mécanisme qui donne naissance à… Or Darwin ne parle jamais de l'origine chronologique. Parce que c'est une question métaphysique dans laquelle il ne voulait pas s'engager, dans la mesure où elle renvoie au Pourquoi.

Aujourd'hui, des biologistes essaient de retrouver l'origine de la vie. Mais pour moi, cela ne dira pas grand-chose sur les origines de la vie et moins encore sur ce qu'il y avait avant car ils utilisent pour leurs essais la connaissance qu'ils ont de la vie telle qu'elle est devenue aujourd'hui. Quant à la « réalité » quantique dont vous m'avez parlé et dont la matière et la vie seraient issues, je ne peux y voir par définition que du stochastique. Si la réalité est intrinsèquement stochastique, elle l'était au temps t. Donc l'origine est floue. Et si elle était stochastique, elle était déjà riche de plusieurs potentialités. Elle était hétérogène et non homogène. Autrement dit, il existait d'emblée des frictions entre un environnement et quelque chose que l'on pourrait considérer comme un intérieur. Ceci est important.

JPB. : En vous écoutant et sans vouloir à tout prix vous entraîner dans la cosmologie théorique (dont je ne parle moi-même qu'en béotien), je suis frappé de la convergence entre ce que vous dites et par exemple les hypothèses de la théorie des cordes, selon lesquelles un nombre quasiment infini d'univers aux variables fondamentales différentes peuvent se matérialiser à tous moments du fait des fluctuations aléatoires du vide. Dès qu'un de ces univers émerge, il se construit avec des lois fondamentales qui constituent ses propres processus de sélection des structures physiques voire biologiques voire neurologiques qui peuvent y apparaître. On retrouverait donc alors, à la vaste échelle des multivers, une généralité dans un processus stochastique contraint du type de celui que vous décrivez...

JJK. : Je suis d'accord avec vous, mais je pense qu'il faut être prudent quand on opère des généralisations..


Modélisation informatique de l'ontophylogenèse.


JPB.
: Je voudrais vous poser une autre question, relative à la réutilisation possible des modélisations informatiques que vous avez réalisées en appui de votre théorie de l'ontophylogenèse. L'objectif serait d'étendre le champ de la programmation génétique, de façon à faire évoluer des systèmes artificiels obéissant non aux lois d'un darwinisme simple (mutation/sélection) mais aux logiques plus complexes que vous avez étudiées. Je pense en effet qu'il serait intéressant de simuler l'ontophylogenèse pour comprendre ce qui se passe dans des organismes tels que ceux désignés sur notre site par le concept de bioanthropotechniques, ou dans un autre domaine, pour comprendre comment des cerveaux artificiels pourraient construire des idées cohérentes à partir d'entrées-sorties multiples…et aléatoires....

JJK. : Je pense que oui. Des chercheurs s'y intéressent déjà. J'ai des contacts avec un scientifique québécois, Jean Jules Brault, qui y réfléchit(8). J'ai également rencontré des collègues du LIP6, dont Samuel Landau, ou du monde des Télécommunications, par exemple Dominique Pastor. Ils veulent faire du «bioinspiré» dans le domaine du traitement de signal ou analyse du web.

JPB. : C'est très bien, mais cela devrait être beaucoup plus général. Il existe des quinzaines de projets financés par la recherche européenne qui portent sur la robotique évolutionnaire. Chacun d'entre eux, me semble-t-il aurait le plus grand intérêt à s'intéresser à vos idées.

Le financement des recherches en France

JJK. : Vous avez raison, mais je me bats déjà dans mon domaine pour obtenir quelques crédits de recherche. Je ne me vois pas encore ouvrir un nouveau front. Dans mon domaine, vous serez certainement intéressé de savoir que j'ai participé avec des collègues dont Olivier Gandrillon à l'Université Claude Bernard de Lyon, Guillaume Beslon à l'INSA de Lyon, François Chatelain au CEA et Andras Paldi au Généthon d'Evry, à la création d'un consortium. Il s'agit d'équipes d'expérimentateurs qui travaillent directement sur ces idées d'expression stochastique et de différenciation cellulaire.

JPB. : Je suppose que vous déplorez, comme beaucoup de vos collègues, le peu d'intérêt que manifestent pour des recherches comme les vôtres ceux qui en France financent la recherche fondamentale...

JJK. : Oui. Je constate que les idées nouvelles, telles que celles que je défends, ont un plus grand écho à l'international qu'en France. C'est important à dire car en France on a de plus en plus tendance à n'attribuer de valeur qu'à ce qui est publié à l'étranger. J'avais ainsi été contacté, bien avant d'écrire la version française de mon livre, par l'éditeur de la version anglaise(9). De ce point de vue, qui n'est pas forcément le mien, mon travail est donc reconnu. Mais je constate par ailleurs que des articles reprenant souvent de manière très proche ce que j'avais précédemment publié paraissent dorénavant dans des revues étrangères, sans bien entendu me citer.

JPB. : Je trouve cela scandaleux, sachant que votre livre est non seulement révolutionnaire mais représente un travail de longues années. Cependant ce que vous dites ne m'étonne pas. Pour des raisons relevant de différentes causes, dont un masochisme intellectuel certain, les Français considèrent que rien de valable ne peut être réalisé en France. Il existe une névrose d'échec française. Tout doit provenir des Etats-Unis. Le soft-power américain a bien joué son rôle de colonisateur puisqu'il nous en a persuadés, ceci dès avant la seconde guerre mondiale. Mais l'aveuglement continue. D'un autre côté, l'incompétence scientifique de nos décideurs, tant politiques qu'universitaires, ne contribue pas à renverser la tendance.

Comme vous le savez, nous avons créé ce site et cette Revue, Christophe Jacquemin et moi, à titre individuel et bénévole, pour lutter contre cette névrose française consistant à cette intériorisation d'une prétendue infériorité de nos productions par rapport aux productions américaines. Mais notre audience reste limitée. Nous rencontrons constamment des gens qui se félicitent d'avoir réussi à imiter ce qui avait été fait à Boston trois ans auparavant. Vous pouvez être certain que ceux qui vous plagient en ce moment aux Etats-Unis, sans vous référencer, vont réintroduire sous peu vos thèses en Europe, sous pavillon américain. A ce moment tout le monde s'extasiera sur la créativité anglo-saxonne !

JJK. : Oui, ils le font déjà. Mais que faire contre cela ?

JPB. : Après vous avoir écouté, nous nous demandons si vous ne devriez pas faire un effort pour convaincre le grand public de l'intérêt pratique des recherches sur l'ontophylogenèse. Le darwinisme parle à beaucoup de bons esprits, qui voient à peu près ce dont il s'agit. On en a même tiré des conséquences politiques qui ont beaucoup nui à la science, comme celles relatives à l'élimination obligée des faibles par les forts. Dans votre domaine, ne pourriez-vous pas montrer que des enjeux très forts pourraient découler d'un approfondissement de vos recherches. Je pense par exemple à la lutte contre le cancer. Vous en parlez dans votre livre. Il est évident que, si vos recherches ne peuvent mener directement à la prévention de la cancérisation, elles semblent éclairer directement les mécanismes par lesquels une cellule se met brutalement, peut-être par hasard, à proliférer en s'affranchissant des contraintes résultant du fonctionnement normal de l'organisme. Pourquoi ne pas déposer un projet de recherche fondamental portant sur un ou plusieurs aspects de cette question ?

JJK. : Je ne dis pas non, mais je crains que nous ne soyons dans un pays où l'on n'ose plus rien faire d'audacieux. La crise y aide, bien évidemment. Il faut en finir. Mais comment ? Je suis persuadé que ce que je suis en train de faire est meilleur que ce qui se fait aux Etats-Unis. Mais nous avons besoin de soutiens matériels pour poursuivre de telles recherches. J'ai déposé des projets de financement. Le consortium dont je vous ai parlé le fait à son tour. Pourtant, systématiquement, nos demandes sont rejetées. Personne ne veut prendre de risques.

JPB. : Cela tient sans doute en partie au fait que les biologistes qui vous jugent pour vous financer se sentent menacés dans leur carrière par de tels projets. Il s'agit d'un problème que l'on rencontre partout.

Pour notre part, nous aimerions faire quelque chose pour vous aider, en dehors de publier le présent entretien. Peut-être pourrons-nous en reparler. Christophe Jacquemin et moi, nous vous assurons qu'en tous cas nos colonnes, comme l'on dit, vous sont ouvertes. Vous êtes au cœur de véritables problématiques, non seulement de connaissances fondamentales, mais de santé publique. Nous devons en persuader nos lecteurs.

JJK. : Merci.


Notes. Ces notes sont d'Automates Intelligents et n'engagent pas JJK.

(1) Lire de Jean Tavlitzki et Emile Noël l'ouvrage «12 clefs pour la biologie», Belin 1985
(2) « Le hasard au coeur de la cellule, probabilités, déterminisme, génétique » Collection Matérialogiques, Editions Syllepse, février 2009, collectif dont Jean-Jacques Kupiec a coordonné la rédaction.
(3) Bert Hölldobler et E.O. Wilson. The Super-Organisme. The Beauty, Elegance and Strangeness of Insect Societies. Norton 2009. Nous présenterons prochainement ce livre admirable sur ce site.
(4) Emergence «forte» par opposition à l' « émergence faible ». Ce dernier terme se borne à désigner l'apparition au regard d'un observateur de phénomènes que sa connaissance trop imprécise des déterminismes sous-jacents ne lui avait pas permis de prévoir : on parle par exemple de l'émergence d'une nouvelle souche virale. Voir notre discussion de l'émergence dans notre article «De l'évolution et de l'émergence»
(5) Convections de Bénard : voir Cellules de Bénard
http://fr.wikipedia.org/wiki/Cellules_de_Benard
(6) Sur Jean-Pierre Changeux : voir notre recension de son ouvrage Du Vrai, du Beau et du Bien

(7) Sur Gilbert Chauvet, voir notamment notre entretien
(8) Jean-Jules Brault. Voir http://www.polymtl.ca/recherche/rc/professeurs/details.php?NoProf=83
(9) La version anglaise de l'ouvrage a paru sous le titre "The Origin of Individuals" chez World Scientific en mars 2009.

Repost 0
15 mai 2009 5 15 /05 /mai /2009 17:13




L'origine des individus

Par Jean-Jacques Kupiec

Fayard. Le temps des sciences 2008

La version anglaise de l'ouvrage a paru sous le titre The Origin of Individuals chez World Scientific, en mars 2009.

 

Présentation et commentaires par Jean-Paul Baquiast - 12 mai 2009

 


Jean-Jacques Kupiec est chercheur en biologie et en épistémologie au centre Cavaillès de l’Ecole Normale Supérieure de Paris. Il s’était fait connaître du public cultivé en publiant avec Pierre Sonigo ce qui fut une sorte de coup de tonnerre dans le ciel encore serein de la biologie moléculaire et du déterminisme génétique : Ni Dieu ni gène. Pour une autre théorie de l’hérédité (Seuil, 2000, réédité en 2003).
Voir notre présentation sur ce site:
http://www.automatesintelligents.com/biblionet/2000/dec/jj_kupiec_p_sonigo.html

Depuis Jean-Jacques Kupiec a poursuivi ses recherches, afin de préciser la théorie, ou si l’on préfère, le paradigme de l’ontophylogénèse, présenté dans ce premier livre.

« Ni Dieu ni gène » avait déjà suscité de nombreuses réactions. Il en est de même de « L’origine des individus ». On les trouve facilement sur le web. Mais généralement, il s’agit de courtes présentations du livre et de l’auteur, d’ailleurs toutes laudatives. Notons cependant un effort d’approfondissement, sous forme d’un entretien avec l’auteur, du à notre consoeur Véronique Anger de Friberg, dans Les Di@logues Stratégiques,
Le site Agoravox a republié cet article. On y lira les commentaires, souvent naïfs, parfois inutilement agressifs d’internautes ayant lu (ou n’ayant pas lu) Jean-Jacques Kupiec. Celui-ci a pris la peine de répondre de façon éclairante aux principales objections.
:
En ce qui concerne l’édition papier, rappelons que Jean-Jacques Kupiec a publié, seul ou en collaboration, de nombreux articles scientifiques recensés dans la bibliographie du livre.

Récemment, la revue Pour la science a fait paraître deux articles de Jean-Jacques Kupiec, dont le dernier « Le darwinisme cellulaire » (in le Dossier « L’évolution », Avril-Juin 2009), reprend l’essentiel de sa thèse (accès payant). le dossier dans son ensemble éclaire bien les points de vue actuels sur l'évolution. On notera un article sur la sélection de groupe: "Pour le bien du groupe" de D.Wilson et E. Wilson. p.78.

Enfin, un ouvrage collectif tout récent, « Le hasard au cœur de la cellule, probabilités, déterminisme, génétique » Collection Matérialogiques, Editions Syllepse, février 2009, dont Jean-Jacques Kupiec a coordonné la rédaction, commente ou développe les thèses de « L’origine des individus », en tenant compte de sensibilités différentes.. Nous en conseillons vivement la lecture (voir http://www.syllepse.net/lng_FR_srub_63_iprod_415-Le-hasard-au-c-ur-de-la-cellule.html )


Il n’est pas facile de faire un commentaire original à propos d’un livre qui a déjà reçu un accueil très favorable, et qui a fait l’objet de nombreuses présentations pertinentes. Ou bien le chroniqueur se borne à reprendre ces présentations en les réécrivant un peu, ou bien il veut innover mais pour cela il doit prendre le risque d’écrire des inexactitudes, ceci dans les deux domaines où l’auteur excelle, la biologie et l’épistémologie.

C’est pourtant ce risque que nous allons prendre, en livrant ici notre interprétation de l’œuvre d'ensemble de Jean-Jacques Kupiec. Il s’agit d’une interprétation dans la forme et non dans le fond – sauf in fine. En ce qui concerne le fond en effet, nous nous sommes efforcés de rester fidèle à la pensée de l’auteur, même si nous n’avons pas ici repris tous ses développements. Ceci pour dire que la lecture approfondie d’un livre qui n’est pas très facile (sans être difficile) s’impose à tous ceux s’intéressant à l’évolution contemporaine des recherches en biologie.

Pourquoi l’ontophylogenèse


Selon Wikipedia, « L’ontogenèse (ou ontogénie) décrit le développement progressif d'un organisme depuis sa conception jusqu'à sa forme mature, voire jusqu'à sa mort. En biologie de l'évolution, on oppose souvent l'ontogenèse, l'histoire d'un individu particulier, et la phylogenèse, l'histoire évolutive de l'espèce à laquelle appartient cet individu ». Notons d’emblée que pour le rédacteur de cet article, le phylum auquel fait allusion le terme de phylogenèse se confond avec celui d’espèce. Dans un autre article de Wikipedia, consacré à la phylogénie, la définition du phylum est plus large: « La phylogénie est l'étude de la formation et de l'évolution des organismes vivants en vue d'établir leur parenté. La phylogenèse est le terme le plus utilisé pour décrire la généalogie d'une espèce, d'un groupe d'espèces mais également, à un niveau intraspécifique, la généalogie entre populations ou entre individus ». Dans cette définition, l’espèce cesse alors d’être présentée comme une entité en soi, qui se retrouverait sous des formes différentes dans l’ensemble des êtres vivants, mais comme une façon de regrouper des individus présentant globalement un ensemble de caractères communs, les différenciant d’autres populations. L’intérêt se porte alors non plus seulement sur une lignée particulière, mais sur le processus de formation des lignées évolutives sous l’effet de divers mécanismes de différenciation.


La très grande majorité des biologistes évolutionnaires d’inspiration naturaliste (ou matérialiste) admet aujourd’hui que la formation des espèces, c’est-à-dire l’ontogenèse, nécessite pour être comprise de faire appel au darwinisme. Celui-ci peut être résumé au principe de l’évolution sur le mode variation au hasard/sélection/amplification, que Daniel Dennett avait appelé « l’idée dangereuse de Darwin ». Ne s’y opposent plus que les créationnistes de toutes obédiences. Pour la biologie darwinienne, ce sont des phénomènes aléatoires qui provoquent les variations – ou mutations - du génome caractéristique de chaque espèce. La plupart sont létales. Certaines peuvent induire, par la modification de certains gènes, des individus puis des espèces mieux adapté(e)s à l’environnement et à ses modifications que ne l’étaient les organismes antérieurs. Rappelons que pour les spiritualistes, il s’agit d’une « idée dangereuse », en ce sens que par application de ce principe, on peut déduire que l’homme, loin d’être en quelque sorte une image de Dieu sur terre, placée de ce fait au sommet de l’évolution, ne constitue qu’une branche (non terminale) d’un immense buisson où les bactéries comme les primates et les humains ne sont que les produits d’un mécanisme sans finalités.


Par contre, en ce qui concerne la formation des individus à l’intérieur des espèces, la très grande majorité des biologistes estimait jusqu’à ces dernières années que c’était le programme génétique transmis par l’intermédiaire de l’ADN reproductif qui déterminait la séquence d’apparition des différents organes de l’embryon. Son influence se prolongeait tout au long de la vie. Les gènes, dans l'acception qu'en donnaient les défenseurs du « tout génétique », définissaient donc dès avant la naissance les propriétés et aptitudes de l’individu. La biologie moléculaire s’était efforcée de montrer qu’il s’agissait de processus rigoureux, déterministes, excluant donc, sauf accidents, le hasard. Le terme même de programme génétique, faisant penser à un programme informatique et à des informations numériques, faisait illusion. En aucun cas pourtant, il ne s'agit d'algorithmes s'appliquant par oui ou par non. Mais l'on n'y pensait pas. Si bien que certains s'étonnaient naîvement du fait que les individus issus d'un même génome (tels les jumeaux vrais) puissent être différents.


Comme l’on sait, le déterminisme génétique, notamment dans son extension à l’homme, sous la forme dite de la sociobiologie, a conjugué contre lui de nombreux opposants. On a retrouvé dans leurs rangs les spiritualistes, qui ne pouvaient admettre que l’esprit, même s’il est le produit de l’activité du corps, soit figé à l’avance par l’hérédité et inaccessible aux considérations morales. Mais la quasi-totalité des psychologues matérialistes, évolutionnaires ou non, ont protesté contre le fait que les faits de culture, résultant de l’interaction des individus au sein des sociétés, ne soient pas pris en compte par la biologie moléculaire, alors qu’ils joueraient un rôle essentiel dans la détermination des comportements individuels et collectifs.


Une contradiction d'abord bien acceptée puis intenable


Ainsi, le hasard (ou ce que l’on définit comme tel en évolution) intervenait systématiquement dans la production des génomes, mais il se trouvait radicalement exclu dans l’expression de ces génomes lors de la formation des individus. Il y avait là une contradiction qui, curieusement, dans la 2e moitié du 20e siècle, n’avait pas suscité de commentaires. L’ouvrage fondateur de Jacques Monod, « Le Hasard et la Nécessité » (1970) n’avait pas attiré l’attention sur cette contradiction. La raison de ce manque de curiosité tenait à ce que les biologistes pensaient avoir apporté des preuves expérimentales indiscutables tant de la « réalité » des mécanismes darwiniens régissant l’évolution des espèces, c’est-à-dire l’ontogenèse, que de la « réalité » des mécanismes génétiques commandant la production des individus, c’est-à-dire la phylogenèse.

Cependant, les preuves de la « réalité » du déterminisme génétique avaient été bien plus difficiles à apporter que celles intéressant le rôle du darwinisme dans l’évolution des espèces. Elles avaient résulté des travaux menés par la biologie moléculaire à partir de l’identification de la double hélice, dont précisément l’Institut Pasteur avec Jacques Monod avait été l’un des acteurs. On cru alors pouvoir comprendre le rôle des gènes dans la phylogenèse. Il était vite apparu que ceux-ci n’intervenaient pas directement dans la fabrication de l’embryon. Des médiateurs protéiques spécifiques faisaient le relais entre le gène ou les gènes supposés contribuer à la formation de l’organisme et les cellules directement concernées par l’ordre d’apparition et l’architecture des organes. Mais le mécanisme, totalement déterministe, excluait toute variation aléatoire. Il ne permettait, selon ces approches, aucune liberté ni plasticité, sinon par accidents. Une propriété qui avait été nommée la stéréospécificité permettait d’expliquer comment les protéines synthétisées (et repliées) sous l’influence des gènes ne pouvaient correspondre qu’à un et à un seul type d’organite infracellulaire ou de cellule. L’image popularisée alors fut celle de la clef qui ne peut ouvrir qu’une seule serrure.


Précisons cependant que si, pour les biologistes matérialistes, la programmation génétique et la variabilité des génomes introduite par des mutations aléatoires constituaient des conquêtes de la pensée scientifique déterministe qu’il ne fallait pas remettre en cause, l’on devait cependant tenir compte des observations multiples nouvelles qui s’accumulaient. En ce qui concerne l’ontogenèse, l’étude plus précise du rôle des gènes avait montré que l’intervention des gènes et des protéines dont ils provoquaient la synthèse était bien plus complexe que celle résumée par le concept « un gène, un caractère ». Des gènes dits régulateurs avaient été identifiées. Le protéome ou catalogue des protéines impliquées dans la reproduction s'est révélé par ailleurs infiniment plus riche que le catalogue des gènes propres à chaque espèce. La stéréospécificité apparut alors comme loin d’être systématique, le même morceau d’ADN pouvant diriger l’assemblage de protéines différentes, dont l’une seulement intervenait dans la suite de l’embryogenèse.
Par ailleurs, il n’était plus niable que dès sa formation, l’embryon était soumis aux contraintes du milieu, notamment du milieu social dit aussi milieu culturel. Le milieu influe de façon plus ou moins importante sur le développement de l’individu, selon des modalités étudiées dans le cadre d’une approche devenue depuis systématique, l’épigénétique.


En ce qui concerne l’évolution des génomes, c’est-à-dire la phylogenèse, il était apparu parallèlement que des phénomènes difficiles à considérer comme de simples mutations aléatoires pouvaient contribuer efficacement à la formation de nouvelles espèces ou à des modifications du génome à l’intérieur d’espèces existantes. Citons par exemple le transfert horizontal de gènes (très répandu, et pas seulement chez les bactéries) ou, à une autre échelle, la sélection de groupe présentée comme agissant sur l’ADN non d’un individu isolé mais de nombreux individus au sein d’un groupe soumis à une pression sélective. Il s’agissait en quelque sorte de mutations orientées par l’interaction avec le milieu.


Une révolution conceptuelle : l’extension du domaine du darwinisme.


Tout ceci faisaient supposer, vers les années 1990, que la biologie se trouvait à la veille d’une révolution conceptuelle, voire philosophique, importante. Seul manquait le ou les chefs d’orchestre de cette révolution, susceptibles de proposer les nouveaux concepts nécessaires à la cristallisation d’un nouveau paradigme. Nous n’offenserons pas la modestie de Jean-Jacques Kupiec en affirmant qu’il fut en France et sans doute aussi dans le monde entier, avec quelques collègues tels que Pierre Sonigo, le plus efficace de ces chefs d’orchestre. L’ouvrage dont dès 2000 nous avions signalé l’importance, « Ni Dieu ni gène », co-écrit avec Pierre Sonigo, en donna le signal. Il fut reçu avec effroi par la communauté des biologistes traditionnels et avec beaucoup d’excitation par de jeunes chercheurs à la recherche de nouvelles problématiques intéressant le développement des formes vitales. L’empire d’une biologie moléculaire déterministe toute puissante en parut ébranlé, ce qui ne manqua pas d’entraîner des résistances de la part des généticiens.

Dix ans après, « L’origine des individus » précise la révolution ainsi amorcée. Le livre apporte de nouvelles preuves expérimentales démontrant le fonctionnement probabiliste des gènes et le caractère également probabiliste des interactions entre protéines synthétisées par ces gènes au cours de l’ontogenèse. Ces découvertes récentes, dont on ne fait qu’entrevoir les conséquences, sont en contradiction totale avec l’idée d’un programme génétique déterministe par définition. Le livre relate également des simulations informatiques très convaincantes permettant de mieux comprendre les mécanismes de sélection darwinienne proposés pour analyser la production des cellules, des tissus, des organes et des organismes entiers. Au-delà de cela, il propose une relecture fructueuse des concepts devenus de véritables lieux communs des sciences de la complexité, l’émergence provenant du passage des parties au tout, l’auto-organisation et plus généralement l’essentialisme consistant à ériger en réalité objective ce qui n’est que le produit d’un certain nombre d’observations dont les résultats paraissent réguliers. Nous allons revenir sur ce dernier point ci-dessous. Disons seulement ici qu'il est un peu sévère à propos des théoriciens de l'auto-organisation. Il ne nous semble pas qu'aucun d'entre eux ne tienne pas compte d'un système dit auto-organisateur puisse l'être indépenamment d'un arrière-plan sélectif. C'est le cas des eusociétés ou sociétés d'insestes.


Mais comment et à quels niveaux fonctionnent les mécanismes de la sélection darwinienne dont Jean-Jacques Kupiec avait proposé d’étendre le domaine d’action à pratiquement toute la biologie du développement? Jean-Jacques Kupiec a comme on le sait forgé le concept d’ontophylogenèse. Ce terme tout à fait heureux au point de vue linguistique signifie que pour lui l’ontogenèse et la phylogenèse constituent deux phases inséparables du processus de construction du vivant. Les espèces se forment de la même façon que les individus, dans le cadre de ce qu’il a nommé l’hétéro-organisation. Ce dernier terme signifie que les structures vitales ne se forment pas par appel à des procédures d’auto-organisation totalement coupées du milieu dont il n’existe aucune preuve expérimentale dans la nature. Elles se forment par interaction avec le milieu extérieur, en application systématique de la logique darwinienne.


En simplifiant beaucoup, nous dirons qu’il s’agit de réintroduire l’évolution au hasard elle-même contrainte par l’interaction avec le milieu au coeur de la formation de tous les organismes vivants, depuis le virus et la cellule jusqu’aux organismes multicellulaires, aussi complexes soient-ils. Autrement dit, il s’agit de généraliser « l’idée dangereuse de Darwin », en montrant que le principe: variation au hasard/sélection/ampliation se retrouve à tous les niveaux du vivant (comme ajouterions nous, à tous les niveaux de la formation des systèmes naturels fussent-ils non biologiques…mais nous y reviendrons). Il faut préciser d’emblée que cette généralisation du darwinisme ne découle pas du triomphe d’un nouveau dogme dans l’esprit de quelques matérialistes acharnés. Elle résulte seulement d’expérimentations instrumentales nouvelles et du fait que le darwinisme est le seul facteur permettant à ce jour d’interpréter des observations apparemment incompatibles. Ceci étant, si les personnes étrangères à la biologie conçoivent bien le processus des mutations au hasard et de la sélection quand il s’applique aux génomes, elles se représentent moins bien comment ce même processus peut se retrouver à l’intérieur d’un organisme en cours de développement et à plus forte raison au sein d’une cellule. De quelles mutations s’agit-il en ce cas et quel est le milieu intérieur jouant le rôle d’apporteur de contraintes sélectives ? Des explications s’imposaient, que le livre fournit. Il s’agit d’un des passages un peu difficiles de l’ouvrage, mais avec un minimum d’attention, les choses s’éclairent.


La description de différentes observations fines des processus intracellulaires, complétées par la modélisation informatique présentée dans le livre et dans l’article cité de Pour la Science, montrent bien ce dont il s’agit. On trouve le hasard ou plutôt l’absence d’organisation préalable dès le niveau le plus fin de l’organisation atomique. On peut dire d’une façon imagée qu'à la base les molécules sont agitées d’un mouvement brownien, qui se retrouve à tous les autres niveaux. Du fait du caractère intrinsèquement probabiliste du réel, on est d’emblée dans l’hétérogène, donc d’emblée il y a un intérieur et un environnement. De manière plus explicite : il n’y a pas d’origine. L''origine et la sélection se retrouvent à tous les niveaux du vivant.


Jean-Jacques Kupiec ne le dit pas explicitement, mais l’on peut penser que ces mécanismes sont véritablement universels. On les retrouve sans doute, à des échelles différentes, dans ce que l’on appelle les fluctuations de l’énergie du vide au niveau quantique, la constitution des premiers minéraux à partir des substrats chimiques initiaux et aussi la création des premières molécules réplicatives développées sur argile ou autres composés physico-chimiques à l’origine de la vie. Nous pensons par ailleurs que, dès maintenant, il serait possible d’utiliser une méthodologie analogue pour comprendre comment, par exemple, se forment dans le cerveau les contenus cognitifs complexes ou, au sein des réseaux informatiques, les assemblages de données et d’images formant des ensembles signifiants (dits aussi mèmes par la mémétique). Enfin la façon dont les populations de robots acquièrent des connaissances sur le monde et des langages permettant de communiquer à leur propos relève certainement de processus comparables, fondamentalement darwiniens.


Réponse aux objections


La nouvelle définition du vivant découlant de l’approche ontophylogénétique a suscité de nombreuses objections. Les unes, mais nous allons y revenir, sont de nature quasi philosophique. Mais les autres sont plus pratiques. A quoi bon réintroduire le hasard et la sélection à tous les niveaux de création de la complexité biologique si les produits finaux découlant des microprocessus darwiniens décrits par l’ontophylogenèse ne peuvent s’interpréter que sur le mode statistique, ce qui entraîne la conséquence qu’ils ne diffèrent guère ou pas du tout de ce que seraient les produits de processus reproductifs strictement déterministes. En moyenne, objecte-t-on ainsi, au sein d’un processus reproductif déterminé, un gène ne « crée » pas plusieurs types de protéines, ou de cellules, ou d’organismes. Une grande permanence se constate dans la reproduction de l’existant. C’est même pour cette raison que les anciens naturalistes avaient pu identifier au sein de la diversité biologique des individus semblables pouvant être regroupés en espèces homogènes.


Pour répondre à cette objection on peut faire la comparaison avec la physique. Les lois de Newton sont parfaitement valables, bien qu'approximatives, pour comprendre les phénomènes qui se déroulent à notre échelle. Alors à quoi bon s'obliger à prendre en compte la théorie de la relativité ? On connaît la réponse. L’approche relativiste a permis des développements impossibles dans le cadre de la physique newtonienne. En biologie c’est la même chose. L’approche déterministe possède un domaine de validité mais c’est une approximation. La connaissance de la réalité probabiliste sous-jacente permet d’aller plus. C’est le cours normal de la recherche. Pourquoi devrait-on s’arrêter à la description offerte par le déterminisme génétique ?

Ce n’est pas parce que plusieurs processus différents donnent naissance à des produits globalement comparables qu’il faut en inférer que ces processus sont identiques. On risque en effet, d’une part d’inventer des mécanismes qui n’existent pas ou de refuser de voir des différences entre mécanismes existants pouvant prendre ultérieurement une grande importance. Mais l’on risque aussi de se priver de voir des résultats évolutifs qui bien qu’exceptionnels au regard de la loi des grands nombres, pourraient prendre une grande importance dans le cadre d’une évolution extérieure contrainte par de nouvelles caractéristiques du milieu. Si le milieu naturel changeait et si les cygnes noirs se révélaient mieux adaptés que les cygnes blancs à ces changements, on serait heureux de comprendre comme des cygnes noirs peuvent aléatoirement apparaître au sein de population de cygnes blancs, afin le cas échéant d’encourager leur multiplication.


Cependant, l’opposition suscitée par l’ontophylogenèse est plus de nature philosophique, sinon idéologique, que pratique. Comme le montrent les critiques faites aux publications de Jean-Jacques Kupiec et de ses collègues, le nouveau paradigme impose de repenser une grande partie des études et concepts suscités par l’application sans nuances de l’hypothèse selon laquelle les gènes dictent l’organisation des structures biologiques et celle d’une grande partie des structures culturelles. Il faudra reprendre les hypothèses de départ, réorganiser les protocoles expérimentaux, modifier les certitudes intellectuelles. Beaucoup d’activités et d’intérêts exploitant un certains simplisme biologique devront évoluer pour survivre. Ceci notamment dans les métiers de la santé humaine et vétérinaire, comme de la pharmacie. Au plan intellectuel, la diffusion ainsi légitimée de l’ « idée dangereuse de Darwin », provoquera la sainte alliance des spiritualistes pour qui le darwinisme reste le diable et des matérialistes réductionnistes qui perdent pied dès qu’ils doivent intégrer dans leur modes de pensée le fait que les effets ne découlent pas tous de causes nettes et précises, obligeant à prendre en compte ce qu’à défaut d’autre terme on nomme le hasard.


Elargir le champ de la critique épistémologique


Nous ajoutons une autre cause de rejet de l’hypothèse ontophylogénétique et d’une évolution biologique susceptible d’être décrite en faisant appel à elle. Il s’agit de la croyance au « réalisme des essences ». Jean-Jacques Kupiec y fait allusion, mais nous pensons qu’il devrait insister davantage sur ce point. Nous avons dans cette revue donné plusieurs fois la parole à deux écoles convergentes de chercheurs. Les uns, qui relèvent des neurosciences cognitives, s’intéressent à la façon dont les cerveaux, que ce soit chez les humains ou chez des animaux ne disposant apparemment pas du langage, regroupent de façon empirique des faits d’observations voisins autour de concept susceptibles de leur donner un sens. Il s’agit d’un processus indispensable à la survie, permettant notamment d’identifier et classer des phénomènes s’étant révélés dangereux, afin d’y réagir en temps utile. Les catégories de faits ainsi créées sont considérées comme des éléments du monde extérieur, dotés d’une réalité en soi, et non d’une réalité construite par le cerveau. Souvent, par application de la Théorie de l’esprit (theory of mind), les cerveaux projettent sur ces entités virtuelles des intentions ou des personnalités analogues à celles qui chez l’homme, sont prêtées aux divinités imaginaires. Ce sont de telles constructions mentales qui ont transformé les concepts d’individu, d’espèce, d’humain et d’espèce humaine en essences qu’il ne fallait absolument pas, sous peine d’être accusé de sacrilège, prétendre déconstruire. Or c’est ce que fait quotidiennement Jean-Jacques Kupiec. On comprend qu’il soit mal vu par les idéologues de la connaissance.


La deuxième école à qui nous avons été heureux de donner la parole dans cette revue est représentée par la physicienne Mioara Mugur-Schächter et la Méthode de Conceptualisation Relativisée par laquelle elle propose de représenter la façon dont, à partir d’un substrat quantique à proprement parler indéfinissable, les observateurs et leurs instruments peuvent progressivement construire des entités microscopiques susceptibles d’être mises en œuvre dans des systèmes physiques macroscopiques. Le point important de cette méthode, comme nous l’avons montré, est qu’elle pourrait et devrait être exportée dans toutes les autres sciences du monde macroscopique. Il s’agit d’une application particulièrement puissante d’une approche épistémologique non-réaliste constructiviste susceptible d’être appliquée partout, y compris pour préciser le contenu des entités définies par le langage courant à partir des observations empiriques.

Nous sommes persuadés que le vaste travail de déconstruction et de reconstruction de la connaissance en biologie, entrepris par Jean-Jacques Kupiec et ses collègues, pourrait ainsi être inscrit avec profit dans les domaines illustrant les conquêtes méthodologiques de la méthode proposée par Mioara Mugur-Schächter.

 

 

Repost 0
25 mars 2009 3 25 /03 /mars /2009 21:05

Le 4e Rapport du GIEC, établi en 2007 sur des données de 2005 et antérieures, a été reconnu comme bien trop optimiste par les experts du GIEC réunis à Copenhague le 10 mars 2009. Mais vu la lourdeur de l'Organisation, le prochain rapport ne sera publié qu'en 2014. Or "les dernières observations confirment que le pire des scénarios du GIEC est en train de se réaliser. Les émissions ont continué d'augmenter fortement et le système climatique évolue d'ores et déjà en dehors des variations naturelles à l'intérieur desquelles nos sociétés et nos économies se sont construites", a affirmé le comité scientifique de la conférence.

***

Nous avons cru pouvoir avancer un début d’explication à l'étonnante myopie des Pouvoirs Publics et des intérêts privés face à la grande crise climatique en constatant que si les systèmes anthropiques, fussent-ils scientifiques, sont capables d’anticiper convenablement leur propre devenir, face aux adversaires qu’ils ont identifiés, ils sont incapables le voudraient-ils de mesurer les conséquences qu’auront leurs compétitions pour la conquête du monde. Ceci parce qu’ils ne disposent pas à cette fin d’informations suffisantes. Leur science n’a pas encore acquis la puissance nécessaire à cette fin.

Ceci tient notamment au fait qu’il n’existe pas, sauf de façon embryonnaire, de supersystème cognitif universel, doté d’une vision globale de la Terre et d’un modèle de soi lui-même universel, qui puisse se donner des méta-représentations et émettre des messages d’alerte. Dans ces conditions, on peut craindre que les compétitions entre systèmes anthropotechniques, fussent-ils à dominante scientifique, continuent à préparer des conséquences catastrophiques, d’autant plus catastrophiques qu’elles mettront en œuvre des technologies d’inspiration scientifique.

Mais s’agit-il seulement d’un manque d’informations. En fait, avec la multiplication des réseaux d’observations scientifiques et des commentaires et débats qui se greffent sur celles-ci, la cognition globale ne devrait pas manquer de matière première. Manquent par contre cruellement des méthodologies suffisamment performantes pour exploiter ces informations. Nous abordons là une question épistémologique, déjà évoquée dans de précédents articles et ouvrages , sur laquelle il nous parait urgent de revenir. La question, malgré les apparences, n’est pas simple et mérite quelques investissements intellectuels.

Dans cette direction, nous proposons de faire à nouveau appel à la Méthode de Conceptualisation Relativisée MCR), développée par la physicienne Mioara Mugur-Schächter et que nous avions précédemment commentée dans divers articles en soulignant son caractère profondément novateur. Nous sommes persuadés que cette méthode pourrait être appliquée avec profit à la description des entités et phénomènes concernant la crise climatique actuelle, comme des catastrophes grandes et petites qui s'annoncent dans son sillage. Nous en donnons dans cet article une brève description théorique, suivie d’un exemple d’application.

MCR. Le cadre théorique


Posons deux hypothèses « optimistes » qui seront évidemment à vérifier :


1. Les systèmes anthropiques modernes (anthropotechniques pour reprendre notre terminologie) disposent de suffisamment de ressources technologiques, humaines et informationnelles pour que, sous la pression d’un risque majeur, celui d’une extinction massive les affectant tous, leurs comportements se modifient d’eux-mêmes dans le sens de la prévention. On voit que cette hypothèse n’évoque pas l’intervention de supposées décisions volontaires inspirées par un libre-arbitre providentiel. Nous pensons plutôt à des mesures de correction automatiques ou semi-automatiques apparaissant dans certaines conduites de groupe, étudiées dans le cadre du paradigme de la sélection de groupe. . Le terme de semi-automatique signifie que les actions se produisent d’elles-mêmes, mais qu’elles peuvent entraîner un écho voire un renforcement au sein des bases neurales ou computationnelles génératrices d’états de conscience individuels ou collectifs.


Malheureusement, nous l’avons dit, les systèmes anthropotechniques dominants se montrent encore incapables de mobiliser ces ressources et de prendre les mesures adéquates. Il faut mettre en cause, à la base de cette incapacité, non seulement des conflits d'intérêts, bien identifiés, mais un manque général de méthode, qui ne l'est pas.

2. En effet, pour qu’elles soient efficaces, les mesures de prévention ou de correction nécessaires devraient s’appliquer aux causes « réelles » qui provoquent la crise et non à des causes telles qu’imaginées par les divers acteurs chacun en fonction de leur intérêt. Mais peut-on parler de « réel » en sciences, sans faire référence à la façon dont le produit de la connaissance est construit par un processus complexe associant les observateurs, leurs instruments et une réalité sous-jacente probablement inconnaissable. Un tel processus est connu depuis longtemps, sinon compris, dans le cas de la physique quantique. Il a été clairement décrit par Mme Mioara Mugur-Schächter sous le nom de Méthode de Conceptualisation Relativisée (MCR), s’appliquant aux interactions des observateurs macroscopiques et de leurs instruments avec le monde quantique .


Mais nous ne sommes pas ici, en matière de sciences de la Terre, dans le domaine du quantique. Nous sommes dans le domaine de la physique ordinaire et plus généralement des sciences dites macroscopiques. Or il se trouve que MCR est aussi applicable à cette échelle. Nous pensons pouvoir donc faire ici l’hypothèse selon laquelle cette méthode permettrait sinon de concevoir un monde macroscopique réel « en soi » dont rien ne permet de postuler l’existence ou les règles de fonctionnement, du moins un monde macroscopique relativisé, construit par l’observateur-acteur et ses instruments. Ceci serait suffisant pour provoquer, dans le cas qui nous occupe, des réactions efficaces face à la crise. Dans le processus induit par MCR, l’obervateur-acteur se retrouve modifié sans même qu’il s’en rende compte. Autrement dit, son comportement, découlant du processus, s’adapte de lui-même aux contraintes mises à jour par la construction du réel relativisé. Il en résulte la construction dynamique d’un monde global où les actions respectives des différents observateurs-acteurs se conjuguent (comme dans la nature, que ce soit au niveau microscopique et macroscopique) sans que des conflits destructeurs puissent jamais détruire l’équilibre de l’ensemble.
 

Ainsi, à partir des comportements de détail des systèmes anthropotechniques revisités par cette méthode, émergeraient sans intervention préalable d’une prétendue volonté humaine ni de finalités volontaristes affichées par elle, des règles prudentielles de comportement global qui permettraient d’éviter ou de réparer les destructions massives actuellement observées.
 

Il est évident que dans ce cadre, le contenu du concept de Gaïa devrait être reconstruit, ainsi bien entendu que la description de toutes les forces contribuant actuellement à sa destruction ou pouvant participer à sa reconstruction. Ni Gaïa ni ces forces ne nous sont perceptibles en soi. Nous pouvons cependant, grâce à la méthode, nous en donner des représentations relativisés nous permettant d’agir sur elles.

Appliqué au monde macroscopique, dont les complexités sont immenses au regard de la simplicité apparente du monde quantique, l’émergence spontanée de règles prudentielles visant à protéger ou réparer Gaïa ne se fera pas spontanément ni facilement. Elle sera le résultat de processus déjà engagés et qui, sauf accidents, devraient s’étendre, sans interventions humaines délibérées. Ces processus visent à l’observation scientifique de l’univers et au déploiement d’outils nouveaux, notamment dans le domaine des réseaux, de l’intelligence artificielle et de la robotique autonome, susceptibles de produire de nouvelles symbioses avec ce qui demeurera de biologique dans les systèmes anthropotechniques de demain.


Ces ressources technologiques n’existaient pas du temps de l’homo erectus ni même des sapiens récents du 19e et 20e siècles. Ils sont le produit d’une évolution cosmologique plus globale vers la complexité, que l’on retrouverait sans doute sur d’autres Terres que la nôtre. On peut penser que se sont appliquées à ce niveau macroscopique les mêmes lois de décohérence imposées aux microétats du monde quantique quand ils ont pour la première fois interagi avec des particules macroscopiques générées par les fluctuations aléatoires du vide quantique – à supposer que cette formulation ait un sens

Les grandes étapes

Evoquons ici en quelques lignes les grandes étapes indispensables à la construction des connaissances selon MCR. Il s'agit en fait d'une méthodologie pour la production des descriptions, car il n'y a de science que de descriptions, les «phénomènes en soi» étant réputés non-existants. Ces étapes sont identiques, qu’il s’agisse d’opérer dans le monde quantique ou dans le monde macroscopique, notamment celui qui nous intéresse ici, celui des sciences de la Terre.

Le Fonctionnement-conscience. On postule au départ l'existence d'un observateur humain, doté d'un cerveau lui-même capable de faits de conscience. Ce cerveau est tel qu'il peut afficher des buts au service desquels mettre une stratégie. Mioara Mugur-Shächter considère que l'organisme vivant, ceci à plus forte raison s'il est doté de conscience, est capable de téléologie.

La téléologie (à ne pas confondre avec l’étude des causes finales ou finalisme) est l'étude des systèmes finalisants acceptant différentes plages de stabilité structurelles et capables, en général, d'élaborer des buts ou de modifier leurs finalités, (en anglais:" purposeful systems"). Dans les systèmes humains psycho-socio-politique, cette téléologie peut se nommer "autodétermination". La téléonomie est l'étude des systèmes finalisés par une stabilité; recherche de la stabilité structurelle et non du changement, (en anglais: "goal seeking systems"). En psychologie et en sociologie, la téléonomie peut se nommer "autonomie".(wikipedia) Ces mots sont suspects pour les matérialistes. Mais il est tout à fait possible d'accepter les définitions ci-dessus sans se référer à des causes finales imposées par une divinité quelconque

Nous pensons pour notre part que le concept de Fonctionnement-conscience peut être étendu au fonctionnement de tous les êtres vivants, et peut-être même à celui de précurseurs matériels de la vie biologique, aux prises avec la Réalité telle que définie ci-dessous. Le terme de conscience ne peut donc alors être conservé que sous forme de métaphore. Les concepteurs de robots véritablement autonomes espèrent que ces robots pourront procéder de même afin de se doter de représentations ayant du sens pour eux.

Dans l’étude du milieu terrestre, des crises qui l’affectent et des risques qui le menacent, le rôle de l’observateur, générant le fonctionnement conscience, sera rempli de fait par tous les individus, organismes et instruments observant la Terre et s’efforçant d’en tirer des conclusions pouvant provoquer des actions adaptatives. Plus ces observateurs et les données recueillies seront fédérés, notamment au sein des grands réseaux d’observation scientifique, plus la portée des conclusions sera grande. Plus en d’autres termes des actions correctrices pourront voir le jour.


On notera que dans cette approche, l’ensemble de ces processus s’accomplit sur un mode semi- automatique, même lorsque des consignes ou décisions se disant volontaires en endossent la responsabilité. Si des robots sont utilisés afin de mettre en œuvre de leur côté la méthode MCR, ils travailleront sur un mode entièrement automatique, sans interventions humaines. Les rendements pourront alors devenir considérables. Finalement, la multiplication des risques et des alertes en découlant, conjugué au développement spontané des réseaux d’observation et de communication, générera une conscience collective attribuable au vaste système anthropotechnique cognitif sur le mode scientifique découlant du progrès « non voulu » mais combien efficace des technologies concernées.

- La Réalité. On postule qu'il existe quelque chose au-delà des constructions par lesquelles nous nous représentons le monde, mais (pour éviter les pièges du réalisme), qu'il est impossible – et sera à jamais impossible - de décrire objectivement cette réalité. Peut-être pourrait-on (la suggestion est de nous) assimiler cette réalité à ce que la physique contemporaine appelle le Vide quantique ou l'énergie de point-zéro, à condition d'admettre que ce Vide est et demeurera indescriptible, d'autant plus qu'il ne s'inscrit ni dans le temps ni dans l'espace propres à notre univers. Seules pourront en être connues les fluctuations quantiques en émanant, si elles donnent naissance à des particules qui se matérialiseraient par décohérence au contact avec notre matière. Ces diverses entités d’ailleurs n’acquérront de « réalité » que dans les conditions de formalisation des connaissances proposées par la méthode.

Dans l’étude du milieu terrestre, des crises qui le touchent et des risques qui le menacent, on ne considérera pas ce milieu terrestre (Gaïa), non plus que les évènements qui l’affectent (réchauffement, extinctions massives) ou les systèmes anthropotechniques qui s’y expriment, comme représentant la Réalité. Celle-ci sera postulée comme sous-jacente à tout, indescriptible en soi mais pouvant donner naissance à la construction de connaissances utiles pour y agir, dans les conditions décrites ici. Ces connaissances porteront alors sur des objets-générés (Gaïa, le réchauffement….etc.) sur lesquels il deviendra possible d’intervenir.

- Le Générateur d'Entité-objet et l'Entité-objet générée par ce générateur. Il s'agit d'un mécanisme permettant au Fonctionnement conscience, dans le cadre de ses stratégies téléonomiques, de créer quelque chose (un observable) à partir de quoi il pourra procéder à des mesures. Il n'y aurait pas de science sans ce mécanisme. Nous procédons de cette façon en permanence dans la vie courante. Nous construisons des « objets » d'étude, qui n'existaient pas avant notre intervention. Dans l’étude du milieu terrestre, il s’agira comme indiqué ci-dessus, de Gaïa, du réchauffement ou de tels ou tels acteurs supposés agir sur eux.

- Les Qualificateurs. Il s'agit des différents points de vue par lesquels nous décrivons d'une façon utilisable par nous les Entités-objets que nous avons créées. Ces Qualificateurs sont les moyens d'observation et de mesure, biologiques ou instrumentaux, dont nous disposons. Il n'y a qu'une qualification par mesure et celle-ci n'est pas répétable car généralement l'Entité-objet a changé. Mais la multiplication des qualifications donne ce que MCR appelle des Vues-aspects proposant des grilles de qualifications effectives et intersubjectives. L'opération peut conduire à la constatation de l'inexistence relative de l'Entité-objet créée aux fins d'observation (inexistence relative car il serait contraire à MCR de parler de faux absolu). Ceci montre que l'on ne peut pas inventer n'importe quelle Entité-objet et construire des connaissances solides à son propos. Il faut qu'elle corresponde à quelque chose dans la Réalité telle que définie plus haut et qu'elle puisse être mise en relation avec les grilles de qualification déjà produites. Ainsi les connaissances construites s'ajoutent-elles les unes aux autres, donnant naissance à des méta-connaissances. Ces dernières sont indispensables dans la perspective de comprendre un monde global, aux actions et réactions enchevêtrées.

Dans l’étude du milieu terrestre, des crises qui l’affectent et des risques qui le menacent, la multiplication (par millions et davantage si possible) des observations, des observateurs et des mesures obtenues, ainsi que leur mutualisation au sein de grands réseaux scientifiques susceptibles de provoquer des décisions collectives réparatrices, permettra d’affiner les diagnostics et les actions.

- Le Principe-cadre. Il s'agit du cadre d'espace-temps dans lequel on décide d'observer l'Entité-objet afin de la situer. Dans notre domaine, cela pourra être la Terre dans le système solaire d'une part, l’année, la décennie, le siècle ou au-delà, d'autre part, abordés séparément ou en superposition.

Tout ceci permet d'obtenir un canon général de description, utilisable dans n'importe quel domaine. Il repose sur le postulat de la non-possibilité de confronter la description avec un réel en soi ou réel métaphysique quelconque. Il débouche par contre sur une « description relativisée », individuelle ou probabiliste, à vocation inter-subjective, c'est-à-dire partageable par d'autres Fonctionnements-consciences, à travers ce que MCR appelle des Descriptions relativisées de base Transférées. La somme de celles-ci devrait correspondre à la somme des connaissances scientifiques relativisées que grâce à MCR nous pouvons obtenir sur le monde.

Mioara Mugur-Shächter, depuis les premières années passées à élaborer la méthode, lui a donné plusieurs applications d’un intérêt méthodologique considérable. Elles apportent la preuve de l'intérêt de la révolution épistémologique qui découle de la généralisation de MCR à d'autres domaines de la représentation des connaissances que le seul domaine quantique. On y voit en effet remis en cause, d'une façon qui sera certainement fructueuse, l'essentiel de ce que l'on considérait jusqu'ici comme les bases de la conceptualisation dans les disciplines évoquées. Il ne devrait plus jamais être possible, dans ces disciplines, de continuer à raisonner selon les précédentes méthodes, sauf à le faire intentionnellement dans le cadre de recherches limitées.

Nous ne pouvons ici résumer l'argumentaire des démonstrations proposées par Mioara Mugur-Shächter. Elles concernent la logique, les probabilités, le concept de transmission des messages chez Shannon, la complexité et finalement le temps, vu sous l'angle des changements identité-différence qui peuvent s'y produire.

Bornons nous à dire que, dans chacun de ces cas, on retrouve le postulat de MCR selon lequel on ne peut pas imaginer et moins encore rechercher une prétendue réalité ontologique ou en soi de phénomènes qui sont en fait des constructions du Fonctionnement-conscience et du Générateur d'Entité-objet tels que définis par la méthode. Prenons l'exemple de la logique. Si celle-ci était considérée comme un instrument du même type que les mathématiques (dont la plupart des mathématiciens n'affirment pas qu'elles existent en soi), on pourrait lui trouver quelque utilité, mais seulement pour donner de la rigueur aux raisonnements abstraits. Elle ne servirait pas à obtenir de descriptions du monde. Or la logique prétend au contraire décrire des classes d'objets, auxquelles elle applique des prédicats. Mais ces objets et ces prédicats sont présentés comme existant dans la réalité ou traduisant des relations réelles entre éléments de la réalité. La logique ne se pose donc pas la question du processus de construction par lequel elle les obtient. Elle suspend dont quasiment dans le vide l'ensemble de ses raisonnements. Faire appel à ceux-ci risque alors d'être inutile, voire dangereux, en égarant l'entendement dans des cercles vicieux (comme le montre le paradoxe du menteur). La logique ne retrouvera de bases saines qu'en utilisant MCR pour spécifier les objets de ses discours.

Il en est de même du concept de probabilités tel que défini notamment par le mathématicien Kolmogorov. L'espace de probabilité proposé par ce dernier ne devrait pas être utilisé dans les sciences, sauf à très petite échelle. Il ne peut que conduire à des impasses. Si l'on pose en principe qu'il existe des objets en soi difficilement descriptible par les sciences exactes, dont la connaissance impose des approches probabilistes, le calcul des probabilités est un outil indispensable. Ainsi on dira que la probabilité de survenue d'un cyclone dans certaines conditions de température et de pression est de tant. Mais si, pour analyser plus en profondeur les phénomènes de la thermodynamique atmosphérique et océanique, on admettait que le cyclone n'existe pas dans la réalité, pas plus que l'électron ou le photon, mais qu'il est la construction ad hoc unique d'un processus d'élaboration de qualification selon MCR, le concept de probabilité changera du tout au tout. On retrouverait, à une échelle différente, l'indétermination caractéristique de la physique quantique et la nécessité de faire appel à des vecteurs d'état et à la mathématique des grands nombres pour représenter concrètement de tels phénomènes.

La mesure de la complexité oblige aux mêmes restrictions. Pour la science « classique » de la complexité, il existe des entités réelles (en soi) dont les instruments classiques de mesure ne peuvent pas donner, du fait de leur imperfection, de descriptions détaillées et déterministes. D'où une impression de complexité. Il faut donc tenter de mesurer les systèmes ainsi prétendus complexes par des méthodes détournées. Mais si l'on admettait que l'objet, complexe ou pas, est une création du Fonctionnement-conscience et relève dont de MCR dans la totalité de son étude, les choses se simplifieraient. On cesserait en fait de parler de complexité. On se bornerait à dire que l'on a créé une Entité-objet accessible aux opérations de qualifications, qui n'aurait pas d'intérêt en soi, mais seulement comme élément d'un processus plus général de construction de connaissances. Le même type de raisonnement s'appliquera à la théorie de Shannon et au concept de temps.

Ajoutons que tout ce qui précède peut s’appliquer au concept de système. La science des systèmes s'évertue à identifier ceux-ci dans la nature et se noie évidemment dans le nombre immense des candidats-systèmes qu'elle peut identifier. Mieux vaudrait admettre d'emblée que le système en général, ou tels systèmes en particulier, n'existent pas en soi, mais doivent être spécifiés en tant qu'Entités-objets créées par un Générateur ad hoc. Les premiers systèmes à qui faire subir ce traitement seront évidemment les systèmes anthropotechniques objets de notre essai.

Une application à la climatologie

Les processus de la physique étant encore mal connus du grand public, proposons au lecteur une application simplifiée de MCR, en nous situant dans le champ des connaissances intéressant les sciences de la Terre, qui sont des sciences du domaine macroscopique. Nous avons vu que MCR peut en effet être utilisée dans de tels domaines, même si la méthode à été élaborée à partir d’une réflexion sur l’acquisition des connaissances dans le domaine quantique.

Supposons un climatologue qui cherche à comprendre le réchauffement de température qui affecte l’ensemble des climats du monde depuis quelques décennies. Ce climatologue constate que les définitions classiques du réchauffement de température ne suffisent pas à expliquer les phénomènes à court terme plus ou moins erratiques constatés par les météorologues. Ceci conduit les sceptiques à nier le phénomène tout entier, enlevant de la crédibilité aux politiques destinées à lutter contre la production anthropique des gaz à effets de serre. L'opinion en vient à les critiquer. Ces définitions sont-elles pertinentes ?

Dans les sciences de la Terre “ réalistes ”, c’est-à-dire persuadées de l’existence d’un réel existant indépendamment de l’homme, on a tendance à considérer qu’il existe des objets en soi, le réchauffement de température, la désertification, le dépeuplement des océans…, que l’on peut étudier de l’extérieur et décrire de façon objective, en “ tournant autour ” comme on le fait en étudiant une machine ou un phénomène relativement objectif, par exemple une éruption volcanique. Mais un peu de réflexion montre que le réchauffement de température ou la désertification sont des entités construites pour les besoins de tel ou tel discours. Le réchauffement de température n’est pas conçu ni décrit de la même façon par les lobbies pétroliers, les écologistes, le ministère de l’environnement ou par tel ou tel scientifique travaillant sur le terrain : air, océan, continents terrestres… En d’autres termes, on ne peut pas “ réifier ” le réchauffement de température, c’est-à-dire parler de lui comme s’il s’agissait d’une réalité dont la définition s’imposerait à tous. L’entité réchauffement de température ne peut être décrite d’une façon qui fasse abstraction de la personne qui en parle. Les deux sont inséparables.

Que faire alors? Maintenir l’hétérogénéité des discours, reposant sur la diversité des personnes parlant du réchauffement de température et sur la non-compatibilité de leurs motivations ? C’est en général ce qui se passe. On aboutit à une sorte de babélisation, chaque personne (chaque locuteur) désignant sous le même mot des choses différentes et surtout, voulant provoquer des réactions politiques différentes. Ceci explique pourquoi la science climatologique est généralement considérée comme inexacte sinon menteuse, au même titre que la météorologie qui en constitue un volet, réputée non fiable par le prétendu bon-sens populaire.

Mais si l’on voulait introduire de la rigueur dans le discours sur le réchauffement de température, il faudrait pour bien faire que celui qui en parle précise qui il est, à qui il veut s’adresser, ce qu’il veut démontrer, la définition qu’il propose de donner au concept de réchauffement de température, les raisons qu’il a de considérer que cette définition est scientifiquement pertinente et, finalement, les raisons qu’il a de considérer que les autres définitions ne le sont pas. On constatera alors que la plupart des gens parlant prétendument scientifiquement du réchauffement de température refuseront cette façon de relativiser leur discours, non pas parce qu’il s’agirait d’un processus trop complexe susceptible de créer une autre sorte de cacophonie, mais parce qu’ils refuseront d’admettre qu’ils ne sont pas objectifs quand ils abordent la question du réchauffement de température.

Chacun en fait s’appuie sur la prétendue réalité de l’entité dont il parle pour se crédibiliser, c’est-à-dire pour donner de la “ réalité ” à son discours et à sa personne (voire à sa carrière quand il s’agit d’un « expert » appointé). Nous sommes face à une tentative de prise de pouvoir sur ceux à qui ce discours est destiné. Le réchauffement de température est une question politiquement sensible et donne lieu à de multiples exploitations partisanes.

Que me propose MCR pour éviter cela ? Il faut d’abord que j’accepte une régression conceptuelle : je dois poser en principe que le réchauffement de température n’existe pas en soi. Je décide ensuite de créer une entité virtuelle inobservable que j’appellerai réchauffement de température, puis de la fixer en tant objet d’étude, c’est-à-dire de connaissance. Connaître veut dire décrire et décrire qualifier. Quand il s'agit de qualifications par des opérations physiques, il faut spécifier une " opération de mesure " et l' " appareil de mesure " correspondant. Je réaliserai donc un certain nombre d’appareils non-virtuels pouvant fournir, à partir d'interactions avec cet objet virtuel supposé, des marques ou mesures qui me soient perceptibles. Il pourra s’agir de prélèvements d’échantillons d’air ou d’eau, portant sur le présent ou sur le passé (carottages glaciaires par exemple), des résultats d’enquêtes auprès d’archives scientifiques ou professionnelles, mais aussi pourquoi pas de sondages d’opinion ou toutes autres formes d’observation. En préparant ce matériel, par exemple en définissant les questions et les réponses possibles, j’accomplis ce que les physiciens nomment une "opération de préparation d'état" et je pose en principe que cette opération produit un état virtuel "correspondant" qui est précisément l'objet de l'étude que présuppose toute tentative de description.

J'admets a priori que l'entité virtuelle “ réchauffement de température ”, lorsqu'elle est soumise au mode d'interaction, change d'une façon que je ne connais pas. Mais ce changement inconnu peut être défini factuellement (objectivement), à savoir: " celui qui correspond au mode opératoire mis en action" et que je constate sur l’appareil de mesure. L'interaction ne détecte pas une propriété intrinsèque de l'objet, elle crée une propriété perceptible d'interaction. Supposons que je veuille étudier le réchauffement de température s’étant produit globalement dans le monde durant le 20e siècle. Si j’enquête auprès de la Météorologie nationale, l’entité virtuelle réchauffement de température ainsi étudiée, susceptible d’innombrables observations et donc de définitions différentes, est (dans mon esprit ou dans mon enquête) modifiée par cette enquête et devient, à travers celle-ci (et seulement à travers elle), le réchauffement de température tel que se le représente la Météorologie pour la période considérée. Lorsque j’enquêterai auprès de l’Agence américaine NOAA (National Oceanic and Atmospheric Administration), l’entité virtuelle sera à nouveau modifiée. Elle deviendra le réchauffement de température tel que le voit ce service.

Les manifestations perceptibles de l'observable virtuel sont dénommées ses "valeurs propres". L'ensemble des valeurs propres d'un observable virtuel constitue son "spectre". Le mode opératoire d'interaction qui définit l'observable virtuel crée une valeur propre perceptible de cet observable. Mais l'observable n'est pas une propriété de l'entité virtuelle. C'est une opération d'interaction d'une entité virtuelle avec un appareil matériel. De ce fait la valeur propre créée qualifie l'interaction et non l’entité. Si l’enquête auprès de la Météorologie française me dit que le taux de réchauffement de température est de 1° centigrade en moyenne depuis 1900, ce chiffre qualifie l’interaction de l’entité virtuelle réchauffement de température avec les moyens d’information dont disposent cet organisme , et non l’entité virtuelle réchauffement de température toute entière.

Ainsi, afin de qualifier une entité virtuelle, je définirai des dimensions de qualifications opératoires qui seront des interactions entre cette entité et des appareils d’observations et qui créeront des effets d'interaction perceptibles interprétables selon certaines règles en termes prédéfinis de "valeurs propres d'observables…". On voit que dans le but de connaître une entité virtuelle du type du réchauffement de température, je suis obligé d’adopter une attitude de description radicalement active. Je dois créer aussi bien les objets de descriptions que les qualifications.

Imaginons maintenant que je refasse un grand nombre de fois l'opération de mesure, en m’adressant à d’autres interlocuteurs, la NOAA, le pétrolier Total, Greenpeace, le ministère de l’environnement…. Imaginons aussi que je change d’instruments de mesure, par exemple en réalisant des prélèvements d’eau, puis d’air, puis des observations sur la végétation, puis des sondages individuels auprès d’un échantillon de population … Imaginons enfin qu'à chaque fois je trouve le même résultat (soit un réchauffement de température estimé à 1° centigrade en un siècle. A ce moment je pourrai dire : “ la qualification de l’entité virtuelle réchauffement de température, soumise à telles opérations de mesure, conduit invariablement au résultat « Augmentation de 1° en un siècle ». Donc la caractérisation du réchauffement de température face à ces opérations de mesure est terminée. Elle consiste dans la valeur propre 1°, rapportée aux plages de temps choisies pour l’évaluation.

Mais en général, la réitération d'un grand nombre de fois une opération de mesure et le recours à un grand nombre d’opérations de mesure différentes font apparaître tout un spectre de valeurs propres de l’entité virtuelle réchauffement de température, allant par exemple de 0,5 à 1,5 degrés centigrade et portant sur des éléments très divers. La situation se révèle être statistique.

Dans ces conditions, la valeur propre 1°, à elle seule, n'est pas caractéristique du réchauffement de température. Je suis obligé de faire un nouveau pas vers la caractérisation de cette entité virtuelle en établissant la distribution statistique des fréquences relatives obtenues pour l'entier spectre des valeurs propres. Mais je dois me souvenir que la distribution statistique du spectre des valeurs propres est elle aussi relative aux diverses opérations de mesure mises en jeu. Aussi, afin d'augmenter les probabilités d'avoir véritablement caractérisé le réchauffement de température, je rechercherai la distribution des fréquences relatives des "valeurs" de qualification obtenues par plusieurs biais de qualification différents. Je choisirai plusieurs observables différents tels que les opérations de mesure correspondantes soient mutuellement exclusives.

On résumera en disant que par un très grand nombre de réitérations d'opérations de mesure mutuellement exclusives, j'obtiens de l’entité virtuelle réchauffement de température une certaine connaissance globale, probabiliste, qui est un invariant observationnel pouvant lui être associé et le caractériser. Je puis aller plus loin en établissant un algorithme mathématique prévisionnel donnant une représentation abstraite du résultat obtenu. J’établirai, pour toute opération de préparation, une fonction d'état ou fonction de probabilités qui représentera l'ensemble de tous les résultats expérimentaux en fonction du temps – ce qui s’impose dans le cas du réchauffement de température puisque celui-ci est supposé évoluer dans le temps.

Une fois que cette fonction de probabilité a été construite, des calculs simples permettront d’obtenir des prévisions quantitatives. Mais il ne s'agira que de prévisions probabilistes globales et pas de prévisions individuelles affirmées avec certitude. Elles pourront cependant se révéler d'une précision déconcertante. Ainsi l’entité réchauffement de température qui au départ n'était qu'un simple étiquetage subit finalement une transmutation en un outil mathématique de description probabiliste prévisionnelle, qui me sera fort utile dans la suite de mes travaux, notamment pour convaincre des décideurs de l’urgence des mesures à prendre afin de contrer le phénomène. Ce sera en quelque sorte, pour reprendre le terme utilisé par la physique quantique, la fonction d'onde ou vecteur d’état de l’entité virtuelle réchauffement de température. L'opacité qui sépare le supposé niveau virtuel du réchauffement de température et mon propre niveau de perception et d'action sera – en ce sens et en ce sens seulement - levée. Une structure descriptionnelle prévisionnelle et vérifiable aura été mise en place.

Malgré les apparences, on voit que la méthode MCR est très différente des méthodes classiques. Ainsi, en ce qui concerne le réchauffement de température, l’observateur climatologue classique affirme a priori l’existence d’un phénomène, le réchauffement de température, tel qu’il le définit. Il exclut toute autre définition et c’est à partir de cette définition qu’il travaille. Ainsi tel auteur inclura dans le calcul du réchauffement de température les variations de températures observées dans la circulation océanique profonde dite thermohaline, et tel autre les migrations d’animaux obligés à s’adapter. Tel autre ne tiendra pas compte des niveaux d’enneigement observés dans les stations de ski. Ces auteurs procéderont ensuite à des mesures statistiques qui donneront une apparence de scientificité à leurs définitions, dont ils se garderont bien d’annoncer le caractère partiel. Evidemment, les climatologues honnêtes ne sont pas tous incapables d’efforts destinés à exclure la subjectivité et le caractère partisan de leurs travaux. En croisant les points de vue, ils peuvent aboutir à des caractérisations, toujours relatives mais plus générales, des phénomènes qu’ils étudient. Mais dans ce cas, ils retrouveront sans le savoir les procédures de la physique quantique résumées dans la méthode MCR exposée ci-dessus. Ils courront cependant à tous moments le risque de retomber dans l’erreur de la réification – ce qui est plus difficile, bien que pas totalement impossible, en matière de physique quantique.

Généralisation de la méthode

On le voit, l'application de la méthode ne se limite pas aux représentations scientifiques du monde mais plus généralement à celles qu'en donnent tous les langages symboliques – y compris le langage politique, grand consommateur de références à de prétendus “ existants ” qui n’existent que par la volonté des acteurs de la vie politique. Sa portée est donc universelle. Selon nous, elle devrait donc être dorénavant enseignée et appliquée partout.

Il faut bien voir que c'est la transposition à la science macroscopique de la pratique épistémologique de la physique quantique qui représente la nouveauté de ce travail. Divers chercheurs en sciences de la complexité, par exemple Edgar Morin avec ses célèbres notations récursives avaient essayé de proposer des modèles tenant compte de l'implication de l'observateur dans ses descriptions, mais ces tentatives n'ont jamais été convaincantes ni généralisables. Pour y réussir, il fallait d'abord interroger au fond la démarche du physicien quantique, puis la constituer en méthode utilisable dans tous les autres domaines de l'acquisition de connaissance.

Si on veut l'appliquer constamment, la méthode MCR paraîtra peut-être au premier abord un peu raffinée ou perfectionniste, étant donné que ses performances spécifiques ne sont vraiment frappantes que dans des cas relativement peu courants de la vie quotidienne. Notre lecteur n’aura pas manqué de se moquer, nous en sommes persuadés, du luxe de précautions méthodologiques que nous avons évoquées pour traiter du réchauffement de température. Comme on dit, c’était un peu se noyer dans un verre d’eau. Mais il s’agissait d’une démonstration d’école. Par contre, ces précautions apparaissent indispensables quand on est confronté à des paradoxes ou à des faux problèmes qui semblent insolubles (par exemple, est-ce que Gaïa tel que définie par James Lovelock existe vraiment ?).

Plus généralement, la méthode s’impose quand il s’agit, comme l’indique James Lovelock, de rapprocher des sciences qui refusent de le faire spontanément, bien qu’elles traitent toutes du même sujet, Gaïa : géologie, vulcanologie, océanologie, météorologie, biologie et anthropologie. On devra utiliser aussi la méthode dans des domaines qui, suite à telle ou telle pratique particulière (météorologie marine à court terme, par exemple) sont d'ores et déjà abordées par des méthodes professionnelles locales englobant de fait la méthodologie MCR, bien qu'à l'état implicite et non-systématisé. Il sera alors possible de réintégrer leurs résultats dans les méta-connaissances recherchées. On voit que tout impose dans tous ces cas d'utiliser MCR comme référence explicite générale, tout en employant les raccourcis que cette méthode définit elle-même, à chaque fois que ceux-ci sont " légalement " acceptables sans introduire des contresens. On disposera ainsi d'une sécurité de conceptualisation permanente.

Serait-il possible de trouver dans cette direction, sinon des solutions efficaces au drame actuel, qui nous semble hélas irréversible, mais des perspectives dessinant les contours d’un monde différent, où seraient conservés les acquis cognitifs de l’actuel ? Nous en sommes persuadés, mais il faudra que se mettent en place des techniques et des procédures de gouvernance représentant des sauts qualitatifs considérables par rapport à ce qui se pratique aujourd’hui.

Conclusion


L’apport de la méthode MCR présentée ici ne pourrait se faire sentir pratiquement que si chacun des cerveaux humains qui produisent des jugements déclaratifs sur le monde étaient capables d’y faire appel spontanément. Ainsi ces jugements et les comportements effectifs en découlant seraient-ils beaucoup plus aptes à permettre la navigation dans un monde complexe et se modifiant en permanence que s’ils étaient inspirés par une approche « réaliste » donnant aux sujets l’impression qu’ils sont en contact direct avec le tissu même du monde. Mais peut-on espérer que des modes de pensée traditionnels, inventés depuis des millénaires par la pensée mythologique ou depuis des siècles par la pensée rationaliste cartésienne, puissent être abandonnés en quelques décennies. Des milliards d’hommes considèrent encore le monde et eux-mêmes comme leur imposent de le faire des religions primitives. Certes, MCR pourrait être beaucoup simplifiée pour pouvoir s’imposer dans la vie courante. Mais même en ce cas, la mutation dans les façons de penser du grand public demanderait beaucoup de temps. Ce serait pourtant le délai de quelques décennies qu’il faudrait respecter si l’on voulait que, dans les années qui viennent, les comportements de milliards d’humains et de millions de systèmes anthropotechniques plus ou moins destructeurs puissent se trouver modifiés.

Si cependant, malgré les difficultés rencontrées pour diffuser MCR, l’ensemble des observatoires et des observateurs qui étudient l’évolution de la Terre et des mondes biologiques qui l’habitent étaient capables d’implémenter rapidement des approches dérivées de MCR, leurs observations prendraient très rapidement plus de pertinence. De ce fait, les décisions en découlant pourraient se révéler plus efficaces. De plus, la mutualisation des représentations de la Terre obtenues à tous moments par ces observatoires pourrait donner lieu en permanence à une méta- représentation qui fait actuellement cruellement défaut pour juger de l’adéquation entre les mesures prises et le développement des risques.

Bien évidemment, tout ceci ne serait pas possible si les systèmes scientifiques en restaient à leurs instruments et méthodes actuels. Mais comme la composante technologique de ces systèmes évolue très rapidement actuellement, dans la voie de l’informatisation et de la mise en réseau, on peut espérer qu’un nouveau terrain propice à l’émergence de la méta-méta-représentation dont nous venons de rappeler la nécessité pourra se mettre en place en quelques années. Il n’y a rien de certain à cet égard, mais c’est une possibilité.


Pour en savoir plus

Sur MCR, voir en particulier Mioara Mugur-Schächter, L’infra-physique quantique. Une révolution épistémologique révélée dans es descriptions de microétats. Dianoïa PUF, parution fin mars 2009 .

 

Repost 0
11 février 2009 3 11 /02 /février /2009 10:16
Les bases neurales de la croyance religieuse
par Jean-Paul Baquiast
13 février 2009


De plus en plus de scientifiques essayent aujourd’hui de comprendre les raisons pour lesquelles les hommes continuent à s’enfermer dans des croyances religieuses, quel que soit d’ailleurs le type de divinité à laquelle ils s’adressent 1) Non seulement ces croyances sont universelles, mais elles semblent en train de progresser, contrairement à ce qu'affirment certaines enquêtes croyant percevoir un recul du religieux au fur et à mesure de l’élévation du niveau de vie.


Les explications données à ce phénomène peuvent être de plusieurs types. Les unes s’appuient sur l’analyse des compétitions passées ou contemporaines entre groupes. Dans les sociétés humaines, un certain nombre d’organismes sociaux (que nous pouvons qualifier de superorganismes selon la terminologie désormais usuelle) ont spontanément découvert qu’ils pouvaient utiliser les croyances religieuses de leurs membres pour conquérir ou conserver un pouvoir social. Ceci a donné naissances aux églises ou structures analogues, parmi lesquelles on trouve aujourd’hui d’innombrables formes de sectes, dont l’action vise principalement à exercer le pouvoir politique et économique, même si elles s’en défendent. Les pouvoirs politiques proprement dits se sont très souvent rapprochés de ces pouvoirs religieux afin d’exploiter ensemble les mêmes ressorts sociaux. Mais si ces explications sont recevables, elles ne suffisent pas à comprendre la généralité du phénomène religieux.


On trouve dans la littérature spécialisée d’autres types d’explications faisant appel à des observations faites en imagerie cérébrale ou à des analyses endocriniennes. On a pu montrer ainsi que des zones cérébrales bien individualisées s’activent lorsque les sujets sont, soit en méditation, soit en train d’affirmer des croyances bien définies. Au plan endocrinien, on a récemment observé que le fait d’agir à l’unisson d’un groupe solidement constitué produit des effets de récompense, sous forme d’émission de testostérone ou molécules analogues qui confortent l’appartenance de l’individu au groupe. Mais ces différents phénomènes, qui tendent à renforcer l’homogénéité des superorganismes humains, ne supposent pas nécessairement la croyance en une divinité. Croire en un chef politique peut provoquer les mêmes effets de récompense.


Sur un plan un peu différent, on a depuis longtemps déjà évoqué le fait que les premiers hominiens découvrant la réalité de la mort n’auraient pas survécu au désespoir en résultant si leur cerveau n’avait pas immédiatement inventé la croyance en une vie surnaturelle. De la même façon, dans les temps de crise, les populations se rapprocheraient des religions afin d’y trouver les consolations qu’elles ont perdu dans la vie matérielle. Ainsi les bases neurales générant la croyance en une vie extraterrestre auraient été sélectionnées pour leur caractère prophylactique, si l’on peut dire. Mais une objection très fondée a été faite. Pourquoi la croyance en une vie meilleure n’aurait-elle pas incité les individus à rechercher la mort au plus vite, afin d'atteindre au paradis et à ses onze mille vierges, comme semblent le faire aujourd’hui les combattants candidats aux attentats-suicides.


D’autres scientifiques, notamment Michaël Gazzaniga 2) proposent de rechercher les propension à la croyance dans la très petite enfance. Il s’agirait d’un sous-produit, si l’on peut dire, de la façon dont le cerveau se construit en interprétant au mieux les messages sensoriels. Pour Gazzaniga, le nouveau-né, jusqu’à la petite enfance, est un « dualiste né ». (on pourrait évoquer aussi à ce sujet la théorie de l’esprit, Theory of Mind, qui consiste à prêter aux autres la possession d’états mentaux analogues à ceux que l’on ressent). Le jeune enfant attribue des intentions cachées, non seulement aux êtres vivants mais aux objets de son entourage, dès lors du moins qu’ils sont animés (par exemple des figures géométriques mobiles sur un écran). Il semble que beaucoup de jeunes animaux appartenant aux espèces dites supérieures font de même. Ceci permet au nouveau-né d’être réactif vis-à-vis des intentions qu’il prête au monde et de construire par essais et erreurs sa propre personnalité. Si elle n’est pas contrée par l’éducation, une telle propension, exportée chez l’adulte, servira de support aux croyances dualistes.


Le psychologue évolutionnaire Paul Bloom, de Yale, va plus loin. Il suppose que le jeune enfant dispose de deux systèmes de connaissance autonomes, l’un traitant de l’esprit et l’autre des relations avec le monde physique. Il nomme ceci le dualisme de sens commun (common sense dualism). Il s’agirait en fait d’un fonctionnement quasiment défectueux du cerveau. Le cerveau laisserait la partie de lui-même qui commande les comportements quotidiens en relation avec le monde matériel agir de façon mécanique, sans produire d'intentionnalités, tandis que le cerveau cortical, fonctionnant sous le régime de la conscience dite supérieure, tendrait à supposer l’existence de telles consciences chez des animaux et personnes extérieures. Par extrapolation, le cerveau supérieur en viendrait à imaginer que cette faculté consciente puisse se trouver désincarnée et vivre d’une vie propre. Il s’agirait alors d’une extension ou radicalisation de la théorie de l’esprit.


On dira que ces observations n’ont rien de nouveau et ont permis notamment d’expliquer depuis longtemps l’animisme que l’on retrouve dans beaucoup de cultures primitives. Même de nos jours, le poète se demande « Objets inanimés, avez-vous donc une âme, qui s’attache à notre âme et la force d’aimer ? ». Il serait donc important de sortir de la psychologie et de montrer concrètement, par des expériences précises analysant les bases neurales en cause, comment se forme dans le cerveau des jeunes enfants ce dualisme fondamental. Il faudrait aussi montrer quels bénéfices recueille le sujet quand il suppose que des entités non conscientes sont conscientes ou que des consciences ou esprits se promènent de façon désincarnée dans la nature. En fait, de telles croyances, loin d’être utiles, pourraient provoquer beaucoup d’erreurs qui se révèleraient néfastes pour la survie.


La recherche de causes, fussent-elles imaginaires


On peut donc penser que toutes ces explications ne sont pas suffisantes. Une autre direction de recherche évoque le besoin consistant à rechercher des causes aux phénomènes perçus, afin notamment d’agir sur ces causes ou tout au moins de conjurer certains de leurs effets. Les animaux supérieurs le font spontanément dans de nombreux cas. Il s’agit d’un comportement essentiel à la survie. Il ne serait pas étonnant que les humains aient développé cette forme de relation avec le monde extérieur, dont les bénéfices étaient pour eux immédiats. Mais, emportés par l’élan, si l’on peut dire, ils auraient pris l’habitude de supposer l’existence de causes là où il n’y en avait pas. Il se serait agi d’une sorte de principe de précaution inconscient. Mieux vaut soupçonner la présence d’un prédateur quand un bruit se fait entendre, même si ce soupçon n'est pas fondé, qu’attribuer ce bruit à un hasard inoffensif. Les cerveaux humains se seraient donc progressivement câblés pour faire l’hypothèse de l’existence de causes, y compris des causes surnaturelles quand des causes naturelles n’apparaissaient pas immédiatement. En découlait immédiatement la croyance en la finalité : tel phénomène ou objet a pour but ou cause de jouer tel rôle.


La recherche des causes est à la base de la démarche scientifique, sauf qu’en ce domaine, les relations supposées entre causes et effets font l’objet d’une critique collective sévère. On comprend donc bien que chez la plupart des jeunes et même des adultes ne pratiquant pas la rigueur de la méthode scientifique, la tendance à supposer l’existence de causes surnaturelles ait constitué de tous temps et demeure encore un « câblage très dur » dans le cerveau des individus. D’où la difficulté qu’ont les matérialistes (quand ils se préoccupent de cette question) à convaincre leurs contemporains de la vanité des superstitions et des croyances religieuses pour expliquer le monde.


Ajoutons que l’hypothèse faisant reposer dans la recherche des causes le fondement des croyances religieuses permet de commencer à expliquer l’apparition des incroyants ou athées. Comment dans des populations dont les cerveaux étaient généralement câblés pour générer des croyances irraisonnées en un ordre extraterrestre, ont pu apparaître et se répandre (à petite dose) des individus dont les cerveaux se refusaient à embrasser sans preuves de telles croyances ? Nous pensons que la réponse à cette question réside dans le fait que les cerveaux ne sont pas tous identiques, ni à la naissance ni au terme de leur éducation sociale. Il s’en trouve quelques uns, en petit nombre, pour faire preuve d’incrédulité, aussi bien à l’égard de ce qu’ils croient voir à première vue qu’à l’égard de ce qui leur est dit. Pour croire, ils ont besoin de preuves matérielles sérieuses et renouvelées. Cette capacité se retrouve chez certains individus au sein de diverses espèces animales. Ils ne se laissent pas leurrer par des pièges et tromperies comme le reste de leurs congénères. Ce qui leur est généralement utile.


Les athées sont de cette sorte. Dès l’enfance, ils ont refusé de croire aux enchantements proposés par les religions, de la même façon qu’ils avaient refusé de croire au Père Noël. Ils ne percevaient pas de preuves matérielles justifiant de telles hypothèses. Il s’agissait, si l’on peut dire, de scientifiques avant la lettre. Si notre hypothèse était exacte, elle permettrait de comprendre pourquoi les incroyants sont à la fois si rares et si précieux…et pourquoi ils risquent de le rester encore longtemps.


Notes

1) Lire l’article Born believers. How your brain creates God par Michaêl Brooks
http://www.newscientist.com/article/mg20126941.700-born-believers-how-your-brain-creates-god.html?full=true

2) Voir notre article présentant le livre de Gazzaniga "Human, What makes us unique". http://www.automatesintelligents.com/biblionet/2008/sept/human.html

Repost 0

Articles Récents

Liens