Overblog Suivre ce blog
Administration Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

5 février 2006 7 05 /02 /février /2006 19:51

Le Web est-il un cerveau global?
Jean Paul Baquiast
3 février 2006

 La question de savoir si le Web n'est pas en train de devenir un super-cerveau, générant une super-intelligence, est posée (et résolue de façon globalement affirmative) par un article très stimulant de Kevin Kelly, publié par le réseau Kurzweil AI.
(voir
http://www.kurzweilai.net/meme/frame.html?main=/articles/art0629.html
ainsi que sur Wired http://www.wired.com/wired/archive/13.08/tech.html
Nous nous proposons de la discuter ici. Notre réponse sera, comme l'indique le titre, plus prudente.

The planet-sized "Web" computer is already more complex than a human brain and has surpassed the 20-petahertz threshold for potential intelligence as calculated by Ray Kurzweil. In 10 years, it will be ubiquitous. So will superintelligence emerge on the Web, not a supercomputer?

Quel est l'argument de Kevin Kelly et de ceux qui raisonnent comme lui?

Le Web est devenu un superorganisme d'une nature et d'une taille encore jamais vues sur Terre à ce jour, du moins dans le domaine des systèmes créés par l'homme. D'ores et déjà il comprend plus de 1 milliard de correspondants potentiels, c'est-à-dire de machines capables d'émettre et de recevoir des messages : PC, téléphones portables, objets(1). Ceux-ci ont généré près de 50 milliards de pages. Dans 10 ans il connectera des milliards voire des dizaines de milliards de terminaux de toutes sortes et aura créé un nombre de pages et messages pouvant atteindre le milliard de milliard.

Derrière ces machines il y aura des utilisateurs, humains et automates. Dans une vision encore courante du Web, la grande majorité de ces utilisateurs s'informent, c'est-à-dire consomment passivement des informations créées par une petite minorité d'entre eux. Nous sommes en face d'un système à flux descendant, qui n'est pas très différent, hors sa taille, du système de création et de diffusion des contenus d'information caractérisant les médias traditionnels, y compris la presse et la littérature depuis des siècles. Mais dans la vision qui tend aujourd'hui à prévaloir, les utilisateurs produisent et diffusent des contenus en même temps qu'ils en consomment. Ils les produisent soit en retraitant directement des informations qu'ils ont prélevées sur le web (je lis un texte en ligne et cela me suggère des réactions, c'est-à-dire des idées originales que j'édite) soit même en créant des contenus de leur propre chef (je crée un site où je publie par exemple l'histoire de ma vie…). Autrement dit, les utilisateurs, sans cesser d'être consommateurs, deviennent aussi auteurs, en créant de l'information que d'autres consommeront. De ce fait, ils constituent un nouveau pouvoir, face aux anciens détenteurs de l'information et des savoirs, qui tentent mais en vain d'en conserver le monopole. On retrouve toutes ces questions dans les débats actuels sur les droits d'accès à la culture numérique(2).
Derrière ces constatations qui tendent à devenir banales, Kevin Kelly rappellent ce que nous devrions savoir. D'une part, toute démarche, de lecture ou d'écriture sur le Web, est mémorisée quelque part, sans limite de temps, sauf quand des serveurs disparaissent (et encore. Leurs données ont généralement été reprises ailleurs). Ceci signifie que se créent à chaque fois des liens nouveaux entre données jusqu'ici non reliées. Si je vais lire le contenu d'un site, je crée un lien entre mon adresse IP et celle de ce contenu. Si je fais davantage, en publiant un lien hypertexte sur ce site, je « durcis » le lien et le fait connaître, potentiellement, au monde entier. Le Web devient donc une gigantesque mémoire, qui, 24h sur 24, n'arrête jamais de travailler et de s'étendre. Nous avons vu que parmi ce que nous avons appelé des utilisateurs, se trouvent de plus en plus d'automates et d'objets. Je suis « tracé » par différents objets qui mémorisent les liens, physiques ou virtuels, que j'établis sans cesse dans ma vie sociale : ainsi je passe tel péage, je vais chez tel commerçant, etc. Ceci inquiète beaucoup de gens mais n'est qu'un aspect particulier de l'immense réseau de contenus mémorisés dans lesquels je m'inscris dès que je fais quelque chose.

On considère généralement, non sans raison et comme nous l'avons rappelé en introduction, que le Web est un immense réseau interconnectant physiquement (même si toutes les connections ne sont pas à tous moments activées) des centaines de millions de machines. Mais si l'on prend en considérations tous les liens qu'il a mémorisés entre pages et contenus de pages, on atteint les milliards de milliards d'objets virtuels. Nous employons le terme d'objets virtuels car ceux-ci sont très proches de ce que Jean-Pierre Changeux avait appelé des « objets mentaux » dans son livre fondateur, l'Homme neuronal. Les objets mentaux de J.P. Changeux sont contenus dans notre cerveau et matérialisés par les synapses plus ou moins durables s'étant établies entre neurones –notamment dans le cortex associatif - au long de notre vie. Nous allons revenir ci-dessous sur cette comparaison entre le Web et le cerveau, car c'est elle qui nous intéresse ici.

Ces données ne s'accumulent pas en désordre dans la mémoire collective du Web. Elles se distribuent spontanément ou sont volontairement classées par origines géographiques, linguistiques, fonctions assurées, etc. Mais d'une façon générale, une hiérarchie particulière apparaît, découlant de la fréquence de consultation. Il s'agit d'un système de sélection quasi-darwinien. Les sites et données les plus consultées sont présentés en tête des listes des moteurs, ce qui accroît la fréquence de leur consultation au détriment des données isolées. Cependant le système est chaotique. On constate que des données très consultées peuvent ne plus l'être et que des sources isolées peuvent brutalement s'étendre et conquérir momentanément une partie de la globosphère ou du Web (voir ci-dessous : le rôle des mèmes sur le web).

Comment qualifier l'assemblée ou collection des objets virtuels (ou synapses numériques) que nous venons d'évoquer, faits de liens mémorisés sur le Web ? On peut dire qu'ils représentent un modèle dynamique d'un monde plus général, celui où s'exerce l'activité des humains et de leurs machines. Ce modèle dynamique est un monde physique à lui seul, fait de ces réalités (physiques) que sont les informations et liens entre informations figurant dans les serveurs et dans les réseaux de connexions entre serveurs. Nous pouvons le qualifier, afin de le distinguer d'autres types de mondes créés par des interconnexions entre objets naturels (par exemple le monde des bactéries, souvent lui-même qualifié de "web bactérien") d'un monde numérique. Le monde numérique se construit sans cesse, du fait de l'interaction permanente des humains et de leurs machines avec un monde biologique et physique plus général. Nous nommerons ce dernier l'Univers, afin de ne pas le confondre avec le monde numérique qui le représente.

Le monde numérique est-il un reflet passif de l'Univers, comme peut l'être l'image d'un animal dans un miroir ? Non pas et pour plusieurs raisons. La première est que, dès qu'un utilisateur du Web, homme ou machine, introduit un nouveau lien, ce lien sera perçu et pris en compte par un autre utilisateur, qui modifiera en conséquence, d'une façon non prévisible mais indéniable, son propre comportement, c'est-à-dire son action sur l'Univers. C'est assez évident. Si je lis sur un site web que je dois réduire mes émissions de CO2, je m'efforcerai de le faire et j'agirai ainsi effectivement sur l'univers physique et biologique. Ceci tient au fait que les utilisateurs ne sont pas inactifs mais constituent des « agents pro-actifs », selon l'expression de l'Intelligence Artificielle. Ile le sont d'autant plus qu'ils sont dotés en propre, grâce à la possession d'un cerveau biologique et de contenus culturels accessibles à ces derniers, d'une aptitude à la création autonome (pour ne pas parler de conscience) que n'ont pas forcément les machines – du moins en leur état actuel.

Mais la proactivité des agents humains n'est pas seule créatrice de nouveaux liens ou objets virtuels. Lorsque les liens génèrent eux-mêmes, par leurs interactions, de nouveaux contenus et que ces contenus arrivent à influencer des utilisateurs, hommes ou machines, ces nouveaux objets modifieront de leurs propre chef, par émergence, selon le terme consacré, le comportement des agents. Ils modifieront par conséquent les effets qu'exercent ces comportements sur la marche de l'Univers. Mais est-ce possible, sans interventions humaines ? Oui, du fait de l'activité de tous les automates qui dorénavant opèrent sur les données du Web afin de les recenser, les analyser, les résumer et les transformer. Si un moteur de recherche du type de celui proposé un temps par Microsoft rassemblait de lui-même toutes les traces que j'ai laissées ma vie durant sur le Web, dressait le portrait ou plutôt le profil de moi qui en découle, et communiquait ce profil - soit à moi soit à d'autres – il modifierait inévitablement les comportements de ceux ayant connaissance de ce profil et donc la façon dont ceux-ci interagiraient ultérieurement avec l'univers extérieur. Pour prendre un exemple sympathique, si un tel profil établi automatiquement montrait que je suis un esprit très créatif, je pourrais postuler un poste dans une entreprise de création où j'inventerais peut-être une machine géniale, capable de modifier durablement l'univers.

Plus généralement, le réseau des serveurs et pages interconnectés générera inévitablement ce que la mémétique désigne du terme de mèmes(3). Les mèmes sont des idées ou images qui se développent et se reproduisent spontanément, comme des virus, sur le mode de la sélection darwinienne, au sein des réseaux de communications animaux et humains. Dans une société classique, leur importance est fonction de la densité des échanges entre individus et groupes. Dans un système profondément câblé et interactif, elle a toutes les chances d'augmenter considérablement. C'est ainsi que les effets de mode, concernant des informations vraies ou fausses, sont particulièrement rapides à naître sur le Web et parfois à y prendre des dimensions mondiales.

Nous voyons donc se mettre en place une Méga-machine, incluant et transcendant l'activité des humains et de leurs petites machines. Cette Machine comptera désormais de plus en plus parmi les agents physiques et biologiques influant sur l'évolution de l'Univers, au moins à l'échelle de la Terre et de son environnement immédiat. Il faut ajouter un point très important : la Méga-machine n'est ni descriptible en totalité ni, évidemment prédictible, par aucun homme ou système que ce soit. Il s'agit donc pour reprendre le terme de Victor Hugo, d'une « force qui va » mais nul ne sait où elle va. Le seul argument qui rassurera les esprits craintifs est qu'elle dépend totalement de la technologie. Qu'une guerre nucléaire ou un cataclysme détruise les réseaux et les serveurs, la Machine s'effondrera…mais probablement avec elle toute société humaine un tant soit peu évoluée. Resteront les fanatiques religieux des premiers âges.

On objectera que la Machine ainsi décrite n'est qu'une extrapolation des systèmes de communication existant dans les sociétés humaines traditionnelles. Dans ces sociétés, même lorsque les échanges sont seulement langagiers, sans écrits, chaque individu est plus ou moins récepteur et émetteur de données. On connaît le rôle des « commères » dans les villages ruraux. Des effets de mode ou d'émergence imprévus peuvent aussi s'y faire sentir. La seule différence d'avec les sociétés modernes est la densité des informations reçues ou échangées par habitant et par unité de temps, ainsi que la faible étendue des connexions. Celles-ci ne dépassent que rarement les limites de la province et sont enfermées dans des isolats linguistiques et culturels entre lesquels n'existent pas d'outils de traduction. C'est il est vrai aussi un peu le cas sur le Web. Tout le monde n'y communique pas avec tout le monde et tout le monde n'a pas le temps de communiquer autant qu'il le voudrait. Mais au moins en ce qui concerne les mises en corrélation automatiques et l'ampleur des mémoires rendues disponibles, les échelles de grandeur sont sans comparaison. On obtient donc avec le Web de très grandes densités de créations et d'échanges, qui produisent probablement des changements qualitatifs et pas seulement quantitatifs, par lesquels les « infosphères » modernes se distinguent des infosphères primitives.

Ceci admis, le Web constitue-t-il véritablement un super-cerveau, créateur d'une super-intelligence ? Pour répondre à cette question capitale, il faut s'entendre sur ce que l'on entend par cerveau et intelligence, en prenant pour référence ce que nous connaissons de l'un et de l'autre dans l'état actuel des connaissances scientifiques.

Le cerveau et son intelligence

Il existe d'innombrables études relevant de la discipline des neurosciences, aujourd'hui, qui tentent de décrire l'organisation du cerveau et la façon dont celui-ci, chez les animaux supérieurs et l'homme, génère de l'intelligence, voire génère ce que l'on appelle encore, à tort ou à raison, des faits de conscience. Les travaux sur les robots autonomes abordent le problème à partir de bases différentes, les systèmes et agents informatiques, mais ils aboutissent à des conclusions de plus en plus proches de celles des neurosciences. Nous n'allons pas dans ce court article reprendre tout ceci, mais seulement résumer les caractères généralement attribués au cerveau et à ses états, afin de voir si nous les retrouvons dans la Machine du web telle que nous venons de la décrire. Distinguons en quoi les deux types d'organisations se ressemblent et en quoi elles différent.

Première ressemblance.

Le cerveau n'a pas de capacités cognitives, que ce soit en neurologie ou en robotique, s'il n'est pas relié à un corps qui le distingue de l'univers extérieur et avec lequel il interfère en permanence grâce à des organes sensoriels (ou senseurs) et des organes moteurs (ou effecteurs). Ce sont les données reçues par ces organes qui constituent les objets mentaux synaptiques contenus dans le cerveau. Ce sont également celles émises par eux qui modifient en retour l'univers dans lequel se meut et survit, non seulement le cerveau mais le corps tout entier. Or la Machine du web a-t-elle un corps et est-elle dotée de senseurs et d'effecteurs ? A priori, sans entrer dans les détails, nous pouvons répondre par l'affirmative. Son corps et ses organes sont faits des innombrables utilisateurs du web, humains ou machines. C'est un corps très réparti, mais il se distingue de l'univers extérieur, y compris des humains non connectés, par divers traits physiques. De plus et surtout, il dispose des organes sensoriels et effecteurs des humains connectés et de leurs propres machines. La structure ainsi formée n'est pas tout à fait comparable à l'ensemble des neurones constituant le cerveau. Elle ressemble plutôt à ce que l'on appelle un essaim ou une meute (swarm). Autrement dit, il s'agit plutôt d'un super-organisme que d'un organisme mais les différences, à notre niveau d'approche, ne sont pas significatives.

Le fait que les humains connectés au Web disposent de capacités propres de représentation, grâce à leurs cerveaux et leurs cultures individuelles, ne change pas grand-chose dans le schéma d'ensemble où ils sont assimilés à des neurones cérébraux plus ou moins passifs participant au fonctionnement du Web. On peut en effet considérer que si ces cerveaux et intelligences individuelles enrichissent les capacités de recueil et de production d'information des terminaux du Web, à grande échelle, leur influence sur celui-ci est négligeable. Elle reste soumise aux lois statistiques gouvernant la dynamique d'ensemble du système. Ainsi la production des intelligences individuelles à haut coefficient compense la sous-production des intelligences plus modestes. Dans le cerveau d'ailleurs, comme sur le Web, tous les neurones ne sont pas également passifs. Certains neurologues considèrent qu'un certain nombre d'entre eux ne sont pas de simples machines à transmettre ou à traiter de façon linéaire l'information qui transite par eux. Disposant de millions de connexions synaptiques, ils se comportent probablement, dans certaines zones cérébrales tout au moins, comme des agents pro-actifs plus ou moins capables de créativité intelligente. Un neurone, ses dendrites et ses synapses doivent pouvoir, à lui seul et dans certain cas, computer c'est-à-dire créer de l'information, par exemple sur le mode des réseaux de neurones formels. Ils sont donc au moins aussi "intelligents" que certains hommes.

Deuxième ressemblance.

Le cerveau joue pour le corps le rôle d'une immense base de données mémorisant les expériences vécues par le corps. Il s'agit des associations ou objets mentaux précédemment évoquées. Celles-ci sont réparties à l'intérieur des zones cérébrales héritées génétiquement où elles servent de support aux activités réflexes ou aux mémoires de long terme. D'autres sont stockées dans des mémoires temporaires et permettent la mémoire immédiate
(4). Certains neurologues considèrent que le cerveau avec son immense potentiel synaptique, est tout à fait capable de conserver, sinon d'utiliser efficacement, l'ensembles des informations reçues ou produites par un individu tout au long de sa vie. Nous pouvons donc considérer que le cerveau sur ce plan, n'est pas très différent du Web global qui conserve et conservera, sauf destructions occasionnelles, l'ensemble des données accumulées depuis sa création.

Principale différence.

Par contre, et c'est la différence essentielle, le cerveau est un système fortement interconnecté et fortement hiérarchique. Cette hiérarchisation dépasse de beaucoup celle que nous avons évoquée précédemment concernant la sélection des données qui apparaissent en tête de liste dans les moteurs de recherche. Elle est absolument systémique. Ceci apparaît particulièrement bien dans l'architecture anatomique et fonctionnelle du cerveau révélée par l'imagerie cérébrale moderne. On y voit l'organisation des six couches composant le cortex associatif. C'est la partie du cerveau dite aussi matière grise où l'on situe généralement le siège de l'intelligence et des états de conscience.

Les expériences accumulées par le cerveau reflètent la structure du monde tel qu'il est apparu au sujet tout au long de sa vie, sous la forme de séquences d'événements et de relations entre ces séquences. A partir de ces contenus de mémoire, le cerveau fait à tout instant des prédictions qui sont confrontées aux nouvelles expériences et mémorisées à leur tour après modifications éventuelles. C'est ce système de mémoire-prédiction qui constituerait l'essentiel de l'intelligence humaine, en organisant les perceptions, la créativité et même la conscience. Il est évident que la Méga-machine du web, aujourd'hui encore –sauf peut-être sous forme de traces ou d'amorces locales sans conséquences pratiques globales- est incapable d'une telle fonction qui permettrait de la prétendre vraiment intelligente(5).

Le cortex associatif ou néocortex est constitué de six couches empilées de neurones aux fonctions différentes, sur une épaisseur qui ne dépasse pas 2 mm. mais qui recouvre, chez l'homme, l'ensemble de la surface de l'encéphale. Grâce à sa structure hiérarchique, le néocortex reçoit en parallèle les messages envoyés par les organes sensoriels et par les couches plus profondes du cerveau. Il les organise sous forme d'objets mentaux, pour reprendre notre terme, ou de «patterns». Par pattern, il faut entendre des ensembles d'informations présentant une cohérence au plan géographique cérébral et au plan temporel (séquences chronologiques). Ces patterns correspondent, après diverses opérations destinées à éliminer l'accessoire pour garder le permanent, aux représentations que nous nous faisons du monde.

Le point essentiel, souvent négligé par les modèles courants du cerveau, est que le néocortex ne fonctionne pas seulement du bas vers le haut - le bas correspondant à la couche recevant les informations primaires et le haut mémorisant des informations de plus en plus globalisées et élaborées. Les patterns se forment dans chacune des six couches de neurones et sont restitués à la couche inférieure en même temps qu'ils sont adressés à la couche supérieure. Ce rétro-feedback prend la forme d'une prédiction renvoyée à la couche inférieure et instantanément comparée et modifiée si besoin est compte tenu des nouvelles informations provenant de l'extérieur. Dans ce modèle d'architecture, on pourrait dire que chaque couche de neurones du néocortex se comporte comme un néocortex à elle seule, à la différence qu'intégrée dans un système hiérarchique, ce qu'elle reçoit et émet influence en parallèle ce que reçoivent et émettent les autres couches. C'est cette architecture qui permet notamment de ne pas confondre le cerveau avec un ordinateur classique ni même avec un système complexe comme le Web, lequel n'est pas hiérarchisé globalement. Ainsi, contrairement à un ordinateur qui produit une information en sortie à chaque entrée d'information venant de l'extérieur, le cerveau fait, à diverses échelles de complexité, des prédictions basées sur les expériences et les séquences préalablement enregistrées. Ces prédictions provoquent des sorties motrices qui modifient le monde environnant, l'Univers, et provoquent en retour le recueil de nouvelles informations au niveau des entrées sensorielles. Les organes sensoriels et moteurs ne fonctionnent pas isolément. Ils s'auto-influencent à tous les niveaux de complexité du cortex, du fait des nombreuses liaisons synaptiques qui les relient. Là encore, ce n'est pas le cas des usagers du Web qui demeurent généralement isolés, c'est-à-dire ignorants de ce que font les autres, même si parfois des effets locaux de contamination les mettent en phase.

Deux autres caractères différencient le néocortex d'un réseau comme le Web global. L'une est l'organisation en colonnes verticales de quelques millimètres de diamètre qui mettent les neurones de chaque couche, à l'intérieur de ces colonnes, en communication avec ceux situés au-dessus et au dessous. Ces colonnes (ou groupes de colonnes, car rien n'est unique dans le cerveau) sont en principe dédiées, du fait d'une architecture acquise par l'évolution et commandée à la naissance par les gènes de structure, à des types spécifiques de messages, par exemple transmettre via le cortex visuel, l'information relative à la perception d'une ligne verticale. Mais si nécessaire, en cas d'accident, elles peuvent se remplacer l'une l'autre. Le cerveau n'est donc pas au départ un amas indifférencié de neurones, un «tas de nouilles»(6).

Le deuxième caractère est opposé au précédent, ou plutôt complémentaire de celui-ci. Dans toutes les couches, avec une densité de plus en plus grande lorsqu'on s'élève dans la hiérarchie de ces couches, il existe des fibres de liaison qui, grâce aux synapses, permettent d'associer les mémoires et donc les prédictions formulées à chaque niveau hiérarchique. Ce sont ces fibres horizontales qui ont donné d'ailleurs au cortex son qualificatif d'associatif. L'existence de liaisons horizontales était connue depuis longtemps, mais on montre aujourd'hui qu'elles jouent un rôle permanent dans la modulation tant des informations émises en sortie que des informations reçues en entrée, ceci quelle que soit la complexité des patterns et des séquences transitant au sein des couches et à travers elles.

Un autre point important, qui permet au cerveau, malgré la lenteur de ses composants primaires, de réagir vite et de façon régulière, est l'invariance des patterns stockés à chaque niveau du cortex. Il s'agit d'une invariance relative, puisque les séquences mémorisées peuvent être modifiées si elles sont contredites par de nouvelles expériences. Mais lorsque ce n'est pas le cas, elles peuvent être immédiatement mobilisées pour produire des prédictions et entraîner des actions s'appuyant sur elles. Ceci ne constitue pas une observation nouvelle. On sait depuis longtemps que le cerveau commande de nombreux comportements sur le mode automatique, par exemple dans le cas de la conduite automobile, l'appel à des solutions plus complexes ne survenant qu'en cas de difficulté inattendue. Cette invariance des patterns ne doit pas être confondue, évidemment, avec les boucles sensori-motrices automatiques caractérisant l'ensemble de la vie organique et ne faisant pas intervenir le cortex. Ceci étant, ce phénomène de l'invariance des patterns au niveau du néocortex est absolument général. C'est pourquoi il caractérise le cortex comme un ensemble de mémoires prédictives. Dans chacune des couches et des colonnes, le néocortex stocke des séquences de patterns. Il s'agit d'un stockage auto-associatif, tel élément de séquence pouvant suffire à faire apparaître la séquence entière ou des séquences différentes dans lesquelles il figure. Là encore, c'est l'extrême connectivité synaptique du cerveau qui rend possible ces associations. Sur le Web, il existe une certaine invariance des données. Mais elle est très fragile et n'est pas indispensable au fonctionnement d'ensemble. Au contraire. Plus les données "mutent", plus la créativité globale du système semble en profiter. L'invariance apparaît a posteriori de façon statistique, certaines données se révélant plus consultées que d'autres et orientant la production de nouvelles données. Mais ceci de façon généralement peu permanente. Les données les plus invariantes à long terme sont les données qui ne sont plus consultées. Elles n'ont donc pas beaucoup d'influence fonctionnelle.

Enfin, dans le cerveau, les patterns sont stockés selon des architectures locales elles-mêmes invariantes et hiérarchiques. C'est ce caractère qui assure la permanence bien connue de la mémoire et le fait que les représentations primaires que nous nous donnons du monde s'articulent dans notre esprit en représentations de plus en plus complexes, débouchant dans certains cas sur des faits de conscience. Plus on s'élève dans la hiérarchie, plus les détails, importants dans les niveaux inférieurs, s'atténuent au profit des lignes générales. On voit ainsi apparaître, au sommet des couches néocorticales, des représentations correspondant à ce que l'on appellera en linguistique des concepts ou des noms. Les concepts sont seulement des abstractions épurées des détails. Ils n'ont pas besoin d'être nommés par le langage social pour exister et servir à orienter le comportement intelligent supérieur. Au plus haut de la pyramide, c'est le concept de « moi » qui synthétisera l'ensemble des expériences passées et actuelles enregistrées par le sujet. Mais de nouveau, on rappellera que la permanence et la hiérarchie ne sont que relatives. Elles peuvent laisser place à des variantes de représentations ou de hiérarchies si de nouvelles expériences imposent ces changements et si la plasticité d'ensemble du système permet d'en tenir compte pour assurer la réadaptation du système à un milieu profondément changé. Inutile de dire que jamais à ce jour on n'a surpris l'existence sur le Web d'une conscience de soi. Ou bien elle n'existe pas (et on ne voit pas comment elle pourrait se former, dans l'état actuel de l'interactivité des réseaux) ou bien il s'agit d'une forme d'intelligence ou de conscience pré-humaine, sinon extra-terrestre, que l'on pourrait retrouver dans les webs biologiques évoqués au début de cet article

Conclusion

Il est donc inutile de faire de longs développements pour montrer que l'intelligence globale n'existe pas encore dans le Web, pour la raison principale que celui-ci n'est pas organisé comme un cerveau biologique. Le Web se borne, et c'est déjà considérable, à enrichir (augmenter) les intelligences individuelles et collectives de ceux qui l'utilisent. Cela leur confère un avantage compétitif considérable par rapport au reste de l'humanité.

Ce sera sans doute l'objectif des futurs moteurs de recherche et d'édition que permettre l'émergence de patterns de représentation de plus en plus globaux, pouvant correspondre à l'apparition sur le Web d'une conscience voire d'une conscience volontaire globale. Sera-ce possible ? Sans doute. Qui en bénéficiera ? Les utilisateurs de la périphérie ? Des pouvoirs politiques centraux visant à réguler ou mobiliser les données du Web à des fins impériales ou impérialistes ? Bien pire ou bien mieux : ne s'agira-t-il pas d'émergences informationnelles et computationnelles qui s'imposeront d'elles-mêmes aux hommes connectés au Web et qui prendront le pouvoir sur eux, comme le prédisent certains auteurs de science-fiction ?

Nul ne peut pensons nous répondre à ces questions pour le moment. D'où la nécessité de rester vigilant, en ne sous-estimant pas mais en ne surestimant pas davantage les capacités d'évolution dynamique du réseau des réseaux.

Notes
(1) L'Internet des objets. On donne désormais ce nom aux objets capables d'émettre des messages recueillis et mémorisés par le web, par exemple la puce antivol incorporée à une automobile qui signale en permanence la position du véhicule, indépendamment de la volonté du conducteur. Voir le rapport de l'Union Internationale des télécommunications http://www.itu.int/osg/spu/publications/internetofthings/
(2) Cette thèse est développée dans l'ouvrage récent "La révolte du proNetariat", de Joël de Rosnay et Carlo Revelli. Voir une interview de l'auteur et les liens dans http://nextmodernitylibrary.blogspirit.com/archive/2006/01/18/la-revolte-du-pronetariat.html
Joël de Rosnay a appliqué ces idées en participant à la création d'un journal collectif sur le mode des multiblogs : AgoraVox http://www.agoravox.fr/. Jusqu'à présent, l'entreprise se révèle un succès, c'est-à-dire qu'elle offre une source très diversifiée d'informations et d'opinions ouverte à tous.
(3)
Voir Comment les systèmes pondent de Pascal Jouxtel, Le Pommier 2005 : http://www.automatesintelligents.com/biblionet/2006/jan/csp.html
(4) Voir Les Dossiers de la Recherche, février-avril 2006, La Mémoire.
(5)
Voir Jeff Hawkins, Intelligence, et notre présentation dans cette revue, dont nous avons importé ici quelques paragraphes
http://www.automatesintelligents.com/biblionet/2005/sept/hawkins.html
(6) Même si le web mondial n'est pas le « tas de nouilles » ou la poubelle généralement dénoncée par ses détracteurs, l'organisation voulue ou automatique (auto-organisation) des données qu'il mémorise n'atteint pas le niveau de complexité décrit ici – lequel se retrouve, rappelons le, dans des cerveaux bien plus « primitifs » que ceux de l'homme.

Repost 0
5 février 2006 7 05 /02 /février /2006 19:29

De l'évolution du cosmos à la mécanosynthèse
From cosmic evolution to mecannosynthesis
Jean-Paul Baquiast 05/02/06

 




Nous avons déjà consacré un long article à la morphogenèse, en donnant une large place à la théorie dite structurale d'Adrian Bejan dont il nous semble que l'on n'a pas assez parlé en France.
(voir:
http://www.automatesintelligents.com/echanges/2004/jan/morphogenese.html).
Cet article, à la relecture, nous parait encore à jour. Nous conseillons donc au lecteur patient d'y jeter un coup d'oeil. Cependant des évènements nouveaux obligent à lui donner des prolongements, que l'on trouvera ci-dessous (image Molecular Assembler).

La morphogenèse

On peut définir la morphogenèse comme le processus consistant à créer des formes. Mais le concept de forme n'a rien de rigoureux. Il peut désigner l'aspect extérieur d'un objet, tel qu'il apparaît à nos organes sensoriels et ce, indépendamment de la nature de cet objet. Ainsi un cristal de neige et une étoile de mer possèdent une forme dite en étoile. Mais on peut donner à la forme un sens beaucoup plus général. On appellera forme, en ce cas, les divers objets, non-vivants et vivants, existant dans la nature et identifiés par nous, compte tenu de ce qu'en perçoivent nos sens après reconstruction par notre cerveau. En ce sens, on pourra par exemple parler des formes vivantes, espèces et individus au sein de ces espèces, ayant été observées et classées par les naturalistes. Il s'agira des innombrables façons dont les constituants élémentaires de la matière biologique, atomes et molécules, ont été organisés par l'évolution en structures plus complexes. A ce niveau, chaque forme (ou type de forme) existant dans la nature est spécifique et doit être distinguée des autres, même si en apparence elle leur est comparable. Si le corail et l'arbre ont des formes extérieures voisines, il ne s'agit absolument pas de formes naturelles identiques, puisque chacun est le fruit d'une évolution propre. Ce qui nous intéressera en ce cas sera d'étudier la façon dont l'évolution a pu donner naissance à des objets aussi semblables et cependant aussi différents que le corail et l'arbre.

Ainsi entendue, le terme de morphogenèse désigne d'abord les mécanismes naturels producteurs de formes : réactions physiques ou chimiques donnant des minéraux de formes et de couleurs différentes ou comparables, influence des vents sur la mer ou le désert productrice d'ondes, évolution des génomes produisant des êtres vivants aux propriétés diverses, etc. Celui qui observe la variété des formes dans le monde et cherche à en comprendre les raisons doit impérativement identifier ces mécanismes naturels et comprendre la façon dont ils agissent pour produire des formes bien déterminées. Mais on risque alors de donner à l'étude de la morphogenèse une telle ambition qu'elle sera obligée d'aborder l'ensemble des sciences. Pour éviter ce risque, on se limitera aux processus génériques, mettant en œuvre des règles simples dont la combinaison aboutira à la production de formes complexes. Ce seront ces règles qui nous intéresseront, puisqu'elles permettront de comprendre et le cas échéant reproduire l'infinie variété des objets du monde, sans s'obliger à étudier les caractères propres de chacun de ceux-ci. Si nous analysons l'aile ou l'œil de l'animal, nous n'aurons pas besoin de connaître en détail les innombrables organismes vivants dotés de tels appendices. Il nous suffira, au moins dans un premier temps, de comprendre les fonctionnalités qu'assurent ces derniers et les grands plans de structure communs qu'ils partagent en conséquence.

Une démarche classique permettant à la science de simplifier l’analyse de phénomènes apparemment différents consiste à rechercher s’ils ne découlent pas de causes identiques. La morphogenèse, telle que nous venons de l’évoquer, est la science de l’évolution des formes. Il est donc tentant de rechercher les grands mécanismes évolutifs permettant d’expliquer la diversification et l’accroissement de complexité des formes naturelles. Il en est un connu depuis longtemps, mais qui n’intéresse que la biologie : la sélection darwinienne sur le mode reproduction-variation-sélection. Elle suppose, sauf cas particuliers, l’existence d’un génome dont les mutations introduisent l’élément de diversification à partir duquel de nouvelles formes apparaissent.

Un mécanisme plus général

Mais il est un mécanisme évolutif beaucoup plus général, bien moins connu, qui intéresse le cosmos tout entier. Selon les théories cosmologiques actuellement admises, le cosmos est né d’un évènement unique, le Big Bang ou le phénomène qui en a tenu lieu
1) Il est admis que depuis le Bib Bang, la matière visible de l’univers a constamment évolué, depuis les nuages de poussières et protogalaxies jusqu’aux galaxies semblables à la nôtre. Au sein des galaxies, les astres évoluent eux-mêmes de façon relativement semblables : création d’un disque en rotation autour d’une proto-étoile, apparition des planètes, évolution de l’étoile elle-même jusqu’à sa disparition sous forme de géante rouge ou pour certaines de supernova. Sur les planètes de type terrestre, la matière physique évolue elle-même selon des cycles lents. Pour ce qui concerne la Terre, une des voies selon laquelle s’est faite cette évolution a permis l’apparition de la vie à partir de molécules pré-biologiques.

Il est certain qu’aujourd’hui beaucoup de choses restent mystérieuses concernant le cosmos et son évolution – à supposer qu’il y ait vraiment évolution. En quoi consiste et comment évolue la matière noire inconnue qui représenterait une grande partie de la masse globale de l’univers ? Quelle est l’énergie noire, assimilée à la constante cosmologique, qui combat l’effet de la gravité et provoque une expansion semble-t-il accélérée de l’univers ? Que deviennent les astres dont la masse est suffisante pour qu’en phase évolutive terminale ils s’effondrent sur eux-mêmes et deviennent des trous noirs ? Mais ces questions sans réponse n’empêchent pas certains cosmologistes de considérer que l’évolution de la matière visible obéit à des lois communes que l’on doit pouvoir retrouver depuis les corps les plus grands jusqu’aux objets physiques et même biologiques les plus petits de notre environnement terrestre.

Pour Eric J. Chaisson
2) ces lois s’articuleraient autour de la façon dont le flux d’énergie primordial (né lors du Big Bang et peut-être alimenté en permanence depuis lors) est utilisé par les corps physiques et biologiques pour accroître leur complexité. Il s’agit d’une énergie « libre » à la disposition des organisations matérielles et biologiques, qui l’utilisent en conformité avec les principes de la thermodynamique loin de l’équilibre pour se transformer et accroître leur complexité. Il en résulte une compétition entre les organisations qui favorise celles qui optimisent l’usage de l’énergie en rapport avec leur masse. Prenons l’exemple d’un astre. Si sa masse est très importante, il brûle tout son hydrogène trop rapidement et disparaît très vite sans produire de complexité. A l’opposé, notre soleil dispose d’une masse qui lui permet d’équilibrer longtemps la pression gravitationnelle et la force d’expansion née de la fusion de son hydrogène. Il est donc capable d’optimiser ses ressources énergétiques de sorte qu’il entretient pendant des milliards d’années autour de lui un cortège de planètes sur certaines desquelles la vie a pu apparaître. Mais, revers de la médaille, il se transformera en fin de vie en géante rouge et ne pourra pas atteindre l’état explosif d’une supernova. Il ne répandra donc pas dans son environnement les éléments lourds à partir desquels d’autres formes de vie pourraient se former dans d’autres systèmes solaires. Autrement dit, il n'aura pas de descendance et n'aura pas contribué à l'évolution cosmique. Ainsi les organisations que l’évolution cosmologique sélectionne sont celles qui restent au milieu de deux extrêmes : consommer trop d’énergie et brûler trop vite leurs réserves et ne pas en consommer assez et rien produire en termes de complexité.

Eric Chaisson applique les mêmes principes aux logiques d’évolution et de sélection des structures et organismes terrestres. Les formes qui apparaissent et qui survivent sont celles qui utilisent au mieux l’énergie nécessaire à leur construction et à leur résistance aux agressions du milieu. Il n’y a rien là de finaliste non plus que de biologique. Prenons l’exemple souvent cité d’un cristal de neige. Pour que celui-ci se forme, les molécules d’eau doivent se rapprocher jusqu’à adhérer et ne pas être rejetées. Bien que les collisions initiales entre molécules se produisent tout à fait au hasard, les molécules en mouvement sont guidées par les forces électromagnétiques jusqu’à ce qu’elles trouvent des positions favorables sur la surface du cristal. Si une molécule arrivant au hasard se trouve positionnée à un endroit favorable à la croissance du cristal, elle est « sélectionnée ». Sinon, elle est rejetée. Sa venue initiale résulte du hasard, mais non sa sélection. De plus, quand le cristal atteint un état d’équilibre thermodynamique, il ne peut plus accepter de molécules et son évolution s'arrête. Eric Chaisson remarque à juste titre que le terme de sélection, dans ce type d’évolution, parait peu opportun. Il n’existe aucun agent qui exercerait une sélection, en éliminant les moins adaptés. Les objets qui survivent sont ceux qui restent après que les autres ont disparu. Il préfère le terme d’élimination non-aléatoire. Dans l’exemple des cristaux, un grand nombre de ceux engagés dans un processus de formation ont disparu parce qu’ils étaient mal conformés pour résister aux forces de destruction. Seuls ont survécu ceux répondant aux contraintes d’équilibre nécessaire à la formation de ce type d’objet.

L’hypothèse selon laquelle existe au plan cosmologique un principe général d’évolution qui se retrouve à tous les niveaux d’organisation de l’univers est satisfaisante pour l’esprit, même si elle n’est pas vraiment vérifiable vu que nous ignorons encore le tissu profond de l’univers. Il existerait ainsi selon cette hypothèse un grand principe unificateur (a great unifier) qui, en amont de et en parallèle à l’évolution biologique, agirait sur l’ensemble des structures matérielles. Son fondement serait l’optimisation de l’utilisation de l’énergie, qu’il s’agisse de l’énergie cosmologique primaire ou des formes d’énergies spécifiques que nous retrouvons sur Terre. Les entités biologiques et les entités sociales humaines n’y échapperaient pas, en sous-jacence des autres formes d’évolution complexifiante, génétiques et culturelles, qui se sont greffées progressivement sur le processus évolutif primaire à base d’optimisation de l’énergie.

Emergence d'une intelligence cosmique?

Une question importante se pose néanmoins, à laquelle Eric Chaisson ne répond pas. Que deviennent dans la perspective d’une évolution cosmique unificatrice intéressant les différents composants de l’univers les formes complexes spécifiques développées sur des planètes comme la Terre. Sur la Terre sont apparues des molécules prébiotiques, puis des formes de vie, de conscience et de représentations scientifiques du monde propres aux humains. Ces organisations ou formes complexes ont profité de conditions favorables spécifiques (dites « fine tuning » dans le vocabulaire anthropique) offertes par l’évolution cosmique, notamment la présence d’atomes lourds comme celui du carbone résultant de la fin explosive de supernovas antérieures à la création du système solaire. De telles formes complexes sont-elles irrémédiablement appelées à disparaître lors de la fin de celui-ci? Le relais est-il pris dans d’autres systèmes solaires nés de l’explosion d’autres supernovas, mais, s’il l’est, n’est-il pas voué à des morts analogues survenant irrémédiablement ? Ceci voudrait dire que l’évolution cosmique globale finirait par s’éteindre, concomitamment d’ailleurs avec la fin de l’univers par excès d’expansion que prévoient actuellement les cosmologistes.

Peut-on au contraire estimer que les formes de vie intelligentes apparaissant sur des planètes comme la Terre exercent sur l’évolution cosmique des effets en retour qui d’une certaine façon la conduiraient à se prolonger vers un avenir certes incertain mais non fermé? Nous sommes là dans les spéculations dangereuses car elles risquent d’encourager les croyances spiritualistes. Cependant, en restant dans le domaine de la science, il n’est pas interdit de faire l’hypothèse que l’évolution cosmique a conduit déjà ou conduira un jour à l’apparition de super-intelligences diffuses dans l’univers global, on ne sait où exactement. Elles agiraient sur lui, on ne sait comment, pour le rendre plus intelligent et conscient que ne semblent le permettre les lois de la physique telles que nous les connaissons aujourd’hui. Faire de telles hypothèses n’a d’intérêt que si elles conduisent à rechercher des preuves expérimentales de ce que l’on suppose. Sinon, c’est simplement de la métaphysique, c’est-à-dire la supputation de ce qui pourrait se passer au-delà de la physique. La métaphysique n’a d’intérêt que si elle oblige la physique à se renouveler. Or aujourd'hui, nul ne peut scientifiquemment mettre en évidence des formes d'intelligences cosmiques. mais peut-être est-ce parce que l'on s'y prend mal.

Transposition aux sciences de l’ingénieur

Une fois que la science commence à comprendre la façon dont la nature a sélectionné certaines formes et pas d'autres, aussi bien dans le monde physique que dans le monde biologique, elle s'applique à transposer les mécanismes correspondants en vue de résoudre des problèmes d'ingénierie - c'est-à-dire intéressant la fabrication d'artefacts, outils ou objets finaux.

Dans ce cas, la réflexion sur l'évolution des formes dans l'univers, c'est-à-dire la morphogenèse, peut désigner l'activité des bureaux d'étude qui visent à produire ces artefacts. Ceux-ci sont parfois loin des formes existant dans la nature. La grande variété des applications données à une forme générique comme la roue n'est pas inspirée de ce que fait la nature. Mais de plus en plus les ingénieurs étudient les solutions de celle-ci et s'efforcent de les transposer dans leurs processus ou leurs produits. C'est ce que fait la bionique, dont l'activité consiste à comprendre les produits de la morphogenèse naturelle à l'œuvre dans le domaine biologique et copier ceux qui paraissent intéressants au profit de dispositifs artificiels.

On considère généralement que l'évolution des systèmes physiques comme celle des systèmes vivants ont produit des solutions optimisées, c'est-à-dire offrant le meilleur emploi possible des ressources naturelles au regard des contraintes s'imposant à ces systèmes. Nous avons vu ce qu’il en est concernant l’optimisation de l’énergie au plan cosmologique. Il est donc tentant de transposer dans le cadre de la morphogenèse artificielle les méthodes optimisées de la morphogenèse naturelle. Encore faut-il avoir élucidé ces dernières, ce qui n'est jamais évident. Il ne suffit pas qu'un phénomène naturel existe pour que nous puissions le considérer comme optimisé. Il faut aussi admettre que les optimisations naturelles ne sont pas toujours intéressantes, dans le cas de certains systèmes technologiques répondant à des ambitions souvent très différentes. Il faudra faire appel à des méthodes d'optimisation artificielle, aujourd'hui de type computationnel (mathématique et informatique).

Une application récente et particulièrement prometteuse de la morphogenèse des matériaux concerne ce que l’on appelle la mécanosynthèse ou plus exactement la nanomécanosynthèse positionnelle. Elle consiste à assembler unes à unes, d’une façon viable, les molécules nécessaires à la constitution d’un cristal ou d’un autre corps ordonné. On trouve dans le journal Molecular Assembler du 12/01/2004 la description par Robert A. Freitas Jr d’un processus breveté permettant de réaliser la synthèse du diamant selon le procédé de la mécanosynthèse positionnelle
3) . La technique devrait être réutilisable pour réaliser la nanomécanosynthèse de nombreux autres corps. Elle sera donc largement employée compte tenu du développement des nanotechnologies. Elle pourra être étendue à la construction de structures plus importantes de taille macroscopique. Nous avons donc là un domaine d'étude qui abandonne résolument la métaphysique, mais qui pourra peut-être un jour y ramener.

Notes
1) On sait que l’hypothèse du Big Bang est de plus en plus contestée, mais ce point n’intervient pas dans notre propos (voir notre article http://www.admiroutes.asso.fr/larevue/2005/65/bigbang.htm)
2)
Eric J. Chaisson dirige le Wright Center for Science Education à la Tufts University de Medford, Mass. Il vient de publier un article sur ce sujet, sous le titre The great Unifier, dans le NewScientist du 7 janvier 2006, p. 36
3) How To Make a Nanodiamond. A Simple Tool for Positional Diamond Mechanosynthesis, and its Method of Manufacture by Robert A. Freitas Jr. http://www.molecularassembler.com/Papers/DMSToolbuildProvPat.htm



Repost 0
2 février 2006 4 02 /02 /février /2006 22:23

Thème. La conscience

Pour obtenir une vue générale des différentes pages composant ce dossier, consulter le Plan http://www.admiroutes.asso.fr/philoscience/plan.htm

Le cortex et le fonctionnement du cerveau

Voir http://www.automatesintelligents.com/biblionet/2005/sept/hawkins.html

Jeff Hawkins, dans son ouvrage Intelligence, (voir ci-dessus) propose une nouvelle vision de la façon dont fonctionne le cerveau humain. Il montre que celui-ci n'est pas un ordinateur (une machine de Turing) mais un vaste système de mémoires qui engrange les expériences accumulées par chaque personne depuis sa naissance (voire depuis le stade foetal). Ces expériences accumulées reflètent la structure du monde tel qu'il est apparu au sujet possesseur du cerveau tout au long de sa vie, sous la forme de séquences d'événements et des relations entre ces séquences. A partir de ces contenus de mémoire, le cerveau fait à tout instant des prédictions qui sont confrontées aux nouvelles expériences et mémorisées à leur tour après modifications éventuelles. C'est ce système de mémoire-prédiction qui constituerait l'essentiel de l'intelligence humaine, en organisant les perceptions, la créativité et même la conscience.

Résumé de la thèse

Le siège de ces propriétés se trouve selon l'auteur dans le néocortex. Celui-ci est constitué de six couches empilées de neurones aux fonctions différentes,sur une épaisseur qui ne dépasse pas 2 mm mais qui recouvre, chez l'homme, l'ensemble de la surface de l'encéphale. Grâce à sa structure hiérarchique, le néocortex reçoit en parallèle les messages envoyés par les organes sensoriels et par les couches plus profondes du cerveau, et les organise sous forme de «patterns». Par pattern, il faut entendre des ensembles d'informations présentant une cohérence au plan géographique et au plan temporel (séquences chronologiques). Ces patterns correspondent, après diverses opérations destinées à éliminer l'accessoire pour garder le permanent, aux représentations que nous nous faisons du monde.

Mais le point essentiel, souvent négligé par les modèles courants du cerveau, est que le néocortex ne fonctionne pas seulement du bas vers le haut - le bas correspondant à la couche recevant les informations primaires et le haut mémorisant des informations de plus en plus globalisées et élaborées. Les patterns se forment dans chacune des six couches de neurones et sont restitués à la couche inférieure en même temps qu'ils sont adressés à la couche supérieure. Ce rétro-feedback prend la forme d'une prédiction renvoyée à la couche inférieure et instantanément comparée et modifiée si besoin est compte tenu des nouvelles informations provenant de l'extérieur. Dans ce modèle d'architecture, on pourrait dire que chaque couche de neurones du néocortex se comporte comme un néocortex à elle seule, à la différence qu'intégrée dans un système hiérarchique, ce qu'elle reçoit et émet influence en parallèle ce que reçoivent et émettent les autres couches. C'est cette architecture qui permet notamment de ne pas confondre le cerveau avec un ordinateur classique ni même avec un systéme complexe comme le web lequel n'est pas hiérarchisé. Contrairement à un ordinateur qui produit une information en sortie à chaque entrée d'information venant de l'extérieur, le cerveau fait, à diverses échelles de complexité, des prédictions basées sur les expériences et les séquences préalablement enregistrées. Ces prédictions provoquent des sorties motrices qui modifient le monde environnant et provoquent en retour le recueil de nouvelles informations au niveau des entrées sensorielles. L'interaction avec l'extérieur résulte du fait que le système global est doté d'organes sensoriels et d'organes effecteurs. Mais ces organes ne fonctionnent pas isolément. Ils s'auto-influencent à tous les niveaux de complexité du cortex, du fait des nombreuses liaisons synaptiques qui les relient.

Deux autres caractères différencient le néocortex des autres fibres et structures neuronales. L'une est l'organisation en colonnes verticales de quelques millimètres de diamètres qui mettent les neurones de chaque couche, à l'intérieur de ces colonnes, en communication avec ceux situés au dessus et au dessous. Ces colonnes (ou groupes de colonnes, car rien n'est unique dans le cerveau) sont en principe dédiées, du fait d'une architecture acquise par l'évolution et commandée à la naissance par les gènes de structure, à des types spécifiques de messages, par exemple transmettre via le cortex visuel, l'information relative à la perception d'une ligne verticale. Mais si nécessaire, en cas d'accident, elles peuvent se remplacer l'une l'autre. Le cerveau n'est donc pas au départ un amas indifférencié de neurones, un «tas de nouilles». Le deuxième caractère est opposé au précédent, ou plutôt complémentaire de celui-ci. Dans toutes les couches, avec une densité de plus en plus grande lorsqu'on s'élève dans la hiérarchie de ces couches, il existe des fibres de liaison qui, grâce aux synapses, permettent d'associer les mémoires et donc les prédictions formulées à chaque niveau hiérarchique. Ce sont ces fibres horizontales qui ont donné d'ailleurs au cortex son qualificatif d'associatif. L'existence de liaisons horizontales était connue depuis longtemps, mais Hawkins montre qu'elles jouent un rôle permanent dans la modulation tant des informations émises en sortie que des informations reçues en entrée, ceci quelle que soit la complexité des patterns et des séquences transitant au sein des couches et à travers elles.

Un autre point important, qui permet au cerveau, malgré la lenteur de ses composants primaires, de réagir vite et de façon régulière, est l'invariance des patterns stockés à chaque niveau du cortex. Il s'agit d'une invariance relative, puisque les séquences mémorisées peuvent être modifiées si elles sont contredites par de nouvelles expériences. Mais lorsque ce n'est pas le cas, elles peuvent être immédiatement mobilisées pour produire des prédictions et entraîner des actions s'appuyant sur ces productions. Ceci ne constitue pas une observation nouvelle. On sait depuis longtemps que le cerveau commande de nombreux comportements sur le mode automatique, par exemple dans le cas de la conduite automobile, l'appel à des solutions plus complexes ne survenant qu'en cas de difficulté inattendue. Cette invariance des patterns ne doit pas être confondue, évidemment, avec les boucles sensori-motrices automatiques caractérisant l'ensemble de la vie organique et ne faisant pas intervenir le cortex. Mais le point sur lequel Hawkins insiste est que ce phénomène de l'invariance des patterns au niveau du néocortex est absolument général. C'est pourquoi il caractérise le cortex comme un ensemble de mémoires prédictives. Dans chacune des couches et des colonnes, le néocortex stocke des séquences de patterns. Il s'agit d'un stockage auto-associatif, tel élément de séquence pouvant suffire à faire apparaître la séquence entière ou des séquences différentes dans lesquelles il figure. Là encore, c'est l'extrême connectivité synaptique du cerveau qui rend possible ces associations.

Enfin, les patterns sont stockés sous une forme invariante et hiérarchique. C'est ce caractère qui assure la permanence bien connue de la mémoire et le fait que les représentations primaires que nous nous donnons du monde s'articulent dans notre esprit en représentations de plus en plus complexes. Plus on s'élève dans la hiérarchie, plus les détails, importants dans les niveaux inférieurs, s'atténuent au profit des lignes générales. On voit ainsi apparaître, au sommet des couches néocorticales, des représentations correspondant à ce que l'on appellera en linguistique des concepts ou des noms. Les concepts sont seulement des abstractions épurées des détails. Ils n'ont pas besoin d'être nommés par le langage social pour exister et servir à orienter le comportement intelligent supérieur. Au plus haut de la pyramide, c'est le concept de « moi » qui synthétisera l'ensemble des expériences passées et actuelles enregistrées par le sujet. Mais de nouveau, on rappellera que la permanence et la hiérarchie ne sont que relatives. Elles peuvent laisser place à des variantes de représentations ou de hiérarchies si de nouvelles expériences imposent ces changements et si la plasticité d'ensemble du système permet d'en tenir compte pour assurer la réadaptation du système à un milieu profondément changé.

Comment s'élaborent les abstractions, au fur et à mesure que les patterns s'élèvent dans la hiérarchie corticale ? L'auteur évoque des processus statistiques (hebbiens), le niveau supérieur ne mémorisant que les données les plus fréquentes et ne tenant pas compte des données plus occasionnelles. Ceci ne paraît pas poser de difficulté conceptuelle, sauf qu'il faudra pour bien faire préciser dans chaque cas le processus neuronal à l'oeuvre dans la fabrication de l'abstraction. Ce pourra être le renforcement des liaisons synaptiques les plus souvent ou les plus fortement sollicitées.

Finalement, on pourra se représenter l'organisation du cortex comme un modèle du monde acquis par le sujet au fur de son développement et tout au long de sa vie. Par organisation, on entendra les patterns et associations entre patterns qui ont été mémorisés dans les couches et colonnes corticales sous forme d'associations de plus en plus stables et hiérarchisées au fur et à mesure que l'on s'élève vers les couches corticales supérieures. Il s'agit de représentations du monde et du sujet lui-même qui sont propres à ce dernier. Mais l'auteur rappelle que l'architecture de base du cerveau lui a été transmise par l'hérédité. Elle correspond à un modèle du monde acquis non plus par l'individu mais par l'espèce au cours de son évolution darwinienne. Les cortex des dauphins ne sont pas analogues à ceux des humains car ces espèces vivent dans des mondes différents. Pour prendre une comparaison informatique, on dira que l'individu reçoit dès le stade foetal, comme tous les membres de son espèce, un ordinateur et un système d'exploitation vides, et qu'il les garnira de logiciels d'application, de fichiers et de données de plus en plus riches tout au long de sa vie. Ces contenus lui seront propres. Ils matérialiseront le monde particulier dans lequel vit le sujet. Mais il s'agit d'un modèle du monde qui est aussi un modèle du «moi» du sujet, ou plus exactement qui constitue très exactement le «moi» du sujet. On retrouve là le "rêve" des nouvelles générations de moteurs de recherche sur Internet: représenter extensivement une personne par la collection de tous les messages émis et reçus par lui pendant une période déterminée. Nous sommes évidemment là en présence d'une description matérialiste ou physicaliste de l'intelligence et de la conscience, c'est-à-dire d'une position philosophique dont Jeff Hawkins ne se cache pas d'être un représentant particulièrement averti.

Comparons le cortex avec une division d'infanterie

L'architecture neuronale décrite par Hawkins rappelle, en infiniment plus complexe, celle des réseaux de neurones formels ou réseaux neuronaux artificiels. Mais l'auteur réfute cette comparaison, tout au moins dans l'acception donnée aujourd'hui à de tels réseaux par les informaticiens. Les réseaux de neurones formels produisent des patterns mais ils n'ont que peu de couches et fonctionnent essentiellement dans un sens, soit en entrée, soit en sortie. De plus ils ne sont pas conçus pour enregistrer des séquences temporelles. Une comparaison plus parlante, bien qu'éloignée de la neurologie, est proposée par l'auteur. C'est celle que l'on peut tirer de l'architecture et du fonctionnement d'une entreprise hiérarchique ou mieux, d'une unité militaire, par exemple une division d'infanterie, manoeuvrant sur le terrain.

On peut regretter que Hawkins n'ait abordé cette comparaison qu'en quelques lignes, au lieu de la développer. D'une part, elle peut rendre plus explicites les descriptions de l'architecture neuronale qu'il nous propose. D'autre part, la similitude entre le cortex et les images de structures sociales organisées que l'on peut en donner conduisent inévitablement à des comparaisons entre le cortex et le fonctionnement d'organisations sociales telles que le web. Nous y consacrerons un autre article.

Développons la comparaison du cortex avec une unité militaire manoeuvrant sur le champ de bataille. Chaque soldat individuel peut être considéré comme un neurone. Il dispose de nombreux organes sensoriels spécialisés qui lui permettent de collecter des informations sur ce qui se passe autour de lui et, dans un premier temps, de les traiter à son niveau. Ainsi il confirmera une image visuelle par la recherche d'un son ou d'une odeur. S'avançant vers l'ennemi, il fait constamment des prédictions sur ce qu'il va trouver, en s'appuyant sur son expérience antérieure. Il confronte ces prédictions à ce qu'il constate. S'il observe des phénomènes correspondants à des séquences classées dans sa mémoire comme non significatives (par exemple l'envol d'un oiseau qu'il dérange), il ne leur donne pas suite. S'il remarque un événement important, auquel il s'attendait, comme la vue d'une mine isolée, mais s'il peut traiter lui-même cet événement, par exemple en neutralisant la mine, il n'alertera pas, en principe, l'échelon hiérarchique supérieur. Il pourra par contre prévenir ses voisins immédiats en utilisant les moyens de communications à courte portée dont il dispose. Si enfin il observe un fait auquel il s'attendait également mais auquel il ne pourra pas faire face seul, comme l'apparition d'un char d'assaut, il alertera aussitôt son chef de section. Il fera de même, a fortiori, s'il note un événement grave auquel il ne s'attendait pas, par exemple une incapacité physique subite pouvant laisser penser qu'il est soumis à une agression chimique.

Le chef de section, à son niveau, fait de même. Tant que le soldat en avant-garde ne signale rien, il ne prend pas de mesures particulières. Mais il s'attend, en fait, à ce que son groupe rencontre une résistance ennemie. Dès que le compte-rendu du soldat lui parvient, il peut préciser l'image théorique de l'ennemi qu'il avait formée dans sa mémoire suite à des expériences précédentes et donner des ordres en conséquence. Ces ordres impliquent l'ensemble des hommes de la section et circulent entre eux immédiatement, de façon horizontale, grâce aux moyens de communication propres à cette dernière. Si la section, en tant qu'unité, peut traiter l'événement, le chef de section n'alertera pas le capitaine. Il le fera au contraire si l'occurrence se révèle dépasser les dimensions de l'événement qu'il avait mémorisées et auquel il était préparé à faire face. Le processus se répète à tous les niveaux de la hiérarchie, jusqu'au général commandant la division. Celui-ci avait prédit le fait, parmi d'autres occurrences possibles déjà mémorisées elles aussi, que sa division rencontrerait une forte résistance. Si les différents niveaux inférieurs lui signalent qu'une résistance effective est observée, il prend un ordre global en conséquence. Cet ordre pourra être de stopper la progression et de s'abriter. L'ordre redescend tous les échelons et est traité, de façon différente, en fonction du terrain, c'est-à-dire des retours d'expérience, par chaque niveau. Le fantassin de base l'exécute à son tour et rend compte, en signalant au besoin les événements nouveaux pouvant rendre l'ordre inopportun.

On voit que dans une telle architecture, chaque niveau est en principe spécialisé. Mais la spécialisation peut s'adapter aux retours d'expérience. Cette possibilité d'adaptation résulte du fait que chaque niveau émet à la fois vers le haut (rendre compte, voire prendre des initiatives) et vers le bas (transmettre les ordres). Elle résulte aussi du fait qu'il existe des communications horizontales entre niveaux permettant aux unités composant ceux-ci de coopérer entre elles et se remplacer si nécessaire. Ces communications sont assurées par des liaisons radio ou autres spécialisées à chaque niveau. Si les soldats étaient dotés d'émetteurs Internet personnels, ils pourraient en principe, comme dans l'Internet civil, correspondre avec tous les autres abonnés au réseau, quel que soit leur niveau hiérarchique. Mais ils ne le feraient que pour des raisons exceptionnelles, signalant l'émergence d'occurrences profondément inattendues.

Si nous poursuivons la comparaison entre le cerveau et une unité militaire opérant sur le champ de bataille, que pouvons-nous ajouter ? La constatation essentielle qui s'impose est la suivante : l'unité, à chaque instant, constitue une mémoire d'ensemble représentant le champ de bataille tel qu'il est à cet instant. D'autres points de vue sur le champ de bataille pourraient être obtenus par d'autres observateurs situés à l'extérieur, mais ces points de vue ne seraient pas plus «vrais» que ceux obtenus par les différents éléments de l'unité, depuis le fantassin à la base jusqu'au commandant de division au sommet, qui interagissent en temps réel avec les évènements du monde survenant dans le cours de la progression de l'unité sur le terrain, au contact de l'ennemi. Ceci ne veut pas dire que l'unité obtient une description objective du champ de bataille, c'est-à-dire du monde en soi hypothétique qui correspond à ce terme. Les patterns ou représentations stables obtenues par l'unité ne sont pas imaginaires, puisqu'elles sont testées en permanence par les différents capteurs sensoriels et actuateurs physique dont dispose l'unité. Mais ils restent relatifs à ces capteurs et actuateurs, c'est-à-dire finalement à l'observateur et à ses instruments observant le monde externe. Ils n'ont donc qu'une vérité relative, mais ceci est suffisant pour permettre à l'unité de naviguer dans le champ de bataille en optimisant ses chances de survie grâce aux échanges permanents entre ces divers composants.

Une autre question intéresse le niveau de connaissance du champ de bataille, c'est-à-dire du monde extérieur, que peuvent obtenir les différents échelons hiérarchiques. Le soldat individuel ne pourra produire qu'une connaissance locale, celle qu'il obtient personnellement ou en communiquant avec ses voisins immédiats. Mais chaque niveau hiérarchique supérieur produira une connaissance plus étendue, dont la combinaison au sommet de la division aboutira à une connaissance globale - aussi globale que possible, tout au moins, compte tenu des moyens mis en oeuvre. Dans le schéma du cerveau proposé par Hawkins, les patterns ou représentations dotés d'une certaine permanence et produits aux différents niveaux hiérarchiques du cortex servent de base aux prédictions qui déterminent les actions et qui sont elles-mêmes soumises à la sanction de l'expérience découlant de la mise en oeuvre de ces actions.

Il en sera de même dans notre exemple. Au reçu des informations provenant des niveaux subordonnés, le commandant de la division donnera un ordre global qui sera exécuté par chaque échelon subordonné pour ce qui le concerne. Mais celui-ci n'obéira pas en aveugle, si l'on peut dire. Il adaptera l'exécution de l'ordre compte tenu des représentations locales du milieu dont il est porteur, et que le commandant de division ne pouvait pas connaître. Tout problème non prévu par le commandement et pouvant remettre en question l'exécution de l'ordre remontera immédiatement vers les échelons supérieurs, si son importance le mérite. Ainsi la division se comportera comme un ensemble d'agents auto-adaptatifs capables de prendre en compte les éléments les plus fins de la réalité du monde. Autrement dit, elle aura un comportement intelligent. Sans avoir nécessairement lu Hawkins, les organisateurs civils et militaires ont compris cela depuis longtemps, ce qui a condamné les structures hiérarchiques à la prussienne, où le soldat ne doit être qu'un exécutant aveugle.

Hawkins explique qu'il a eu la révélation de l'existence de l'architecture «interactive» et adaptative qu'il décrit en lisant une étude du neurologue Vernon Mountcastle, de la Johns Hopkins University (voir
http://www.jhu.edu/~gazette/aprjun98/apr2098/20mount.html). Ce dernier avait observé que, malgré les différents rôles fonctionnels des aires du néocortex, celui-ci présentait partout la même structure en 6 couches neuronales elles mêmes organisées en colonnes verticales. D'où l'idée que les différentes parties du néocortex fonctionnent de la même façon, selon un algorithme de base unique. Les différences entre les fonctions remplies par chacune d'elles tiennent non à des différences de structure mais à la façon dont elles sont reliées aux autres parties du cerveau. Et de quel type d'algorithme s'agit-il ? Produire à partir des scènes et séquences préalablement mémorisées des prédictions sur ce que l'action en cours va faire apparaître, afin de mettre en évidence les différences entre ce qui était prévu et ce qui se produit réellement. Une fois ces différences reconnues, de nouvelles mémorisations les intégrant remplacent les précédentes, ce qui permet au cerveau et plus exactement au néocortex d'optimiser en permanence son adaptation aux changements du monde.

La plupart de ces processus de prédiction-mémorisation sont inconscients car le néocortex traite l'information à la milliseconde et ce sont le plus souvent des détails infimes qui font l'objet du mécanisme d'adaptation. De plus, et c'est un point essentiel intéressant la question de la conscience de soi, le cerveau n'est pas organisé pour s'auto-informer de la façon dont ses différents composants fonctionnent - ou cessent de fonctionner (alors que, dans de nombreux cas, il peut être informé de la façon dont fonctionnent un certain nombre de composants du corps, organes sensoriels et moteurs notamment. Mais lorsque les sens font apparaître des éléments importants, par exemple un oeil manquant dans un visage, nous éprouvons inconsciemment un choc qui nous oblige à rechercher la cause du conflit et à lever l'incertitude. Les neurologues modernes ont confirmé que plus de la moitié des échanges d'information entre les couches supérieures du cortex, siège des fonctions nobles, et les couches inférieures en relation avec les entrées-sorties endogènes et exogènes sont dans le sens descendant et non, comme on le croyait jusque là dans le sens ascendant (les sens informant la conscience). Pour illustrer le rôle de ces communications descendantes, Hawkins prend l'exemple de l'audition. Pourquoi parvenons à comprendre un interlocuteur dans une foule dont le bruit de fond dévore la plupart des paroles. Si notre compréhension se construisait uniquement de bas en haut, à partir des messages brouillés que nous recevons, nous ne comprendrions pas grand-chose. En réalité, notre cortex supérieur anticipe, compte tenu de la connaissance que nous avons de notre interlocuteur, ce que sera l'essentiel de son discours. L'information est communiquée au système auditif, de haut en bas. Ce dernier n'aura plus qu'à enregistrer, même à partir de réceptions brouillées, les quelques différences qui permettront de restituer le sens complet du nouveau discours.

Ccommentaires

Le livre s'inscrit dans un domaine de recherche bien connu de nos lecteurs et généralement accepté aujourd'hui par tous les scientifiques et philosophes qui rejettent le dualisme, c'est-à-dire le fait que l'esprit puisse relever d'un tout autre ordre d'explication que le corps et soit en fait d'origine divine et non matérielle. On doit saluer à cet égard le courage de Jeff Hawkins à affirmer son matérialisme au sein d'une société, la société américaine, de plus en plus soumises aux pressions de groupes religieux prônant, même en sciences, le retour aux Ecritures et à leur vision du monde.

Pour nous qui n'avons heureusement pas ces préjugés, il est intéressant de voir grâce à ce livre une nouvelle illustration possible de la façon dont les entités biologiques, à commencer par les plus simples, ont progressivement élaboré sous la pression de sélection darwinienne des représentations ou modèles symboliques du monde. Ces représentations leur ont permis de créer des réponses de plus en plus complexes aux contraintes du milieu et donc d'envahir celui-ci à une vitesse de plus en plus accélérée. Cette évolution a produit l'homme doté non seulement d'un cerveau mais d'un néocortex. Elle n'est sans doute pas près de s'arrêter, d'une part parce que les cerveaux humains ne sont que des unités au sein d'une société de milliards d'équivalents reliés par les langages et les voies de communication des sociétés et cultures modernes. Il n'est d'ailleurs pas impossible que sous la pression de sélection culturelle, l'héritage génétique commandant l'organisation du cerveau humain, dès le stade embryonnaire, puisse encore évoluer. Mais d'autre part aussi, comme le suggère fort opportunément l'auteur, parce que la société humaine est sur le point de créer des cerveaux artificiels qui augmenteront de façon sans doute illimitée les capacités des cerveaux biologiques. Il s'agit de phénomènes qui n'intéressent pas seulement l'avenir de l'homme mais celui de l'intelligence consciente au sein de l'univers global.

Cependant le livre de Hawkins ne se borne pas à répéter ce qui n'est plus pour nous aujourd'hui qu'une constatation triviale. Il essaye de montrer avec précision, en descendant au niveau des neurones individuels, comment l'architecture du cerveau, sous la forme récemment apparue du néocortex, permet de générer, dès le plus jeune âge, les bases de l'intelligence culminant dans la représentation de soi dans le monde et dans l'élaboration de stratégies très larges de survie individuelle et collective. Certes, comme l'auteur le rappelle avec justesse, ces bases existent chez tous les animaux, même dotés de simples amorces de systèmes nerveux centraux. L'intelligence n'est pas le monopole de l'homme. Elle prend des formes très différentes et très subtiles dans l'ensemble des espèces. Mais c'est le néocortex humain qui en permet le déploiement le plus élaboré, du moins tel que nous pouvons en juger à ce jour.

On lira donc avec le plus vif intérêt les descriptions anatomiques et fonctionnelles du néocortex proposées par Hawkins, lequel bien que non neurologue, s'est appuyé sur les constations les plus récentes des neurosciences. Mais il nous semble cependant que l'enthousiasme de l'auteur vis-à-vis de la pertinence de ses propres hypothèses mérite un certain recul. On ne peut pas ne pas poser des questions qui ne contrediront certainement pas ces hypothèses, mais qui devraient pouvoir au contraire les enrichir et les prolonger. L'auteur d'ailleurs nous invite à le faire, sur le site qu'il a consacré à son livre et qui est référencé au début de cet article.

Que pourraient être ces questions ?

La première concerne la validité des descriptions du cortex présentées dans le livre, tant au plan de l'anatomie que du fonctionnement. Sans les contester radicalement, ce dont d'ailleurs nous n'aurions pas la compétence, on se bornera à remarquer qu'il ne s'agit encore que d'hypothèses, restant à vérifier par des études fines menées in vivo. On constate par exemple qu'à toute difficulté intéressant par exemple les capacités de la mémoire et des associations, l'auteur fait appel à la richesse quasi infinie du cerveau en neurones et plus encore en connexions synaptiques. Mais ceci ne suffit pas à montrer comment les associations s'orgnaisent effectivement, certains pouvant subsister indéfiniment et d'autres disparaître. Ce n'est pas parche que notre galaxie comporte cent milliards d'étoiles, autant que de neurones dans le cerveau, qu'elle est intelligente. Or de telles études sont encore très difficiles, compte tenu du manque de précision des méthodes actuelles d'imageries conduites sur des personnes vivantes en action. L'auteur est conscient de ce problème, il suggère d'ailleurs des expériences qui pourraient être menées dans un proche avenir pour vérifier ses hypothèses.

Par ailleurs, la question de la conscience de soi, du Je tel que nous le percevons, n'est pas véritablement traitée. L'auteur s'en tire par une pirouette. Dans l'architecture proposée, on en voit pas comment s'organise ce que Bernard Baars appelle l'espace de travail conscient. Même si celui-ci n'est pas localisé de façon permanente dans le cortex, il doit bien correspondre à des échanges neuronaux spécifiques, qui ne se produisent pas dans les traitements inconscients, fussent-ils «intelligents». Peut-on parler de "neurones-miroirs", concept de plus en plus évoqué aujourd'hui? Les neurones miroirs découverts chez les macaques seraient des neurones qui déchargent en parallèle à l'exécution d'une action. Ils permettraient donc au cerveau de se représenter ses actions et de proche en proche de se représenter lui-même agissant. Comment dans ce cas distingue-t-on le conscient de l'inconscient et du préconscient. Quel apport spécifique au système décrit par l'auteur représente l'intervention du moi conscient et de ce que l'on appelle encore le "libre-arbitre"?

De la même façon, l'auteur évacue bien trop cavalièrement la question des sentiments et affects. Pour la plupart des spécialistes de la conscience, notamment Damasio et Edelman, les sentiments constituent un élément essentiel de la construction des architectures neuronales. Ils modulent souvent de façon très profonde les inputs ou entrées responsables des connexions synaptiques, venant soit de l'extérieur soit de l'intérieur du corps. Ils modulent également les expressions émises en sortie. Aussi bien les concepteurs de conscience artificielle, tel Alain Cardon, leur font jouer un rôle essentiel dans la réponse à une question fondamentale : qu'est-ce qui peut faire penser une machine consciente ? Posons une question incidente : pourquoi Hawkins ne cite-t-il pas les auteurs évoqués ici ?

Pourquoi ne pas évoquer le rôle des mèmes dans la construction de la capacité associative du cortex ? Les mèmes de type langagier, selon les méméticiens, représentent une bonne explication à la croissance extraordinaire du cortex associatif observée depuis 1 ou 2 millions d'années chez l'homme, seule créature capable d'échanges sociaux systématiques à base de messages symboliques. La colonisation du cortex et de ses ressources en connexions synaptiques par des mèmes en compétition darwinienne pourrait aussi expliquer pourquoi les connexions internes au cortex se sont produites si efficacement, en apparence, bien qu'aucun ingénieur n'ait prévu à l'avance le moindre schémas de réseaux. Ne nous trouvons nous pas en présence de phénomènes d'auto-organisation entraînant leur propre optimisation, analogues d'ailleurs - et ce ne serait pas une simple coïncidence - à ce qui se passe au sein du réseau Internet. Lorsqu'en quelques secondes je trouve en utilisant un moteur de recherche puissant l'adresse d'un nom précis, fut-il présent en un seul exemplaire au sein du web mondial, je suis aussi surpris que lorsque je constate que mon cerveau peut se remémorer subitement un fait de mon passé oublié depuis longtemps et qui était pourtant mémorisé quelque part dans les cent milliards de neurones dudit cerveau. (Sur les mèmes, voir Susan Blackmore et Robert Aunger).

Note:
Dans The Wisdom Paradox: how your mind can grow stronger as your brain grows older (Free Press 2005) le professeur de neurologie clinique à la New York University School of Medecine Elkhonon Goldberg montre que le cerveau des personnes viellissantes conserve ou augmente sa capacité à résoudre des problèmes, ceci même si l'âge inflige d'autres pertes de cognition, notamment en termes de mémoire immédiate. Cette propriété découle du fait que la fonction dite "pattern recognition" ou aptitude à reconnaître des patterns ne fait que s'accroître au fur et à mesure que s'accroît l'expérience des personnes âgées. La fonction est complexe et mal comprise, que ce soit chez l'homme ou dans les robots. Cependant, elle apparaît comme générique à la plupart des espèces dotées d'un encéphale et par conséquent ne subirait pas la dégradation des autres fonctions du cerveau humain. Encore faut-il l'exercer, aussi bien par des activités intellectuelles que par des activités physiques obligeant à résoudre des problèmes. Acceptons en l'augure (source New Scientist 13 Août 2005, p. 51).

Jean-Paul Baquiast (relu en février 2006)

Repost 0
6 janvier 2006 5 06 /01 /janvier /2006 21:57

Un exemple d'acquisition des connaissances inspiré par la méthode de Mioara Mugur-Schächter: le chômage
Jean-Paul Baquiast
6 janvier 2006
Cet article est extrait et adapté de notre livre en libre accès: Comprendre - Nouvelles sciences, nouveaux citoyens. Introduction à la complexité
http://www.admiroutes.asso.fr/baquiast.htm

MCR ou MRC: Method of Relativized Conceptualisation: La Méthode a fait l'objet de divers articles et discussions et d'un ouvrage de présentation détaillé : Quantum Mechanics, Mathematics, Cognition and Action (Kluwer Academic, 2002). Le CNRS vient de décider d'en publier une version française actualisée.
Nous y avons consacré plusieurs pages dans la revue Automates-Intelligents, comme le lecteur pourra le voir en consultant notre tout nouveau moteur de recherche incorporé. A.I.

Abréviations:
- MQ: Mécanique quantique
- MCR: Méthode de Conceptualisation Relativisée, proposée par la physicienne Mioara Mugur-Schächter
- ANPE: Agence nationale pour l'emploi

Les processus de la MQ étant encore mal connus du grand public, proposons au lecteur une application simplifiée de MCR, en nous situant dans le champ des connaissances ordinaires afin d’éviter de laisser croire qu’elle n’intéressera que les physiciens.

Supposons un économiste qui cherche à comprendre le chômage qui persiste dans les économies occidentales malgré la reprise de l’activité. Cet économiste constate que les définitions classiques du chômage ne suffisent pas à expliquer les phénomènes constatés sur le marché de l’emploi dans un pays comme la France. Il en vient à les critiquer. Sont-elles pertinentes ?

Dans une science économique “ réaliste ”, c’est-à-dire persuadée de l’existence d’un réel existant indépendamment de l’homme, on a tendance à considérer qu’il existe des objets en soi, le chômage, l’inflation, la mondialisation, que l’on peut étudier de l’ extérieur et décrire de façon objective, en “ tournant autour ” comme on le fait en étudiant une machine ou un phénomène relativement objectif, par exemple une éruption volcanique. Mais un peu de réflexion montre que le chômage ou l’inflation sont des entités construites pour les besoins de tel ou tel discours. Le chômage n’est pas conçu ni décrit de la même façon par le Medef, la CGT, le ministre des finances ou une personne en recherche d’emploi. En d’autres termes, on ne peut pas “ réifier ” le chômage, c’est-à-dire parler de lui comme s’il s’agissait d’une réalité dont la définition s’imposerait à tous. L’entité chômage ne peut être décrite d’une façon qui fasse abstraction de la personne qui en parle. Les deux sont inséparables.

Que faire alors? Maintenir l’hétérogénéité des discours, reposant sur la diversité des personnes parlant du chômage et sur la non-compatibilité de leurs motivations ? C’est en général ce qui se passe. On aboutit à une sorte de babélisation, chaque personne (chaque locuteur) désignant sous le même mot des choses différentes et surtout, voulant provoquer des réactions politiques différentes. Ceci explique pourquoi la science économique est généralement considérée comme inexacte sinon menteuse, au même titre que la météorologie vue par la soi-disant sagesse populaire.

Mais si l’on voulait introduire de la rigueur dans le discours sur le chômage, il faudrait pour bien faire que celui qui en parle précise qui il est, à qui il veut s’adresser, ce qu’il veut démontrer, la définition qu’il propose de donner au concept de chômage, les raisons qu’il a de considérer que cette définition est scientifiquement pertinente et, finalement, les raisons qu’il a de considérer que les autres définitions ne le sont pas. On constatera alors que la plupart des gens parlant prétendument scientifiquement du chômage refuseront cette façon de relativiser leur discours, non pas parce qu’il s’agirait d’un processus trop complexe susceptible de créer une autre sorte de cacophonie, mais parce qu’ils refuseront d’admettre qu’ils ne sont pas objectifs quand ils abordent la question du chômage. Chacun en fait s’appuie sur la prétendue réalité de l’entité dont il parle pour se crédibiliser, c’est-à-dire pour donner de la “ réalité ” à son discours et à sa personne. Il s’agit, comme nous l’avons dit, d’une tentative de prise de pouvoir sur ceux à qui ce discours est destiné.

Accepter une régression conceptuelle

Que me propose la méthode MCR pour éviter cela ? Il faut d’abord que j’accepte une régression conceptuelle : je dois poser en principe que le chômage n’existe pas en soi. Je décide ensuite de créer une entité virtuelle que j’appellerai chômage, inobservable, puis de la fixer en tant objet d’étude, c’est-à-dire de connaissance. Connaître veut dire décrire et décrire qualifier. Quand il s'agit de qualifications par des opérations physiques, il faut spécifier une " opération de mesure " et l' " appareil de mesure " correspondant. Je réaliserai donc un certain nombre d’appareils non-virtuels pouvant fournir, à partir d'interactions avec cet objet virtuel supposé, des marques ou mesures qui me soient perceptibles. Il pourra s’agir d’enquêtes auprès de l’ANPE ou d’organisations professionnelles, mais aussi de sondages d’opinion ou toutes autres formes d’observation. En préparant ce matériel, par exemple en définissant les questions et les réponses possibles, j’accomplis ce que les physiciens nomment une "opération de préparation d'état" et je pose en principe que cette opération produit un état virtuel "correspondant" qui est précisément l'objet de l'étude que présuppose toute tentative de description.

J'admets a priori que l'entité virtuelle “ chômage ”, lorsqu'elle est soumise au mode d'interaction, change d'une façon que je ne connais pas. Mais ce changement inconnu peut être défini factuellement (objectivement), à savoir "c'est celui qui correspond au mode opératoire mis en action" et que je constate sur l’appareil de mesure. L'interaction ne détecte pas une propriété intrinsèque de l'objet, elle crée une propriété perceptible d'interaction. Si j’enquête auprès de l’ANPE, l’entité virtuelle chômage, susceptible d’innombrables définitions, est modifiée par cette enquête et devient, à travers celle-ci (et seulement à travers elle), le chômage tel que se le représente l’ANPE. Lorsque j’enquêterai auprès de la CGT, l’entité virtuelle sera à nouveau modifiée. Elle deviendra le chômage tel que le voit ce syndicat.

Les manifestations perceptibles de l'observable virtuel sont dénommées ses "valeurs propres". L'ensemble des valeurs propres d'un observable virtuel constitue son "spectre". Le mode opératoire d'interaction qui définit l'observable virtuel crée une valeur propre perceptible de cet observable. Mais l'observable n'est pas une propriété de l'entité virtuelle. C'est une opération d'interaction d'une entité virtuelle avec un appareil matériel. De ce fait la valeur propre créée qualifie l'interaction et non l’entité. Si l’enquête auprès de l’ANPE me dit que le taux de chômage est de 13% de la population inscrite auprès de ses caisses, ce chiffre qualifie l’interaction de l’entité virtuelle chômage avec les moyens d’information dont disposent ces caisses, et non l’entité virtuelle chômage toute entière.

Ainsi, afin de qualifier une entité virtuelle, je définirai des dimensions de qualifications opératoires qui seront des interactions entre cette entité et des appareils d’observations et qui créeront des effets d'interaction perceptibles interprétables selon certaines règles en termes prédéfinis de "valeurs propres d'observables…". On voit que dans le but de connaître une entité virtuelle du type du chômage, je suis obligé d’adopter une attitude de description radicalement active. Je dois créer aussi bien les objets de descriptions que les qualifications.

Imaginons maintenant que je refasse un grand nombre de fois l'opération de mesure, en m’adressant à d’autres interlocuteurs, le Medef, la CGT, le ministère du travail. Imaginons aussi que je change d’instruments de mesure, par exemple en réalisant des sondages individuels auprès d’un échantillon de population, salariés d’abord, chefs d’entreprise ensuite… Imaginons enfin qu'à chaque fois je trouve le même résultat (soit un chômage estimé à tel pourcentage de la population salariale, par exemple 10%). A ce moment je pourrai dire : “ la qualification de l’entité virtuelle chômage, soumise à telles opérations de mesure, conduit invariablement au résultat 10%. Donc la caractérisation du chômage face à ces opérations de mesure est terminée. Elle consiste dans la valeur propre 10% ”.

Mais en général, la réitération d'un grand nombre de fois une opération de mesure et le recours à un grand nombre d’opérations de mesure différentes font apparaître tout un spectre de valeurs propres de l’entité virtuelle chômage, allant par exemple de 8% à 15% et portant sur des catégories de travailleurs ou de chômeurs différentes. La situation se révèle être statistique.

Dans ces conditions, la valeur propre 11%, à elle seule, n'est pas caractéristique du chômage. Je suis obligé de faire un nouveau pas vers la caractérisation de cette entité virtuelle en établissant la distribution statistique des fréquences relatives obtenues pour l'entier spectre des valeurs propres. Mais je dois me souvenir que la distribution statistique du spectre des valeurs propres est elle aussi relative aux diverses opérations de mesure mises en jeu. Aussi, afin d'augmenter les probabilités d'avoir véritablement caractérisé le chômage, je rechercherai la distribution des fréquences relatives des "valeurs" de qualification obtenues par plusieurs biais de qualification différents. Je choisirai plusieurs observables différents tels que les opérations de mesure correspondantes soient mutuellement exclusives.

La fonction d'onde de l'entité virtuelle chômage

On résumera en disant que par un très grand nombre de réitérations d'opérations de mesure mutuellement exclusives, j'obtiens de l’entité virtuelle chômage une certaine connaissance globale, probabiliste, qui est un invariant observationnel pouvant lui être associé et le caractériser. Je puis aller plus loin en établissant un algorithme mathématique prévisionnel donnant une représentation abstraite du résultat obtenu. J’établirai, pour toute opération de préparation, une fonction d'état ou fonction de probabilités qui représentera l'ensemble de tous les résultats expérimentaux en fonction du temps – ce qui s’impose dans le cas du chômage puisque celui-ci est supposé évoluer dans le temps. Une fois que cette fonction de probabilité a été construite, des calculs simples permettront d’obtenir des prévisions quantitatives. Mais il ne s'agira que de prévisions probabilistes globales et pas de prévisions individuelles affirmées avec certitude. Elles pourront cependant se révéler d'une précision déconcertante. Ainsi l’entité chômage qui au départ n'était qu'un simple étiquetage subit finalement une transmutation en un outil mathématique de description probabiliste prévisionnelle, qui me sera fort utile dans la suite de mes travaux économiques. Ce sera en quelque sorte, pour reprendre le terme utilisé par la MQ, la fonction d'onde ou vecteur d’état de l’entité virtuelle chômage. L'opacité qui sépare le supposé niveau virtuel du chômage et mon propre niveau de perception et d'action sera – en ce sens et en ce sens seulement - levée. Une structure descriptionnelle prévisionnelle et vérifiable aura été mise en place.

Malgré les apparences, on voit que la méthode MCR est très différente des méthodes classiques. Ainsi, en ce qui concerne le chômage, l’observateur économique classique affirme a priori l’existence d’un phénomène, le chômage, tel qu’il le définit. Il exclut toute autre définition et c’est à partir de cette définition qu’il travaille. Ainsi tel auteur inclura dans le calcul du chômage les emplois à temps partiel et tel autre en enlèvera les emplois féminins non salariés. Ces auteurs procéderont ensuite à des mesures statistiques qui donneront une apparence de scientificité à leurs définitions, dont ils se garderont bien d’annoncer le caractère relatif. Evidemment, les économistes honnêtes ne sont pas tous incapables d’efforts destinés à exclure la subjectivité et le caractère partisan de leurs travaux. En croisant les points de vue, ils peuvent aboutir à des caractérisations, toujours relatives mais plus générales, des phénomènes qu’ils étudient. Mais dans ce cas, ils retrouveront sans le savoir les procédures de la MQ résumées dans la méthode MCR résumée ci-dessus. Ils courront cependant à tous moments le risque de retomber dans l’erreur de la réification – ce qui est plus difficile, bien que pas totalement impossible, en matière de physique quantique.

La généralisation de la méthode MCR

L'application de la méthode ne se limite pas aux représentations scientifiques du monde mais plus généralement à celles qu'en donnent tous les langages symboliques – y compris le langage politique, grand consommateur de références à de prétendus “ existants ” qui n’existent que par la volonté des acteurs de la vie politique. Sa portée est donc universelle. Selon nous, elle devrait donc être dorénavant enseignée et appliquée partout.

Il faut bien voir que c'est la transposition à la science macroscopique de la pratique épistémologique de la MQ qui représente la nouveauté de ce travail. Divers chercheurs en sciences de la complexité, par exemple Edgar Morin avec ses célèbres notations récursives [E.Morin, op.cit.] avaient essayé de proposer des modèles tenant compte de l'implication de l'observateur dans ses descriptions, mais ces tentatives n'ont jamais été convaincantes ni généralisables. Pour y réussir, il fallait d'abord interroger au fond la démarche du physicien quantique, puis la constituer en méthode utilisable dans tous les autres domaines de l'acquisition de connaissance.

Si on veut l'appliquer constamment, la méthode MCR paraîtra peut-être au premier abord un peu raffinée ou perfectionniste, étant donné que ses performances spécifiques ne sont vraiment frappantes que dans des cas relativement peu courants de la vie quotidienne. Notre lecteur n’aura pas manqué d'ironiser, nous en sommes persuadés, du luxe de précautions méthodologiques que nous avons évoquées pour traiter du chômage. Comme on dit, c’était un peu se noyer dans un verre d’eau. Mais il s’agissait d’une démonstration d’école. Par contre, ces précautions apparaissent comme indispensables quand on est confronté à des paradoxes ou à des faux problèmes qui semblent insolubles (par exemple, qu’est-ce qui existait avant le Big Bang, si on considère celui-ci comme le début de tout ?) ou dans des circonstances qui, suite à telle ou telle pratique particulière (recherches sur des crimes, investigations médicales, etc.) sont d'ores et déjà abordées par des méthodes professionnelles locales qui de fait englobent la méthodologie MCR, bien qu'à l'état implicite et non-systématisé. Mais rien n'empêche d'utiliser MCR comme référence explicite générale, tout en employant les raccourcis que cette méthode définit elle-même, à chaque fois que ceux-ci sont " légalement " acceptables sans introduire des contresens. On disposera ainsi d'une sécurité de conceptualisation permanente.

Dans ces conditions, quel est donc l'apport essentiel de MCR ? En résumant beaucoup, on dira que MCR permet de s'affranchir de ce que l'on pourrait appeler la tyrannie du " réalisme des essences " ou du monde en soi, qui conduit les hommes, que ce soient des scientifiques ou de simples locuteurs ayant recours au langage ordinaire, à oublier inconsciemment ou même volontairement que ce sont eux, à travers la façon dont ils perçoivent et se représentent le réel, qui définissent et construisent ce réel. Cet oubli fait que celui qui parle s'arroge l'autorité de quelqu'un qui serait en relation directe avec un réel objectif pour imposer aux autres ce qui n'est qu'une vue subjective des choses - ceci qu'il s'agisse de l'expression d'un point de vue qui lui serait individuel ou d'un point de vue représentant un consensus interpersonnel ou intersubjectif propre à un groupe d'hommes.

Pendant des siècles, un tel abus d'autorité du locuteur, parlant au nom du réel (on disait aussi "de la nature") face aux créations de l'imaginaire, a permis au rationalisme d'élaborer des représentations du monde échappant aux " vérités révélées " et aux autres mythes imposés par les autorités religieuses ou politiques. Mais aujourd'hui, où la science devrait ouvrir largement les portes de l'imagination créatrice pour répondre aux questions qui naissent du développement exponentiel de ses instruments d'observation et de ses modèles, affirmer a priori qu'un observateur-acteur puisse décrire, ne fut-ce qu'imparfaitement, un réel qui lui serait extérieur ne peut que stériliser la recherche en donnant à une telle description une autorité qu'elle n'a pas. La connaissance ne peut progresser qu'en s'appuyant sur le caractère relatif de ses propositions, considérées comme le produit ici et maintenant de l'interaction de tel observateur, équipé de tels instruments, avec un réel hypothétique dont on n'affirmera rien qui soit extérieur aux résultats de l'observation du moment. Il y a là un message très fort à retenir d'emblée. Il concerne ce que l'on pourra appeler la démocratisation de l'accès à la construction des connaissances. On ne peut plus réserver cette construction à des “ élites ”. Chacun doit pouvoir y contribuer, à condition de respecter une procédure permettant le travail coopératif avec les autres. Le paradoxe vient du fait que la méthode proposée découle de la pratique de la MQ, science réputée jusqu’ici comme la plus ésotérique qui soit.

Nous pensons qu’il faut absolument adopter cette méthode si l'on veut non seulement mieux comprendre et approfondir les travaux de la mécanique quantique et de la cosmologie, dont l'importance grandit tous les jours, mais beaucoup plus généralement, relancer l’heuristique, c’est-à-dire la recherche dans l'ensemble des sciences, en se libérant des barrières a priori imposées par ceux qui s'en tiennent aux vielles façons de se représenter le réel. Certes, comme noté plus haut, si je veux désigner une table ou une chaise, voire construire un pont, je ne serai pas gêné par le fait que ces différents concepts et modèles soient des constructions sociales et ne renvoient pas à d'hypothétiques entités en soi appartenant au monde des essences. Mais si je veux étudier les interactions des " gènes " avec les protéines dans la construction d'un embryon, je dois commencer à remettre en cause l'image naïve que je pouvais avoir de ces gènes à l'échelle macroscopique.

C’est en fait dans les sciences dites molles, la biologie par exemple et plus encore en matière de sciences humaines et sociales, qu’il est urgent de renoncer au réalisme pour faire progresser les connaissances. Les concepts de virus, gène, neurone, pas plus que ceux d'inflation, de libéralisme de terrorisme, d’homosexualité ne sont plus suffisants pour expliquer les faits et conduire les politiques, si on oublie qu'il ne s'agit que de constructions dont chacune est localisée dans le temps et dans l'espace. Ces constructions doivent aujourd'hui être dépassées par des démarches intégratives qui prennent en compte le point de vue de celui qui les utilise. On ne parle pas de la même façon du libéralisme quand on est riche ou pauvre.

Ajoutons que dans les domaines de plus en plus fréquents où le microphysique rejoint le macroscopique (par exemple dans les expériences et systèmes faisant apparaître la possibilité d'intrications entre particules quantiques et éléments de la physique macroscopique), il sera évidemment indispensable de recourir à MCR si l'on ne veut pas se fermer d'emblée à tout renouvellement des représentations du monde actuellement en vigueur.

Repost 0
20 décembre 2005 2 20 /12 /décembre /2005 16:31

Thème. L'évolution

Pour obtenir une vue générale des différentes pages composant ce dossier, consulter le Plan http://www.admiroutes.asso.fr/philoscience/plan.htm

Un nouveau paradigme, l'auto-évolution

La biologie offre actuellement un exemple significatif de phénomènes nouveaux susceptibles de remettre en cause des théories bien établies. Leurs conséquences seraient d'importance. Il s'agit du possible remplacement de ce véritable paradigme de l'évolution qu'est l' «algorithme» darwinien (ou néo-darwinien) dit mutation au hasard/sélection/amplification par un autre paradigme, que certains commencent à appeler faute de mieux le paradigme de l'auto-évolution.

Position du problème

On sait que le paradigme darwinien a rendu l'immense service à la science d'évacuer les explications finalistes, selon lesquelles les formes vivantes actuelles, au «sommet» desquelles se situait prétendument l'humanité, résultaient d'un dessein ou doigt de Dieu visant à faire apparaître des êtres de plus en plus complexes et de plus en plus moraux. Pour les darwiniens au contraire c'est-à-dire aujourd'hui pour la presque totalité des biologistes, l'immense diversité des espèces vivantes est simplement le résultat d'un mécanisme résumé par ce que Jacques Monod a nommé le Hasard et la Nécessité. Des mutations survenant au hasard produisent des individus différents des parents. Si certains de ces descendants sont mieux adaptés aux contraintes du milieu que ceux n'ayant pas muté, ils fondent de nouvelles espèces qui éliminent progressivement les précédentes. Ceci a tous les niveaux de l'échelle de la complexité, qu'il s'agisse des bactéries ou des mammifères supérieurs.

Darwin n'avait pas eu les moyens de mettre en évidence les processus reproductifs responsables de ce phénomène. Après la Seconde guerre mondiale, la découverte de l'ADN par la biologie moléculaire permit au contraire de localiser dans le code génétique les «instructions» permettant la reproduction à l'identique des individus à l'intérieur d'une espèce, chaque espèce ayant son code génétique propre. Si des mutations affectent telle ou telle des parties de ce génome, c'est-à-dire tel ou tel gène commandant la synthèse des protéines responsables de la construction des cellules (notamment celles de l'embryon dans le cadre de l'embryogenèse), les «ordres» transmis lors de la reproduction sont différents. Ceci produit des mutants. La plupart des mutations sont fatales, mais certaines peuvent faire naître des individus mieux adaptés que les parents.

Les mutations favorables elles-mêmes peuvent provoquer des changements de détail chez les descendants, par exemple un changement dans la couleur des yeux, ne remettant pas en cause la structure d'ensemble du génome. On aura donc des variétés différentes à l'intérieur d'une espèce dont les membres resteront interféconds. Mais dans certains cas, s'ajoutant les unes aux autres au sein de lignées de plus en plus isolées génétiquement, les mutations donnent naissance à des individus qui ne peuvent plus se reproduire entre eux, leurs génomes étant devenus trop différents. Alors une nouvelle espèce apparaît.

Tout ceci a pu être démontré expérimentalement par les biologistes évolutionnaires, dits aussi néo-darwiniens (néo-darwiniens parce qu'ils ont apporté au darwinisme fondateur l'éclairage de la biologie moléculaire). Ils l'ont fait soit en observant dans la nature la façon dont les espèces s'adaptent aux changements des milieux, soit en provoquant artificiellement des mutations génétiques en laboratoire. Si bien que le paradigme darwinien est apparu dans les dernières décennies comme susceptible d'expliquer toutes sortes d'évolution au-delà du seul domaine biologique. Par exemple en physique ou en intelligence artificielle.

L'hérédité des caractères acquis

Reste que beaucoup de biologistes évolutionnistes ne s'expliquaient pas jusqu'à présent l'immense diversité des espèces passées ou encore actuelles. Comment dans le peu de temps relatif s'étant écoulé à partir de l'apparition des premières molécules réplicatives, un mécanisme aussi peu fréquent que celui de la mutation au hasard favorable a pu produire tellement d'espèces viables ? Les mutations au hasard sont généralement létales. Par ailleurs les espèces et, en leur sein, les organismes individuels se caractérisent au contraire par une grande robustesse, une grande résistance aux changements. Le propre de l'organisme vivant, comme le rappelle opportunément aujourd'hui le biologiste Gilbert Chauvet(1), n'est-il pas de «persévérer dans son être». Ceci se traduit de multiples façons et particulièrement, au niveau du génome, par divers processus réparateurs de l'intégrité face aux modifications accidentelles.

Personne ne remet en cause le fait que ce sont des changements (c'est-à-dire, pour reprendre le terme, des mutations) se produisant au niveau du génome qui entraînent l'apparition de nouveaux phénotypes ou de nouveaux génotypes. Il faut aussi évidemment qu'ils se produisent chez des individus encore en âge d'avoir une descendance. Mais de nombreuses observations montrent que la plupart de ces changements ne résultent pas de mutations accidentelles aléatoires. Ils résultent de modifications dans le mode d'expression du génome ou de réorganisations de ses séquences se produisant au cours de processus qui n'ont rien d'aléatoire. Ils ont été sélectionnés depuis les origines par l'évolution parce qu'ils aidaient l'individu à mieux valoriser, si l'on peut dire, ses ressources génétiques et biochimiques. Il s'agit alors de mutations immédiatement adaptatives, qui permettent de faire face à des contraintes nouvelles et qui sont généralement transmises aux descendants.

Les individus s'adaptent constamment aux changements, on le sait. Ceux qui ne le font pas sont éliminés... Beaucoup de ces adaptations sont culturelles, elles concernent le mode de vie et se transmettent par imitation. Elles ne nous intéressent pas ici. Mais d'autres se traduisent par des modifications du génome (ou du mode d'expression des gènes). Comme telles, elles sont transmissibles aux descendants selon les lois de l'hérédité. On retrouve donc un mécanisme dont les darwiniens orthodoxes ont toujours nié la possibilité, la transmission héréditaire des caractères acquis.
Darwin, on le rappelle dans tous les manuels, s'était opposé à Lamarck qui ne niait pas l'évolution mais qui avait fait l'hypothèse que les individus au sein d'une espèce évoluaient progressivement en transmettant à leurs descendants les caractères favorables dont ils avaient pu se doter. Darwin avait refusé cette hypothèse d'une adaptation progressive et douce. Il avait introduit le principe de la sélection naturelle, c'est-à-dire de la disparition brutale et radicale des moins aptes. Mais ce sont les néo-darwiniens qui ont affirmé l'impossibilité de la transmission lamarckienne des caractères acquis en démontrant – ou croyant démontrer – le caractère intangible du patrimoine génétique, c'est-à-dire du génome conservé dans les cellules reproductives. Autrement dit, le génome propre à chaque espèce est protégé, selon eux, par une barrière infranchissable de l'influence favorable ou défavorable de l'activité des individus au sein de cette espèce. Seules des mutations au hasard peuvent l'affecter.

Cette barrière existe, c'est indéniable. Sans cela les génomes spécifiques changeraient constamment. Mais de nombreuses observations récentes paraissent montrer qu'existent parallèlement un grand nombre de mécanismes permettant aux espèces de varier dans certaines limites, sans attendre une mutation génétique favorable aléatoire suivie de la sélection des mutants. Ces observations résultent du progrès des techniques de génie génétique étudiant la façon dont des facteurs extérieurs résultant de l'interaction de l'individu avec son environnement permettent soit de modifier les modalités d'expression des gènes ou des parties non codantes de l'ADN, soit de modifier les génomes eux-mêmes en y introduisant des éléments codants empruntés à des organismes extérieurs. Ce sont principalement les connaissances apportées par ces techniques, si décriées dans le public, qui montrent que le génie génétique spontané a toujours été à l'oeuvre dans la nature et que c'est sans doute lui qui a été et demeure le principal agent de la biodiversité.

Comment définir l'auto-évolution ?

Tout ceci fait que le temps n'est sans plus très loin où l'on pourra remplacer (en partie) l'algorithme néo-darwinien de la mutation au hasard/sélection par un concept ou paradigme autrement plus riche de perspectives, mais aussi, pour le moment, autrement plus confus, celui d'auto-évolution avec transmission sous condition de certains des caractères acquis. Comment définir l'auto-évolution ? On ne remettra pas en cause le principe de la sélection des plus aptes, qui est, comme on l'a souvent dit, une lapalissade indiscutable : ne survivent que ceux qui se révèlent mieux adaptés que les autres aux contraintes extérieures. Mais on admettra que les organismes individuels (phénotypes) au sein des espèces (génotypes) peuvent faire appel à un très grand nombre de mécanismes leur permettant de s'adapter pour leur compte à de nouvelles conditions de vie. Grâce à ces mécanismes, ils peuvent, nous l'avons dit, mieux valoriser les ressources dont ils disposent déjà, essentiellement en provoquant la synthèse de nouvelles protéines produisant de nouvelles résistances. Ainsi des plantes réfractaires au zinc peuvent, sans attendre que de nouvelles espèces résistantes apparaissent au terme d'éventuelles mutations accidentelles, survivre dans un milieu riche en zinc(2). L'ADN de certaines de leurs cellules dirige la synthèse de nouvelles enzymes leur permettent de supporter le zinc. De plus, cette capacité peut se transmettre à l'ADN germinal (celui du génotype) dont on disait jusqu'ici qu'il était réfractaire aux modifications subies par le phénotype. Ainsi une nouvelle espèce ou sous-espèce, voire de nombreuses autres plus ou moins différentes, peuvent apparaître dans le temps d'une génération. On conçoit, surtout quand il s'agit d'espèces simples comme les bactéries, que la diversité biologique devienne vite proliférante et dangereuse pour les espèces supérieures. C'est sur cette prolifération que s'exerce la sélection.

On peut prendre une image pour montrer en quoi l'auto-évolution, ainsi conçue, diffère de l'évolution sur le mode de la mutation au hasard (éventuellement) favorable. Supposons que je sois confronté à un problème quelconque. Logiquement, ma première réaction sera de faire appel à mes connaissances : puis-je trouver dans ma mémoire des éléments de solutions. Le cas échéant, j'interrogerai des personnes étrangères. Mais je m'adresserai à des interlocuteurs choisis parce qu'ils me paraîtront les mieux aptes à me renseigner. Je ne m'adresserai pas à des gens rencontrés dans la rue. Je ne ferai pas non plus appel à un processus encore plus aléatoire, par exemple ouvrir un dictionnaire au hasard et voir si je trouve des informations pertinentes dans la page ainsi sélectionnée. Il y aurait une chance sur des millions pour que cela soit le cas. Remarquons cependant qu'en me limitant à recenser mes connaissances antérieures, sans faire appel à une recherche d'informations au hasard, je me priverai de la chance, peut-être une sur des millions précisément, de trouver la page précise qui aurait pu révolutionner ma façon de penser et faire de moi, qui sait, un autre homme.

C'est ainsi, en mobilisant leurs ressources internes, que procèdent semble-t-il les organismes vivants lorsqu'ils sont confrontés à un besoin d'adaptation. Evidemment, cette mobilisation n'est pas le produit d'une décision volontaire. Elle découle d'un mécanisme évolutif remontant sans doute aux origines de la vie. On pourrait l'analyser comme un processus réparateur enclenché par la perception de menaces sur l'intégrité du système. Gilbert Chauvet, dans son ouvrage cité, rappelle que les premières molécules biologiques n'ont pu apparaître qu'en se protégeant des influences extérieures par l'équivalent d'une membrane à l'intérieur de laquelle ont pu se dérouler des processus de synthèse auto catalytiques, d'organisation-réorganisation des éléments et finalement de réplication [voir ci-dessous le paragraphe concernant l'éventuel rôle d'un ARN précurseur]. On conçoit que de tels processus, aussi fructueux, aient été conservés, sous des formes éventuellement différentes, tout au long de l'évolution. Sans eux, il n'y aurait pas eu d'évolution du tout.

Les organismes apparaissent capables de réponses très différentes face à des agressions du milieu. Au cas par cas, telle réponse est sélectionnée tandis que les autres restent en sommeil. On est en présence d'un mécanisme qui ressemble un peu à la façon dont fonctionne le système immunitaire. Si cette réponse se révèle favorable, elle est transmise aux descendants grâce à des modifications génétiques ou épigénétiques mineures qui ne remettent pas en cause l'organisation d'ensemble du génome de l'espèce à laquelle appartient l'organisme considéré. Mais il est aussi possible que des lignées différentes au sein d'une même espèce finissent par s'individualiser en espèces différentes, faute de croisements suffisants pour entretenir l'interfécondité. Tout ceci ne relève pas du concept de mutation au hasard suivie de la sélection du plus apte. Si l'auto-évolution ainsi conçue ne peut pas faire apparaître n'importe quel caractère nouveau, elle donne quand même aux espèces et en leur sein aux variétés ou lignées beaucoup d'occasions de se diversifier, se complexifier et ainsi de s'adapter progressivement, en élargissant leurs sphères de survie.

Cela ne veut pas dire, nous l'avons rappelé, que l'individu puisse décider lui-même des modifications qu'il subira, afin d'acquérir puis transmettre à ses descendants des caractères mieux adaptés. Autrement dit, l'auto-évolution dont nous parlons ne doit pas être confondue avec une évolution auto-orientée. Ce dernier concept permettrait en effet de réintroduire une sorte de finalisme, à base de volontarisme, que jusqu'ici rien ne permet de présupposer (sauf peut-être en ce qui concerne l'influence de la conscience volontaire chez l'homme, si l'existence de cette dernière comme agent causal était retenue). Il s'agit seulement d'une évolution qui est rendue possible par l'entrée en jeu d'un certains nombre de facteurs évolutifs jusque là latents, au sein de l'individu, et qui se trouvent activés du fait de tel ou tel évènement auquel l'individu est confronté. Mais si nous retenons légitimement le terme d'auto-évolution, c'est parce que ces facteurs évolutifs ne proviennent pas de l'extérieur de l'individu mais de lui-même. De même, leur activation ne résulte pas du hasard, c'est-à-dire d'une cause aléatoire. Elle est d'une certaine façon déterminée par l'organisation antérieure de l'individu, le mettant à même de mieux valoriser des dispositions jusque là latentes ou de bénéficier d'alliances symbiotiques avec des partenaires lui apportant les ressources génétiques qui lui manquaient. Le hasard ne sera jamais exclu, mais il restera second.

De nouvelles données expérimentales

Mais quels sont les arguments permettant d'affirmer que ce qui précède ne relève pas de la simple supputation ? Trouve-t-on des faits qui démontrent la pertinence du concept d'auto-évolution ? Ils sont nombreux mais ils se présentent le plus souvent de façon différente. De plus certains d'entre eux sont encore conjecturaux ou, tout au moins, ne sont pas encore pleinement reconnus par l'opinion scientifique majoritaire. Ceci explique d'ailleurs que les rapprochements qui, selon nous s'imposeraient afin de faire l'hypothèse d'une vraie révolution paradigmatique, n'aient en général pas encore été conduits jusqu'à leur terme. D'autant plus que, comme toutes les sciences expérimentales, la biologie est aujourd'hui extrêmement parcellisée et que beaucoup de ceux qui l'exercent refusent de faire appel à des modèles généraux.

La biologie de l'ARN

On considérait jusqu'à ces derniers temps l'ARN comme le serviteur dévoué mais sans initiative de l'ADN, dont il assurait la duplication des sites codants lors de la construction cellulaire(3). La double hélice de l'ADN ou plus exactement les portions de celle-ci identifiés comme des gènes, c'est-à-dire comme portant les instructions permettant de commander la fabrication des protéines avait en effet jusqu'à présent focalisé l'attention. L'ARN – ARN dit messager – était considéré uniquement comme la recette que la cellule devait lire pour fabriquer la protéine commandée par le gène, c'est-à-dire par la portion d'ADN s'exprimant sous la forme dudit messager. Mais on a découvert qu'une grande partie du génome ne code pas pour permettre la fabrication de protéines. On a parlé d'ADN-poubelle mais on lui trouve constamment de nouveaux rôles, lesquels permettraient d'expliquer pourquoi elle a survécu à la sélection naturelle. Elle sert ainsi à fabriquer des fragments d'ARN qui circulent dans les cellules.
Le rôle de ceux-ci a été longtemps obscur. On soupçonne aujourd'hui que cet ARN est encore plus important à la vie de la cellule – et donc de l'organisme - que les protéines. Ceci explique la persistance de cet ADN non codant au long de l'évolution. Mais les expérimentations restent difficiles, l'ARN étant instable et peu observable. On lui prête cependant de nombreuses propriétés pouvant être importantes, notamment celle de catalyser les réactions chimiques(4). On trouvera dans l'article cité du NewScientist une liste des fonctions attribuées à l'ARN à l'intérieur de la cellule, par exemple outre l'ARN messager, l'ARN transfert, l'ARN ribosomal, etc.

On conçoit que, dans l'hypothèse de l'auto-évolution, l'existence d'un agent aussi polyvalent s'exprimant tout au long de la vie du génome, à partir de ses éléments non-codants (et parallèlement à l'activité codante du génome) permettrait d'expliquer pourquoi certaines fonctions adaptatives puissent apparaître et se transmettre au sein des organismes, qu'il s'agisse de simples bactéries ou d'organismes pluricellulaires complexes. Il ne s'agirait plus du tout alors de mutations s'étant produites au hasard mais d'une véritable co-évolution de l'organisme et du milieu avec lequel il interagit.

Le franchissement de la barrière germinale

De plus en plus d'observations montrent par ailleurs aujourd'hui que la barrière germinale réputée étanche protégeant l'intégrité de la partie codante du génome peut être franchie par divers facteurs extérieurs, résultant de l'activité de l'organisme dans son milieu. Il en résulte que le génome est modifié de la même façon que s'il avait subi une mutation. Mais ces modifications peuvent être de bien plus grande ampleur. Elles sont provoquées en laboratoire par des manipulations diverses relevant du génie génétique. Mais dans la nature, elles se produisent spontanément, pour des causes diverses. Certaines sont accidentelles et pourraient être rangées dans la catégorie des mutations aléatoires. C'est le cas lorsque des rayons cosmiques provoquent des mutations génétiques. Mais d'autres sont systémiques, internes au système cellulaire et contribuant à son auto-réparation et à son adaptation. Ainsi, dans les cellules circulent, outre les éléments d'ARN déjà évoqués, des morceaux d'ADN (ADN circulant) qui peuvent s'introduire dans les génomes et modifier de façon plus ou moins importante l'économie du génome tout entier.

Le transfert d'ADN, commun chez certaines cellules comme les globules blancs, peut aussi se faire entre cellules d'espèces différentes (Horizontal gene transfer). C'est lui qui est craint dans le cadre de la contamination par des organismes au génome artificiellement modifié. Mais il semble répondre à des besoins très anciens permettant de répondre spécifiquement à certains changements environnementaux, notamment en ce qui concerne les réactions immunitaires(5).

Parasitisme et symbiose

Une cause encore plus répandue de modifications adaptatives du génome, ceci dès les origines de la vie, relève du parasitisme et de la symbiose, qui permettent à des organismes différents de s'associer pour mettre en commun leurs propriétés. Dans les cas de symbiose allant jusqu'à l'apparition d'une nouvelle espèce, un nouveau génome résulte du rapprochement des deux génomes antérieurs. La symbiose est considérée comme le facteur le plus efficace aux origines non seulement de la biodiversité mais de la constitution des organismes complexes, par association d'organismes plus élémentaires assurant des fonctions vitales spécialisées. Gilbert Chauvet, là encore, en a précisé les règles, notamment en proposant le concept d'auto-association stabilisatrice. La symbiose fait aujourd'hui l'objet de nombreuses études. Nous ne pouvons les évoquer ici. Remarquons, contrairement à ce qui a été dit parfois, que la symbiose n'est pas à ranger dans la catégorie des évènements authentiquement aléatoires. On ne se marie pas avec n'importe qui mais avec un partenaire avec lequel on dispose déjà d'affinités. On est donc bien là dans le domaine de l'auto-évolution.

Physique quantique et auto-évolution

Nous avons plusieurs fois évoqué dans cette revue les très probables liens entre les mécanismes à l'œuvre dans les systèmes physiques au niveau quantique et ceux à l'œuvre dans les systèmes biochimiques. A priori pourtant il n'y en a pas, notamment parce qu'aucun ensemble de molécules biologiques ne semble capable d'offrir à un micro-état quantique un isolement suffisant pour lui éviter la décohérence (c'est-à-dire pour lui éviter de retomber dans le monde macroscopique) le temps nécessaire à ce qu'il accomplisse un travail utile dans un organisme biologique. Ainsi les propriétés spécifiques aux particules quantiques, notamment l'état de superposition ou l'intrication, que l'on espère utiliser dans les calculateurs quantiques pour réaliser des opérations impossibles à un calculateur ordinaire, ne paraissent pas pouvoir se produire dans les cellules vivantes. Pourtant de plus en plus de chercheurs s'efforcent actuellement de démontrer le contraire. Un article de Paul Davies du Centre australien d'Astrobiologie à l'Université Macquarie, Sydney, en fait le recensement(6).

Une intuition simple suggère selon lui qu'il conviendrait d'approfondir ces perspectives. La science se heurte aujourd'hui à deux grands mystères. Le premier est celui de la vie (en ce qui concerne son origine mais aussi en ce qui concerne les mécanismes de l'évolution – pour ne pas parler de ceux propres au fonctionnement des neurones du cerveau). Le second est celui du monde quantique. Il y a tout lieu de penser qu'ils pourraient s'éclairer réciproquement. Nous n'allons pas aborder ici ces questions, qui mériteraient toute une bibliothèque à elles seules. Bornons-nous à renvoyer le lecteur aux travaux menés dans les années 1990 par JohnJoe McFadden et Jim Al-Khalili de l'Université de Surrey, à qui nous avions donné la parole dans cette revue(7) et que cite d'ailleurs Paul Davies. Le Dr McFadden pensait pouvoir montrer notamment comment des particules quantiques se déplaçant par effet tunnel dans des molécules d'ADN pouvaient provoquer des mutations. Le point essentiel de sa démonstration était que ces mutations ne se produisaient pas au hasard, mais résultaient en quelque sorte d'un mécanisme d'évolution auto-dirigée par la cellule, ce qui nous ramène au sujet du présent article. Des phénomènes identiques auraient pu selon lui expliquer l'émergence des processus d'auto-catalyse enzymatique à l'origine de la vie.

Pour Paul Davies, il serait temps que toutes ces hypothèses soient reprises très sérieusement par la Big Science, peut-être à l'occasion des travaux concernant l'ordinateur quantique. Il pense notamment qu'explorer le thème d'un ordinateur quantique biologique permettrait de montrer que les idées que nous nous faisons sur la décohérence sont encore bien sommaires. Des systèmes biologiques ont peut-être appris, dès l'origine de la vie, à abriter certains micro-états quantiques des risques de décohérence, au moins le temps nécessaire (quelques nanosecondes ?) pour leur permettre de faire tout ce qui dans les processus vitaux nous parait encore incompréhensible.

Perspectives

On peut conclure de ce qui précède que la biologie – ou si l'on préfère les sciences du vivant – vont devoir accepter dans les années qui viennent un renouveau méthodologique voire épistémologique considérable. La première nécessité consistera à se doter de modèles mathématico-informatiques permettant d'organiser de façon utile à l'approfondissement des recherches les données expérimentales de plus en plus nombreuses qui s'accumulent. C'est précisément ce à quoi visent les travaux de Gilbert Chauvet, qui nous permettra de le citer à nouveau. La multiplication de recherches expérimentales parcellaires, fussent-elles approfondies dans le détail, ne permettra jamais de comprendre ce qu'est le phénomène de la vie. On décrira, mais comme le disait à peu près René Thom, décrire n'est pas expliquer. Aussi bien, le modèle à construire ne sera pas déduit des observations et expérimentations. Il sera construit (abduit) et c'est lui qui donnera un sens aux nouvelles expérimentations. Ce ne sera pas par hasard alors que le travail du théoricien du vivant retrouvera les méthodes du théoricien de la microphysique ou de la cosmologie(8). Les processus d'acquisition des connaissances ne peuvent plus désormais être différents selon les domaines scientifiques. Ils relèvent de la même méthodologie constructiviste.

Une deuxième conclusion est plus pratique. Les quelques indications que nous avons données ci-dessus, concernant par exemple la biologie de l'ARN ou de l'ADN circulant, montrent l'immensité du domaine à explorer, ne fut-ce que dans le domaine de la génétique et de la protéomique. Ce sont très immédiatement des enjeux thérapeutiques qui apparaissent : on pense souvent aux maladies génétiques mais plus immédiatement encore sont concernées les luttes contre les nouveaux virus et microbes, la stimulation des réactions de défense de la cellule à l'égard des multiples agressions de l'environnement (dont la conséquence la plus courante est le développement de cancers). Les Etats-Unis ont bien compris l'intérêt de telles recherches, mais vu la faiblesse des moyens attribués aux biotechnologies, ce n'est manifestement pas encore le cas en Europe.

Au plan philosophique enfin, on pourra s'interroger sur les conséquences d'un éventuel affaiblissement de ce que nous avons appelé le paradigme darwinien de la mutation au hasard suivie de sélection, avec la montée en puissance d'un concept dont nous avons dit qu'il serait nécessairement beaucoup plus flou, celui d'auto-évolution. En fait, comme les deux mécanismes ont joué simultanément dans l'histoire de l'évolution, on pourra continuer à les associer dans une philosophie moderne de l'histoire. Autrement dit, de temps en temps, l'irruption inattendue d'hypothèses et d'idées radicalement différentes est indispensable à la survie des systèmes de pensée, même les plus féconds. Il serait donc bien puéril de prétendre « brûler » Darwin.

Notes
(1) Auteur de plusieurs ouvrages, dont "La vie dans la matière - Le rôle de l'espace en biologie" (voir notre article, ainsi que notre interview), Gilbert Chauvet publiera courant 2006 l'ouvrage "Un principe général d'organisation du vivant - L'évolution vers la conscience" aux éditions Vuibert (Collection Automates Intelligents).
(2) Faut-il brûler Darwin, par Patrick Jean-Baptiste, Sciences et Avenir, novembre 2004, p. 59.
(3) Move over DNA, Master and Commander, par Philip Cohen, NewScientist, 27 novembre 2004, p. 36.
(4) La découverte du potentiel d'auto-catalyse de l'ARN a suggéré l'hypothèse que celui-ci aurait été aux origines de la vie. La molécule aurait pu à la fois accumuler de l'information et activer par auto-catalyse sa propre réplication. C'est l'hypothèse dite du Monde à ARN, qui n'a pu être reproduite expérimentalement à ce jour.
(5) "Jumping Gene" Helps Explain Immune System's Abilities
http://www.newswise.com/articles/view/508945/
(6) The Vital Spark, par Paul Davies, NewScientist, 11 décembre 2004, p. 28.
(7) JohnJoe McFadden. Interview
http://www.automatesintelligents.com/interviews/2002/mai/mcfadden.html
(8) Voir notre article Le programme pour une épistémologie formalisée de Mme Mioara Mugur-Schächter http://www.automatesintelligents.com/echanges/2004/juin/mrc.html

JPB 18/12/05

Repost 0
20 décembre 2005 2 20 /12 /décembre /2005 15:51


Thème. L'évolution

Pour obtenir une vue générale des différentes pages composant ce dossier, consulter le Plan http://www.admiroutes.asso.fr/philoscience/plan.htm

La variation facilitée

Sous le titre de The plausibility of life (Yale University Press, oct. 2005), deux biologistes évolutionnistes, Marc Kirschner, (fondateur du département de biologie des systèmes à la Harvard Medical School) and John Gerhart (biologiste à l'University of California, Berkeley) discutent les origines des organes et organismes biologiques complexes. Ils présentent l'hypothèse de la "variation facilitée" (facilitated variation) qui selon eux permet de répondre à la question de savoir comment des mutations génétiques survenant au hasard ont pu produire des organes complexes, tel que l'oeil.
Ce livre caractérise la nouvelle attitude des darwiniens, attaqués sur tous les fronts par l'incroyable offensive de l'Intelligent Design (ID). Face à des idéologues qui, soutenus par les milieux politiques et religieux les plus conservateurs, tentent de démontrer que seule la main de Dieu a pu organiser l'évolution, les scientifiques matérialistes ont décidé de réagir, plutôt que traiter ces opposants par le mépris. On comprend mal en Europe la virulence des débats, si bien que les biologistes européens n'ont pas encore jugé bon de se mobiliser contre un mouvement qui n'a pas encore traversé l'Atlantique. Mais peut-être ont-ils tort.

Quoiqu'il en soit, comme toute théorie est perfectible, les critiques faites au darwinisme par les défenseurs de l'ID permettent de perfectionner les hypothèses relatives à l'évolution, ce qui ne peut être inutile. Le livre de Kirschner et Gerhart en donne l'exemple.
Selon les auteurs, le problème de la variation, posé par Darwin dès les origines, avait été occulté par les tenants de la Synthèse Moderne qui insistent sur les mécanismes de l'hérédité. Or la variabilité des organismes est infiniment plus grande que l'on imagine. Elle ne résulte pas seulement de mutations génétiques ponctuelles mais du fait que, depuis le niveau génétique jusqu'à celui des organes, les organismes sont constitués de blocs modulaires. Les mutations génétiques ne produisent pas de variations au hasard. Au contraire, tous les organismes ont maintenu intact au cours de deux milliards d'années un ensemble de mécanismes vitaux relatifs au métabolisme, à la reproduction de l'ADN, aux processus de croissance. Ce sont ces éléments, conjointement avec des schémas corporels globalement homogènes, qui ont servi de plate-forme aux variations plus visibles.

Ils prennent l'exemple de la défense de l'éléphant, des bois du cerf et de l'éperon du narval. On peut les considérer comme des innovations différentes, caractérisant une grande complexité spécifique. Mais il apparaît que c'est le même type de cellule qui guide leur développement dans chacune des espèces considérées. La structure modulaire de la vie signifie que ces appendices peuvent se développer selon des modalités différentes sans affecter le reste de l'organisme. Ils ne sont que les expressions différentes d'un même type d'activité génétique découlant du processus de la sélection naturelle, pour laquelle seules survivent les variantes utiles dans un environnement déterminé. Le corollaire de ceci est que des variations génétiques minimes peuvent produire des changements corporels importants, tout au moins dans l'apparence. De même, les yeux des insectes comme ceux des autres espèces, y compris les mammifères, qui semblent présenter des complexités différentes, partagent d'importants processus biochimiques modulaires de construction et de mise en relation des composants.

Cette hypothèse permet de faire l'économie de celle selon laquelle des mutations convergentes se produisant dans des espèces différentes plongées dans des environnements différents donneraient des résultats voisins (comme l'oeil) bien que provenant de sources distinctes. On retrouverait sous une autre forme la théorie selon laquelle la vie, partie d'une origine simple mais commune, obéit à des logiques de base sous-jacentes elles-mêmes communes, que des études de physiologie intégrative pourraient aujourd'hui mettre en évidence. Le darwinisme n'est pas remis en cause, mais situé dans une approche plus globale. Cette approche serait proche, pensons-nous, de celle développée en France par le Pr. Gilbert Chauvet, souvent évoqué dans ces colonnes.

Les auteurs de The plausibility of life militent, non seulement pour une contre-offensive généralisée de tous les scientifiques matérialistes contre l'ID, y compris auprès du grand public et des écoles. Mais pour une relance interdisciplinaire de toutes les études portant sur les différents mécanismes de l'évolution, afin d'enrichir une théorie darwinienne qui ne peut être considérée comme définitive. Maintenir une grande activité interdisciplinaire de recherches et d'échanges dans l'étude des phénomènes évolutionnaires constitue la seule façon efficace de répondre aux insinuations de l'ID et aux dégâts produits par cette doctrine dans l'esprit scientifique, au moins aux Etats-Unis.

Mais il ne faut pas faire d'illusion. Les promoteurs de l'ID, dans leurs blogs et autres publications, ont déjà présenté The plausibility of life comme une nouvelle preuve de la validité de leurs thèses

JPB 18/12/05

Repost 0
Jean-Paul Baquiast - dans Evolution
commenter cet article
20 décembre 2005 2 20 /12 /décembre /2005 15:45

 Thème. La science

Pour obtenir une vue générale des différentes pages composant ce dossier, consulter le Plan http://www.admiroutes.asso.fr/philoscience/plan.htm

Monnaie ancienne représentant Janus bifrons. Il regarde vers le passé et vers le futur. Mais pourquoi ne pas y voir un symbole de la pensée moderne qui devrait regarder à la fois vers la philosophie et vers la science?

Il est raisonnable de penser que la philosophie et la science se sont, au moins depuis l’Antiquité grecque, conjuguées pour construire les sociétés modernes, celles que l’on dit parfois intelligentes. Mais il convient de préciser en quoi leurs approchent diffèrent.

On peut considérer que la science consiste à construire un modèle du monde fait d’informations élaborées par l’interaction des organismes humains avec ce monde. Des hypothèses sont proposées sur le mode de l’exploration par essais et erreurs propre à tous les organismes vivants. Elles visent à établir des liens logiques entre les perceptions sensorielles. Ces hypothèses sont soumises à l’expérimentation. Celles d’entre elles qui se trouvent confirmées par l’expérience sont conservées et qualifiées de lois. Les autres sont abandonnées. Une telle façon de faire, indispensable à la survie, est très répandue dans le monde du vivant, mais ce qui distingue la science des autres activités visant à identifier des constantes dans la nature et lui confère un caractère universel est le fait que, par consensus, les scientifiques ont convenu d’utiliser un langage commun permettant de représenter les connaissances d’une façon compréhensible par tous. Par ailleurs, ils acceptent de se soumettre à l’expérience, c’est-à-dire de voir les connaissances acquises remises en cause au cas où de nouvelles preuves issues des protocoles communs de la recherche expérimentale seraient produites.

Nous avons vu en comparant
l’art et la science que la création artistique s’affranchit de la plupart des contraintes pesant sur la création scientifique. En art, n’importe quelle hypothèse relative à la perception du monde est considérée comme significative, quel que soit l’auteur qui la produit, le domaine pour lequel elle est formulée, la forme qu’elle revêt et la portée qui lui est donnée. En contrepartie de cette grande liberté, faute de normes communes de production et d’interopérabilité, la création artistique n’a pas réussi à constituer de grands modèles universels décrivant l’univers, sur lesquels il aurait été possible de développer un capital cumulatif de savoirs technologiques et industriels, analogue à celui résultant de l’exploitation des modèles scientifiques par les groupes humains. Ces différences ne signifient pas que l’art aurait un statut supérieur ou inférieur à celui de la science, mais que création scientifique et création artistique constituent deux modes complémentaires de l’exploration du monde par essais et erreurs à laquelle se livrent les êtres vivants et plus particulièrement les humains. Mais comment situer la philosophie dans ce duo ?

La philosophie ou la capacité de questionnement

Pour répondre à cette question, il faut s’interroger sur ce qui ferait la spécificité de l’activité philosophique. Les philosophes répondent en général que c’est la capacité de questionnement. La philosophie n’a pas pour rôle essentiel de proposer des réponses, mais celui de poser des questions. Le scientifique aussi pose des questions sur le monde. Sans cela, il n’aurait aucune raison de formuler de nouvelles hypothèses qui sont précisément censées répondre à des questions nouvelles. Mais le scientifique ne se pose de questions que dans les limites étroites de sa spécialité, ce qui réduit la portée de la démarche – même lorsque ces spécialités, par exemple la cosmologie, la biologie de la vie, les neurosciences cognitives, embrassent des pans entiers de l’univers. Le philosophe au contraire, et ceci dès les origines de la pensée, recherche en permanence la raison de tout ce qu’il voit et aussi de ce qu’il ne voit pas mais qu’il pressent. Il s’interroge aussi en permanence sur lui-même, ce que les scientifiques n’avaient jamais fait jusqu’à l’arrivée de la physique quantique. Comme la capacité de douter ou de remettre en question est le fondement même de l’activité philosophique, elle a été depuis longtemps codifiée par les usages de la discipline afin de s’exercer avec la plus grande efficacité possible, malgré les pressions sociales qui y voient souvent un facteur subversif. On dira qu'à ce compte chaque personne qui réfléchit un tant soit peu sur le monde fait de la philosophee ou est en passe d'en faire. Socrate et bien donc ont répondu par l'affirmative.

Dans une perspective évolutionniste, il faudrait expliquer à quel moment et pour quelle raison est apparue dans l’espèce humaine (à supposer que les animaux en soient dépourvus, ce qui n’est pas certain) cette faculté de prendre du recul sur l’immédiat pour se poser des questions profondes. De telles questions profondes, tout le monde aujourd’hui encore les associe au questionnement philosophique : qui suis-je, que sont les autres, dans quel monde suis-je plongé, où va le monde et où allons nous nous-mêmes ? Pour les spiritualistes, la réponse est simple. L’homme étant doté d’une âme et celle-ci pouvant entrer en contact avec l’immanence, les questions touchant à l’Etre démontrent la dimension spirituelle de l’homme. Mais cette réponse n’a pas de sens pour les matérialistes.

Pour le biologiste évolutionniste, il faut que des avantages concrets en matière d’adaptabilité aient justifié la sélection au sein du cerveau humain de circuits neuronaux capables d’engendrer l'interrogation et la recherche de solutions. La réponse la plus vraisemblable est que ce sont les premiers circuits auto-réflexifs, c’est-à-dire capables de générer ce que l’on appelle des états de conscience, qui ont servi de milieux favorables à l’émergence de questions à portée générale, c’est-à-dire de type philosophique. Ces questions une fois formulées dans les esprits permettaient certainement à ceux qui en étaient les bénéficiaires de prendre du recul sur l’activité quotidienne de survie et d’envisager des solutions à plus long terme, dont le bénéfice en termes d’adaptabilité était réel. Les psychologues du développement considèrent aussi aujourd’hui, comme on le sait, que cette faculté a eu un revers. Le fait de ne pas trouver de réponse immédiate à la question angoissante de savoir, par exemple, ce que l’on devient après la mort, a pu favoriser le développement de croyances en l’au-delà et en la vie éternelle chez des sociétés ayant pris conscience du fait que les individus étaient mortels. Mais comme nous allons le voir, le mythe religieux qui prophétise l’immortalité ne peut pas prétendre au questionnement philosophique puisqu’il apporte une réponse qui ferme la possibilité de continuer à s’interroger.

Revenons à l’art, dans cette perspective du questionnement philosophique. On admettra volontiers que les créateurs artistiques authentiques (non pas ceux qui vivent de la répétition et du commerce des stéréotypes) sont aussi des agents actifs du questionnement porté sur le monde. Mais, en conséquence de la dispersion et de la non-systématisation des productions artistiques, l’effet constructif du questionnement artistique est diffus, lent et très souvent invisible du plus grand nombre. On conclura donc que, même si l’art peut être présenté comme une activité pré-scientifique induisant à la recherche de solutions, c’est la pensée philosophique qui est vraiment à la source du processus de construction du monde dans lequel la démarche scientifique joue le rôle prédominant. C’est également la philosophie qui permet au scientifique de ne pas s’enfermer dans les voies déjà ouvertes et d’en initialiser d’autres.

La philosophie ne devrait proposer que des réponses ouvrant sur de nouvelles questions

Mais la philosophie se limite-t-elle à poser des questions ? Ne propose-t-elle pas aussi des réponses ? La philosophie propose évidemment des réponses, en grand nombre compte tenu de la fertilité de l’esprit philosophique. Mais elle les assortit d’une possibilité de remise en question immédiate. Chaque réponse philosophique ouvre de nouveaux champs de questionnement si bien que le processus ne se fige jamais sur des certitudes prétendues. Autrement dit, contrairement aux formes de pensées autoritaires, productrices de dogmes, la philosophie authentique porte en elle-même son dépassement continuel.

Certes, de tous temps ont existé de grands systèmes philosophiques tentant de s’inscrire dans des écoles et des règles obligatoires et figées. Leurs promoteurs tentent parfois de se parer du prestige des hypothèses scientifiques en empruntant le formalisme de la science, notamment le recours aux mathématiques. Mais nous pouvons admettre que, lorsqu’elle cède à cette tentation, bien humaine il est vrai, la philosophie trahit sa nature. Elle rejoint alors les mythologies et les religions, dont le principal rôle fonctionnel (diront les matérialistes réalistes) est de formater des esprits en proposant des modalités et contenus de croyance et de pensée destinés à assurer le pouvoir de ceux qui les inventent ou qui les propagent. Même si certains systèmes philosophiques érigés en dogmes se présentent comme des hypothèses sur le monde susceptibles de vérification expérimentale, ils ne le sont pas. Ils refusent de se soumettre à la sanction de l’épreuve expérimentale. Ils ne peuvent donc être démentis. Depuis longtemps on a reconnu par exemple que le marxisme, l’existentialisme ou …l’empirisme radical (auxquels on pourrait ajouter le freudisme) n’étaient pas plus vérifiables que les grands récits de type prophétique. Ce sont des constructions méritant d’être étudiées en tant que telles, notamment par les sciences humaines et sociales. Mais elles ne contribuent pas sensiblement à enrichir les connaissances scientifiques, contrairement aux hypothèses scientifiques contemporaines sur les origines de l’univers et de la vie, de portée apparemment philosophiques mais qui restent scientifiques car chacun peut entreprendre de les falsifier par de nouvelles hypothèses confirmées expérimentalement.

Nous pouvons donc considérer que l’esprit philosophique, toujours apte à questionner le monde et à se questionner lui-même, peut être considéré comme le précurseur de toute démarche d’invention. Il l’a été aux origines de la pensée rationaliste et le demeure aujourd’hui lorsqu’il s’agit d’encourager de nouvelles recherches scientifiques. Ce type d’esprit a certainement permis à l’espèce humaine de dépasser en compétitivité adaptative un certain nombre d’autres espèces qui n’en sont pas pourvues, au moins sous sa forme la plus efficace. Nous avons vu qu’il est sans doute inhérent aux mécanismes profonds de l’auto-réflexion qui fondent la conscience dans le cortex associatif de l’homme. Il ne faut donc pas s’étonner de trouver la philosophie associée à tous les progrès de la science. La philosophie incite à de nouvelles recherches mais elle joue aussi un rôle en essayant de critiquer et/ou d’expliciter les résultats des recherches antérieures, en les ordonnant, en les prolongeant et en les relançant.

La philosophie est associée à tous les progrès de la science

Les exemples de mariage heureux de la philosophie et de la science ne manquent pas. La philosophie des sciences ou épistémologie étudie l’histoire des sciences et, de plus en plus, les mécanismes créateurs de connaissance. L’esthétique s’intéresse aux processus de la création artistique. Les visions philosophiques sur les civilisations, les cultures et les hommes inspirent en permanence les sciences sociales et humaines. La philosophie générale qui médite sur la place de l’homme dans l’univers, qui s’intéresse au réel et à l’Etre, au sujet et à l’objet, représente incontestablement une incitation aux travaux les plus récents de la cosmologie et de la mécanique quantique.

Certes, le mariage entre philosophie et science pourrait être plus accompli. D’une façon générale, il semble que les scientifiques soient plus avides de philosophie que les philosophes ne le sont de s’informer des derniers résultats de la science. Les véritables équipes multi-disciplinaires sont rares, chacun tendant à s’enfermer dans sa spécificité, notamment en France. Mais avec le développement de réseaux de connaissances tels que ceux permis par Internet (dont notre revue offre un tout petit exemple, au demeurant apprécié de ceux qui le connaissent) la symbiose entre ce qui devrait être les deux faces de l’homme moderne, véritable Janus, celle ouverte sur la philosophie et celle ouverte sur la science, commence à se préciser. Veillons à ce que le mouvement se poursuive, aux dépends des divers dogmatismes et fondamentalismes.

Jean-Paul Baquiast 18/12/05

Repost 0
20 décembre 2005 2 20 /12 /décembre /2005 15:40

Thème . La science

Pour obtenir une vue générale des différentes pages composant ce dossier, consulter le Plan http://www.admiroutes.asso.fr/philoscience/plan.htm

On a tendance à opposer l’artiste et le scientifique, en insistant sur tout ce qui les sépare. Posons ici le principe contraire. La création artistique et la création scientifique correspondent à deux modes complémentaires de la construction par les êtres vivants en général et par les humains en particulier d’un réel adapté à leurs besoins de survie et résultant de leurs interactions avec la nature.

Pour admettre ceci, il faut d’abord accepter une des définitions que nous avons proposées dans cette revue concernant la science. Au sein de l’univers terrestre (tel du moins que nous nous le représentons) sont apparus il y a environ quatre milliards d’années des organismes vivants qui ont été progressivement dotés par l’évolution darwinienne, vers 600 millions d’années BP, de corps et de cerveaux capables d’élaborer par essais et erreurs des représentations virtuelles (neuronales et culturelles) de leur environnement. Ces représentations leur ont servi et leur servent encore de références pour rationaliser leurs comportements dans le monde, c’est-à-dire dans des milieux dangereux qui leur restent fondamentalement inconnus et toujours périlleux. Ainsi, l’herbivore ayant acquis, dans ses gènes et aussi par apprentissage culturel, la possibilité de se représenter ce qu’est un prédateur, représentation générant des comportements d’évitement, sera mieux armé pour échapper à un carnivore qu’un de ses semblables dépourvu par accident de cette aptitude.

Pour ce qui concerne les animaux dotés de cerveaux, ceci ne fait guère de doute. Mais en étendant le sens donné au mot représentation, on peut montrer que le même processus s’est développé chez tous les organismes vivants, y compris les insectes dont le cerveau est réduit et chez les végétaux qui n’ont pas de cerveau. Si les végétaux résistent généralement à leurs prédateurs (sauf à l’homme), c’est qu’ils ont appris, génétiquement et/ou par des échanges de messages chimiques, à s’en défendre en les identifiant préalablement.

Dans cette façon de voir le monde, tous les êtres vivants sont porteurs de représentations telles que nous venons de les définir. De plus, comme les individus vivent en sociétés rendues cohérentes par des cultures, c’est-à-dire généralement par des échanges de messages symboliques, il existe une très grande variété de ces messages ainsi que de nombre de syntaxes les organisant en discours. Ainsi s’élaborent des langages, supports et moyens de transmission puis de stockage des connaissances sur le monde. L’ensemble constitue le capital d’informations permettant la survie de chaque espèce. Les humains, récemment encore, s'ils connaissaient à peu près leurs propres processus d’acquisition des connaissances collectives, ignoraient ceux des autres espèces. Aujourd’hui, avec un regard plus ouvert sur la biodiversité du monde, ils apprennent à les reconnaître et parfois à les comprendre.

La création artistique

Ceci posé, dans les sociétés humaines, les processus d’acquisition des connaissances collectives dont nous parlons sont très divers et parfois peu apparents. Historiquement, les premiers en date ont relevé de ce que l’on appelle aujourd’hui la création artistique, qui peut paraître ludique ou plus exactement gratuite mais qui a toujours été et demeure fondamentalement une forme collective de création et de transmission de savoir. Mais il s’agit d'un savoir non contraint par des formes strictement codifiées. Sa portée est souvent locale et ne s’organise que rarement en grands systèmes, sauf à travers les mythologies. Toutes les formes et techniques d’expression symbolique sont utilisées : gestes, musiques, images, discours verbaux. Les logiques les plus diverses associent les symboles: juxtaposition, superposition, argumentation pré-logique ou logique... Les productions artistiques sont donc très nombreuses et les processus de création relativement ouverts (sauf lorsqu’ils sont enfermés dans des règles académiques ou de mode auxquelles le vrai créateur sait échapper. En conséquence, les connaissances ne peuvent s’organiser au sein d'un méta-système globalisateur à vocation universelle, faute de normes communes d’interopérabilité et de conservation. Le regard de l’art sur le monde reste très dispersé et très volatil, même s’il exerce à long terme des effets de formatage puissants.

Ajoutons que chez les animaux, les éthologistes mettent en évidence des comportements de type ludique ou apparemment non immédiatement utiles fonctionnellement, qui pourraient être assimilés à certains comportements qualifiés d'artistiques chez l'homme.

La création scientifique

Bien plus tardivement dans l'histoire de l'humanité, avec le développement des comportements rationnels reposant sur la démarche scientifique expérimentale, certaines sociétés ont vu se répandre, en complément des modèles du monde que nous qualifions ici d’artistiques, des modèles bien plus organisés et régulés. Ceux-ci, contrairement aux modèles artistiques, n’ont pu se construire qu’en éliminant la diversité des modes d’expression et des logiques. Des langages très appauvris, souvent sous-tendus par la formulation mathématique, ont progressivement « compilé » l’ensemble des inventions, de façon à les rendre universalistes dans le temps et dans l’espace. La recherche de l'économie d'énergie dans l'expression a progressivement supplanté le goût des ornements et fioritures.

L’avantage acquis en termes de compétitivité, par rapport aux autres formes de savoir, fut considérable. Les modèles scientifiques du monde sont dorénavant le point de passage obligé pour toute nouvelle invention, qu’elle soit scientifique ou technologique. Autrement dit, le chercheur doit s’appuyer sur eux pour élaborer de nouvelles hypothèses et les vérifier, y compris pour tenter de remettre en cause (falsifier) certains éléments du modèle. La contrepartie de ce développement pourrait être l’étroitesse du champ disponible pour de nouvelles inventions. Heureusement, la multiplication exponentielle des solutions technologiques semble capable de relancer en permanence l’imagination de ceux des chercheurs qui gardent les yeux ouverts. Elle suggère de plus en plus de problèmes à résoudre et donne matière en permanence à de nouvelles hypothèses souvent « révolutionnaires » au regard du corpus des connaissances acquises

Un mécanisme générateur commun

Ceci étant, et c’est sur ce point qu’il convient d’insister, fondamentalement, il n’y a pas de différences notables entre l’artiste (agent de la création artistique) et le chercheur (agent de la création scientifique). La production de nouvelles représentations, qui fait l’originalité de la création et l’oppose à la simple transmission, résulte d’un processus commun aux deux type d’innovation: l’étonnement de l’individu face à un monde qui échappe à ses capacités initiales de modélisation et la volonté qui l’anime d’élaborer des représentations lui permettant, ne fut-ce que marginalement, de ramener l’inconnu informulé au connu formulable. On pourrait aussi appeler cela la capacité à se poser des problèmes afin de leur chercher des solutions. Mais pourquoi certains individus disposent-ils de cette capacité qui leur interdit de rester inertes comme des cailloux face à l’inconnu ou au vide apparent du monde? Parce qu’elle a été inscrite dès l’apparition des premières espèces vivantes dans les gènes et dans les cultures et que, au hasard des développements individuels, elle se réalise mieux chez certains que chez d’autres.

Les sociobiologistes n’en ont pas encore identifié les bases neurales ou épigénétiques, mais ils le feront sans doute un jour. L’aptitude à l’étonnement créatif est plus ou moins développée selon les espèces, les sociétés et les individus, mais elle est toujours présente. Chez certains, elle tendra à dominer toutes les autres activités vitales. On parlera alors de créateurs passionnés que rien ne pourra détourner du processus de création. Chez d’autres, les plus répandus sans doute, « amateurs » d’art ou de science, elle sera latente et ne s’exprimera qu’en face d’une oeuvre réalisée par un autre. Celle-ci réveillera le mécanisme créatif latent et pourra induire chez l’amateur un comportement plus ou moins élaboré de création, complémentaire ou alternative.

La création collective spontanée

Notre exposé, à ce stade, présente l’inconvénient de faire principalement reposer le processus de création, qu’il soit artistique ou scientifique, sur les individus. Ce n’est pas très gênant dans les sociétés humaines occidentales modernes où l’individu est « roi ». Il s’agit de sociétés où l’ « individuation » ou « agentification », c’est-à-dire l’acquisition par les individus d’une certaine autonomie, est de règle, au moins chez les couches sociales les plus favorisés. L’autonomie peut être définie comme la capacité d’acquérir une certaine conscience de soi et de ses comportements au sein de son environnement, pouvant se traduire par une volonté d'agir. Malheureusement, peu de personnes en bénéficient. Les autres sont le plus souvent instrumentalisées par de multiples forces extérieures à elles.

Mais avant les individus se trouvent les groupes. Il ne faut jamais oublier que dans l’ordre du vivant (étendu aujourd’hui aux sociétés de robots) ce sont les groupes qui réagissent globalement aux contraintes de l’environnement afin de s’y adapter par la création. Un groupe est constitué d’individus. Mais les connaissances collectives émanant des groupes ne prennent pas en général naissance chez tel individu particulier. Elles émergent spontanément des interactions comportementales et langagières entre individus et prennent la forme d’entités symboliques dotées d’une vie propre relative, que la mémétique qualifie aujourd’hui de mèmes. Ces mèmes sont porteurs de connaissances mixtes, de type artistique et de type scientifique ou pré-scientifique. Ils se répandent au niveau des groupes et à travers les réseaux constitués par les individus et leurs artefacts, selon des modes proches de ceux permettant la diffusion des virus. Ainsi en est-il des grands récits de type biblique, très répandus jadis, ou des romans et films aujourd’hui. Il s'agit de mèmes. Leur effet est à la fois d’ouvrir les esprits et de les formater au profit des groupes dont ils sont issus.

La démocratisation de la création sert l'adaptativité des groupes

Nous avons évoquée l’inégalité des individus et des groupes face aux possibilités de la création, concernant aussi bien l’art que la science. S’agit-il d’une inégalité structurelle ou résultant seulement du hasard. Autrement dit, les activités de création sont-elles réservées à des individus ou à des groupes particulièrement favorisés, par l’imagination, par l’intelligence, par la culture, par la richesse ? Devrait-on au contraire considérer que chacun, individu ou groupe, pourrait et même devrait potentiellement s’y adonner ? Dans les sociétés actuelles, fortement hiérarchisées, les créateurs, artistes ou scientifiques, ont tendance à s’ériger en castes, reléguant les autres dans la vaste catégorie des consommateurs passifs. Ceci est évidemment contraire à la nécessité d’élargir le plus possible le champ de la création, pour favoriser la diversification des hypothèses puis des découvertes. Même si les individus et les groupes sont souvent très différents, il n’y a pas de raison d’accepter une ségrégation de principe entre créateurs et spectateurs-consommateurs. Chacun doit pouvoir alternativement être créateur pour son compte et consommateur des productions des autres. Il s’agit d’une condition indispensable à la démocratie. La démocratie n’est-elle pas considérée comme la forme sociale la plus adaptative, c’est-à-dire la plus compétitive, du fait qu’elle est capable de mobiliser l’énergie créatrice du plus grand nombre de ses membres. On peut donc penser que la "démocratisation" progressive des activités de création s'est révélée comme un facteur favorisant l'adaptativité des groupes. C'est la raison pour laquelle elle semble avoir été sélectionnée au cours de l'évolution.

Pourquoi vouloir rapprocher création artistique et création scientifique?

Nous avons ici souligné les ressemblances entre processus de création artistique et processus de création scientifique. L’intérêt de l’exercice est de montrer que nous sommes en présence d’un mécanisme fondamental par lequel les entités biologiques (voire les entités robotiques) « construisent » un monde adapté à leurs besoins de développement et de reproduction, c’est-à-dire de survie. On pourrait parler d’un processus de « construction de niche » 1) permettant des modes d’évolution de plus en plus orientées vers l’auto-conservation des solutions apparues en premier. On parlera aussi d’auto-évolution 2) ou de « variation facilitée » 3). Le mécanisme de la sélection darwinienne n’est pas supprimé, mais il s’exerce au sein d’un environnement de plus en plus façonné par les générations antérieures. Ainsi, dans les sociétés humaines, si la sélection par les contraintes naturelles continue à jouer (adaptation aux maladies, par exemple), celle imposé par la nécessité de survivre dans l’environnement technologique est au moins aussi déterminante. Ce mécanisme très général est-il propre à l’évolution des entités biologiques telles qu’apparues sur Terre ou se retrouve-t-il ailleurs dans le cosmos ? Nous ne pouvons répondre faute de pouvoir encore observer des modes d’évolution extraterrestres.

Au-delà de cet intérêt qui concerne principalement l’épistémologie, comparer création artistique et création scientifique montre que l’une et l’autre peuvent participer, simultanément mais sur des plans différents, de l’art et de la science. Nous touchons là à la politique. L’artiste est un créateur scientifique involontaire dans la mesure où, laissant libre cours à son imagination, il invente hors des sentiers battus d’innombrables regards sur le monde qui peuvent donner lieu à de véritables processus d’acquisition de connaissance par génération et vérification d’hypothèses. C’est ainsi que la plupart des romans fournissent des matériaux précieux pour la psychologie et la sociologie. Parallèlement, la production scientifique est le plus souvent source d’émotions de type esthétique, que ce soit pour le chercheur ou pour le public. Elle peut aussi se prolonger dans de véritables œuvres artistiques, comme le montrent aujourd’hui la science fiction et les œuvres exploitant les ressources de la vie artificielle et de l'art numérique 4). Dans une société « idéale », trans-humaine, les individus et les groupes, sans exclusives a priori, devraient pouvoir s’adonner en parallèle sinon en simultanéité à l’art et à la science.

L’homme trans-humain ou post-humain moderne, connecté à un grand nombre de réseaux de production et d’information, pourrait ainsi de nouveau ressembler à l’idéal de l’homme cultivé de la Renaissance, un Léonard de Vinci aussi versé dans les arts que dans les sciences.

Jean-Paul Baquiast 18/12/05

Notes
Sur la construction de niches, voir http://www.automatesintelligents.com/biblionet/2003/nov/niche.html)
Sur l'auto-évolution, voir http://www.admiroutes.asso.fr/larevue/2004/60/autoevolution.htm
Sur la variation facilitée, voir http://www.automatesintelligents.com/actu/051031_actu.html
Sur la création numérique et la création artistique en général, voir notre présentation de l'ouvrage du regretté Bernard Caillaux, La création numérique visuelle. http://www.automatesintelligents.com/biblionet/2003/avr/caillaud.html

Repost 0
19 décembre 2005 1 19 /12 /décembre /2005 10:42
Thème. L'évolution

Pour obtenir une vue générale des différentes pages composant ce dossier, consulter le Plan http://www.admiroutes.asso.fr/philoscience/plan.htm

La construction de niches

A propos du livre de John Odling-Smee, Kevin Laland et Marcus Feldman, Niche Construction, The Neglected Process in Evolution, Princeton University Press 2003
F. John Odling-Smee est "Lecturer" auprès de l'Institut d'Anthropologie Biologique de l'Oxford University, UK
Kevin N. Laland est chercheur à la Royal Society University et enseigne la biologie à St. Andrews University, UK
Marcus W. Feldman est professeur de biologie à Stanford University

Le thème de l'ouvrage présenté ici est simple à résumer. Il paraîtra même banal. Les organismes, se développant et évoluant, modifient leur environnement en y construisant des "niches" leur permettant d'améliorer leurs capacités de survie. La présence de ces niches influe en retour sur leur évolution, puisque se constitue ainsi un nouvel environnement auquel les organismes sont obligés de s'adapter à nouveau, soit au plan génétique, soit au plan comportemental.
Mais, aussi banal qu'il puisse apparaître, ce processus de construction de niches est générateur d'une complexité qui, selon les auteurs, n'avait pas encore été bien mesurée. Les modifications incessantes et multiples de l'environnement produisent un nombre infini d'effets en retour (feed-back), tant sur cet environnement que sur les espèces qui doivent s'y adapter. C'est alors toute la dynamique de l'évolution qui en est affectée, telle du moins qu'elle était décrite par le schéma darwinien standard mutation/sélection s'exerçant au niveau des génomes. L'originalité de ce livre est qu'il propose des outils pour essayer de formaliser cette dynamique.

Dans cette nouvelle optique, l'évolution des écosystèmes prend un rôle décisif, déjà évoqué par l'écologie mais insuffisamment étudié. On peut parler d'une véritable ingénierie des écosystèmes (ecosystem engineering), d'où résultent des modifications profondes des grands équilibres physiques ou biologiques antérieurs. Pour étudier tout ceci, il faut mettre en place, selon le terme proposé, une théorie étendue de l'évolution (extended evolutionary theory).
Les auteurs ne pouvaient se limiter à ces affirmations. Ils devaient les justifier. C'est ce qu'ils ont fait par l'étude de nombreuses données intéressant l'évolution des espèces. Ils ont mis au point également des modèles théoriques, s'inspirant notamment de la génétique des populations. Ils proposent de nouvelles méthodes de recherches destinées à donner de la consistance à ces premières hypothèses, et permettre de fournir un nouveau cadre conceptuel aux théories de l'évolution, non seulement en biologie mais dans les sciences sociales et humaines. Essayons de replacer cette thèse dans la théorie plus générale de l’évolution génétique.

La crise de la théorie génétique de l'évolution

On parle désormais de crise de la théorie génétique de l'évolution. La théorie de l'évolution se limite-t-elle à la biologie de l'évolution et celle-ci à la biologie moléculaire. Si c'était le cas, face aux assauts répétés que subi désormais ce que certains avaient appelé l'empire ADN, une nouvelle théorie de l'évolution s'imposerait en effet, qui resterait d'ailleurs à inventer et pour laquelle la théorie de la construction de niches représenterait un apport indiscutable.

La critique du modèle manifestement trop simpliste de la reproduction et de l'hérédité, découlant des premiers travaux de la génétique moléculaire, est devenue aujourd'hui un exercice quasi obligé. Il n'est certes pas question de remettre entièrement en cause le lien causal entre les gènes, les protéines et les caractères. Globalement, ce mécanisme reste responsable de la plus grande part des transmissions héréditaires, ainsi que du mécanisme darwinien de mutation/sélection à la source de la diversification des individus et des espèces. Mais un premier type d'approfondissement a été apporté par la découverte des nombreux agents biochimiques ou biologiques intervenant dans la fabrication des phénotypes, et plus généralement dans ce que l'on pourrait appeler la morphogenèse du vivant : pourquoi une cellule, un cerveau, un organisme et dans certaines mesures ce que l'on nomme une espèce constituent-ils des systèmes organisés et non pas des imbroglios indécidables d'interférences.
Par ailleurs, de très nombreuses études sont désormais consacrées à l'épigénétique de l'évolution, c'est-à-dire à la recherche des interactions entre l'influence plus ou moins directe des gènes dans le développement, et celle des conditions environnementales dans lesquelles se déroulent chaque développement particulier. Il s'agit de la forme moderne de l'ancienne sociobiologie.

Dans cette optique, on ne considère pas ces conditions environnementales comme des données stables. On admet depuis longtemps qu'elles évoluent selon leurs lois propres, mais aussi qu'elles évoluent en réaction aux actions qu'y exercent les êtres vivants. C'est d'ailleurs pour cela que fut créé il y a plus de 10 ans le terme de co-évolution. En ce qui concerne les sciences sociales et humaines, la co-évolution est même devenue un concept banal. Nul ne discute le fait que les hommes créent des environnements artificiels, par exemple l'économie de l'automobile, et que ceux-ci les conditionnent en retour, dans un cycle apparemment sans fin d'actions-réactions.

Les phénotypes étendus

Mais il est certain que l'insertion de tels environnements artificiels dans le mécanisme général de l'évolution darwinienne, souvent évoquée en termes politiques, n'a pas encore fait l'objet d'études scientifiques suffisantes. Sans doute aussi ces études ont-t-elles été entachées de points de vue encore trop marqués par la biologie moléculaire. Les auteurs de Niche Construction évoquent le concept, d'ailleurs très innovant et fructueux à son époque de "phénotype étendu". Dans le livre du même nom, Richard Dawkins insistait sur le fait que les gènes "égoïstes" dont il avait auparavant proposé la théorie, s'affrontent pour la sélection d'organismes ou phénotypes capables de produire des outils et environnements dits phénotypes étendus optimisant leurs chances de survie et aussi celles des gènes dont ils sont porteurs. Tous les artefacts, toutes les constructions sociales, animales ou humaines, dans cette hypothèse, peuvent être considérés comme des phénotypes étendus égoïstes, résultant de l'activité des gènes.

Cependant Dawkins ne jugeait pas que cela contredisait le mécanisme darwinien de la mutation/sélection prenant sa source dans l'ADN. La fabrication par les espèces de nouveaux environnements permet à leurs gènes de bénéficier d'un milieu plus protecteur au sein duquel pourront être sélectionnées de nouvelles mutations augmentant l'adaptabilité des phénotypes et donc des gènes dont ils sont porteurs. Ainsi la termitière, phénotype étendu de l'espèce termite, offre aux individus de cette espèce un cadre favorable à l'apparition et à la sélection de termites mutants aux propriétés d'adaptation améliorées. La logique de l'évolution reste cependant génétique et relève en profondeur de la biologie moléculaire.

La théorie de la construction de niches ne remet pas en cause ce mécanisme, mais relativise son influence sur l'évolution. Il y a en effet des millions d'espèces qui produisent des millions d'artefacts leur servant de niches protectrices, lesquelles interagissent en permanence. De cette interaction de millions d'agents résulte un type d'évolution jusqu'ici mal étudié. Pour le comprendre, il faut sauter à un niveau supérieur de complexité. Il faut en effet étudier le rôle que tiennent, dans le mécanisme global de l'évolution, des agents qui ne sont plus seulement biologiques mais écologiques. Il s'agit d'écosystèmes résultant de l'intervention au sein du milieu physique des produits de l'activité constructrice des organismes, organisés en réseaux. Ainsi, un écosystème tel qu'une forêt résulte de l'interaction permanente des "niches" résultant de la compétition et de la symbiose de très nombreuses espèces. Ces écosystèmes ne peuvent pas être considérés eux-mêmes comme des organismes ou super-organismes, dotés de quelque chose qui ressemblerait à un génome.

En d'autres termes, ce ne sont pas des réplicateurs au sens où on l'entend en biologie. Ce sont des entités spécifiques, évoluant selon des lois spécifiques, d'ailleurs à découvrir. Ces lois sont de type émergeant et n'ont plus grand chose à voir avec ce qui se passe au niveau des génotypes des espèces impliquées. Leur évolution résulte de processus d'ingénierie d'une toute autre ampleur, se traduisant notamment par la modification des grands flux de production et de consommation d'énergie et d'éléments nutritifs préexistants dans le milieu naturel. On sera alors amené à prendre en considération deux types d'environnements au sein desquels s'organisera la mutation/sélection des espèces, ceux liés à des facteurs sur lesquels l'évolution biologique n'a pas de prise (par exemple les cycles solaires) et tous les autres.

Dans l'étude de l'insertion des humains dans l'environnement terrestre, on se trouvera en présence de "méga-niches" ou écosystèmes "artificiels" associant de façon apparemment inextricable des facteurs physiques, biologiques et comportementaux. Ceux-ci évoluent et se complexifient sans cesse, sous l'influence de moteurs intrinsèques tels que les technologies instrumentales et les contenus de connaissance scientifiques, sur le développement desquels les humains ne peuvent, malgré ce qu'ils affirment, exercer aucun contrôle global.

Une co-évolution

En quoi l'évolution des niches doit-elle être étudiée parallèlement à l'évolution génétique ? Parce que la création d'une niche, sous l'influence directe d'un certain nombre de gènes de l'espèce responsable, modifie de façon imprévisible l'expression de tous les autres gènes de cette espèce, ainsi que celle de tous les autres gènes de toutes les espèces en contact avec le milieu modifié par cette niche. Plus généralement elle crée de nouvelles pressions de sélection. Les premiers individus responsables de la création d'une niche au sein d'une espèce transmettent un phénotype étendu jouant un rôle sélectif, non seulement sur leurs descendants mais sur de nombreuses autres espèces. Il en est ainsi évidemment de la pression exercée sur le monde animal - et sur les individus humains eux-mêmes - par les méga-niches humaines.

On pourrait d'ailleurs sous cet angle considérer que la théorie de la construction de niches est une résurgence de l'hypothèse Lamarckienne selon laquelle l'évolution des espèces résulte de la transmission des caractères acquis durant leur vie par les représentants de cette espèce. Mais nous avons dit que cette théorie ne vise pas à remplacer le schéma moderne de l'évolution, reposant sur l'activité des réplicateurs génétiques. Elle veut seulement le compléter. C'est bien ce que signifie le concept de co-évolution, lequel devrait associer désormais de façon plus explicite Darwin et Lamarck.
Les auteurs présentent dans leur ouvrage les résultats d'études réalisées par eux et montrant comment la construction de niche a modifié les processus évolutifs d'origine simplement génétique. Des mutations apparemment fatales sont conservées, d'autres apparemment utiles disparaissent. Plus généralement ils ont détecté des décalages de temps entre l'évolution biologique et celle des milieux, telle évolution se poursuivant alors que le mécanisme de sélection a disparu ou telle autre ne se produisant pas malgré qu'un mécanisme de sélection nouveau est à l'œuvre depuis plusieurs générations.

Pour tirer parti de ces premières études, le livre plaide pour la mise en place d'une écologie évolutionnaire et pas seulement descriptive. Il ne suffit pas de présenter les grands mécanismes physiques générant des écosystèmes, en ne prenant pas en considération l'évolution de ces mécanismes sous l'influence des facteurs biologiques et humains. Il faut étudier ce que les auteurs nomment l'ingénierie d'écosystèmes, ecosystem engineering se produisant à des niveaux très locaux (décomposition d'une roche sous l'influence d'un escargot se nourrissant du lichen qui la protège de l'érosion, par exemple) mais aussi à des niveaux très globaux, tel que le désormais très populaire effet de serre. De telles considérations, pensent les auteurs, fournissent des bases déterminantes pour la compréhension et peut-être pour la prédiction de l'évolution des milieux naturels.

La question des réplicateurs non-biologiques

Les écosystèmes résultant des constructions entrecroisées de niches et déterminant la sélection des réplicateurs biologiques, les gènes, ne relèvent pas de la théorie générale des réplicateurs, nous disent les auteurs. C'est exact, pensons-nous, mais il faut lever une ambiguïté. N'est-ce pas Dawkins lui-même, créateur du concept de phénotype étendu, qui avait auparavant popularisé celui de mème dont on connaît le succès obtenu depuis lors. Les mèmes, rappelons-le, sont dans la théorie mémétique " classique ", des réplicateurs culturels qui prolifèrent dans les cerveaux grâce aux capacités à l'imitation dont sont dotés les humains et certains animaux.

Avec les mèmes, et plus généralement avec les langages et les différents contenus des cultures humaines, profitant des progrès des technologies de l'information, on voit apparaître des entités réplicantes qui, bien que ne disposant pas de génomes, créent des environnements lourdement sélectifs. La sélection porte en premier lieu sur les comportements, lesquels peuvent être considérés, dans la terminologie du livre, comme des niches évolutives ou phénotypes étendus au sein desquelles s'insère dorénavant l'évolution génétique de nombreuses espèces vivantes, celles notamment, comme nous l'avons indiqué ci-dessus, qui sont influencées par les activités humaines.

Mais il nous paraît un abus de langage (le point est chaudement discuté chez les méméticiens) de dire que les mèmes et les contenus culturels en général sont des réplicateurs, car leur mode de diffusion, reproduction, sélection, symbiose obéit à des règles d'ailleurs très peu comprises, qui n'ont que de lointaines analogies avec la réplication génétique. On pourrait plutôt dire qu'il s'agit d'entités proliférantes, pour reprendre le terme mis à la mode pour désigner les armements nucléaires.

Il y a bien d'autres entités réplicantes ou proliférantes se situant au-delà des mèmes et des comportements mimétiques que ceux-ci induisent. La sociologie évolutionnaire oblige à considérer aujourd'hui les divers systèmes, méga-systèmes ou méga-niches, associant des hommes, des machines et des milieux physiques dont le nombre et l'influence ne cessent de se développer sous l'influence de l'évolution des technologies. Nous avons évoqué ci-dessus l'économie de l'automobile, mais il en existe beaucoup analogues. Ces systèmes donnent l'impression d'évoluer selon des logiques propres, en dehors de toute influence des volontés humaines, et souvent d'une façon dont les hommes restent en grande partie inconscients. Ces systèmes sont pourtant les héritiers des petites niches construites au pléistocène et auparavant par des individus ou des groupes, mais qui semblent avoir échappé à leurs créateurs.

Sous l’influence de quoi et comment ces systèmes évoluent ? Des règles générales peuvent-elles être observées. Il s’agit d’une question qui intéresse non seulement la biologie mais l’ensemble des sciences sociales.

Notes :
* On trouve sur le web mention de très nombreuses études appliquant les principes de l'ecosystem enginneering. Voir par exemple: Clive Jones, Institute of Ecosystem Studies Organisms as Ecosystem Engineers
http://www.ecostudies.org/people_sci_jones_organisms.html
* Le site du livre http://www.nicheconstruction.com/

JPB 18/12/05

Repost 0
16 décembre 2005 5 16 /12 /décembre /2005 22:52

Thème. La science

Pour obtenir une vue générale des différentes pages composant ce dossier, consulter le Plan http://www.admiroutes.asso.fr/philoscience/plan.htm

Sur ce thème voir notre présentation du livre de Jean Dubessy, Guillaume Lecointre et Marc Silberstein, Editions Syllepse, Novembre 2004, Les matérialistes (et leurs détracteurs). http://www.admiroutes.asso.fr/larevue/2005/67/materialisme.htm

Pour les spiritualistes, la question de la compatibilité entre science et religion ne se pose pas. Ou bien ils refusent entièrement le recours à la science pour comprendre le monde et se satisfont des explications religieuses, ou bien ils considèrent que les théories scientifiques doivent s’arrêter au domaine du démontrable et que la religion concerne tout le reste. Les premiers sont de plus en plus rares, du moins en Occident. Les autres constituent la généralité. A première vue, cette position relève du bon sens. La science ne doit pas aller au-delà de ses possibilités. C’est d’ailleurs aussi la position des philosophes athées. La philosophie matérialiste, qu’il s’agisse de la philosophie générale ou de la métaphysique (laquelle s’applique à l’au-delà des connaissances scientifiques) propose un regard global sur l’univers et sur l’homme, fondé en grande partie sur le questionnement (c’est-à-dire le refus des certitudes). Elle porte donc sur la science un regard critique, afin de bien distinguer ce que celle-ci peut démontrer et les immenses domaines s’étendant au-delà des connaissances scientifiques, en leur état du moment. Pour ces domaines, elle accepte toutes les propositions, à condition que celles-ci à leur tour ne soient pas érigées en articles de foi et restent soumise au questionnement philosophique.

Mais pourquoi en ce cas, si la séparation entre science et religion ne pose pas de problème de principe, les scientifiques matérialistes s’estiment-ils constamment agressés par les religions ? D’abord parce que la religion tend à s’approprier le domaine de l’au-delà des connaissances scientifiques actuelles pour en faire le sien. Autrement dit, elle cherche à enfermer la science dans l’état actuel de ses connaissances et lui refuser de s’étendre. Ceci consiste à nier la logique même de la démarche scientifique. Aucun scientifique digne de ce nom ne prétendra que la science sait tout ou même, qu'en se donnant le temps nécessaire, elle pourrait tout savoir. L'exercice d'heuristique scientifique le plus utile consiste à explorer sans cesse ce que l'on appellera les limites de la connaissance du moment (voir notre page : Limites actuelles de la connaissance scientifique) étant entendu que ces limites peuvent, ici et maintenant, tenir aux insuffisantes capacités du cerveau humain et reculer si les connaissances globales de l'humanité, grâce aux technologies, s'enrichissent.

Mais reconnaître que la science n'apporte pas, aujourd'hui, de réponses convaincantes à un certain nombre de grandes questions n'entraîne pas qu'il faille combler ces lacunes en introduisant des réponses inspirées de croyances spiritualistes. Celui qui voit la preuve de l'existence de Dieu dans l'apparition de la vie ou dans le fonctionnement de la conscience au prétexte qu'il ne peut « expliquer scientifiquement » ces deux phénomènes, trahit la démarche scientifique d'une double façon : en apportant une réponse sans valeur scientifique aux questions posées et surtout, en fermant le domaine à des recherches scientifiques ultérieures. Pourquoi en effet tenter d'approfondir les mécanismes de la vie et de la conscience si ceux-ci relèvent d'une intervention transcendante à l'égard de laquelle l'analyse scientifique sera considérée comme irrespectueuse ? Pour progresser, la science doit en permanence élaborer des hypothèses sur ce qu’elle ne connaît pas, afin de proposer ensuite des expérimentations susceptibles de valider ou infirmer ces hypothèses. La seule précaution qu’elle doive prendre en ce cas, c’est ne pas prendre ses propres hypothèses pour des certitudes. Ainsi, en matière cosmologique, la science n’a pas de réponse à la question des origines de l’univers. Certaines hypothèses, comme la « théorie » des cordes, tentent d’y répondre. Mais ce ne sont que des hypothèses. Si cependant on fermait le champ de la recherche en affirmant que l’univers a été créé par Dieu, il n’y aurait plus de progrès scientifique possible.

Une deuxième occasion de conflit entre la religion et la science, dénoncée par les scientifiques, consiste à utiliser des protocoles de recherche apparemment scientifiques pour tenter de prouver des affirmations de nature religieuse. C’est le cas aujourd’hui des biologistes chrétiens qui tentent de démontrer par des observations scientifiques leur affirmation selon laquelle la vie est trop complexe pour ne pas avoir été inventée par un créateur (Dessein intelligent ou ID). Comme ceci ne peut pas être démontré, alors que les preuves de l’évolution darwinienne abondent et sont reconnues par tous les scientifiques de bonne foi, la démarche ne fait que jeter le doute sur la science en général. La théorie darwinienne est alors mise en compétition, notamment dans l’enseignement, avec les affirmations de la Bible sur l’origine du monde.

Il y a pire. C’est lorsque des fondamentalistes religieux, reprenant la démarche historique de l’Eglise catholique du temps de Copernic et Galilée, refusent de tenir compte des résultats d’expériences scientifiques indubitables, sous prétexte qu’elles contredisent les affirmations d’écritures, hadiths ou fatwas diverses émanant d’autorités religieuses ou sectaires. La science finit toujours par triompher dans de telles confrontations, mais que de temps perdu, de croyants égarés et parfois encore, que de martyrs. On en a eu un exemple récent lorsque une église sud-américaine avait affirmé que le préservatif ne protégeait pas du sida.

Questionnement de la religion par la science

Les scientifiques doivent donc se battre en permanence pour éviter le détournement de leurs procédures au profit des spiritualistes intolérants. Mais ils ont aussi le droit de riposter. Ils doivent d’abord prendre la parole le plus souvent possible pour dénoncer les intrusions de la religion dans leurs domaines. Mais ils peuvent aussi s’interroger sur les explications scientifiques susceptibles d’être apportées à ce qui demeure un grand mystère, l’omniprésence, dans l’humanité, du besoin de sacré, du besoin de croire à l’existence de quelque chose transcendant les apparences. Pour les spiritualistes, il n’est pas nécessaire de s’interroger, car ce mystère est précisément la preuve qu’il existe une divinité au-delà du monde visible et au-delà de la vie humaine. Mais, pour un scientifique, une telle réponse évite de soumettre au regard de la science un des mystères que celle-ci pourrait peut-être éclairer.

Nous pensons pour notre part que la science doit en ce domaine examiner plusieurs questions complémentaires:

- Pourquoi le besoin de croire en un autre monde (y compris ad absurdum) s'est-il introduit il y a quelques millénaires (ou dizaines de millénaires ?) chez les hominiens et pourquoi il y a survécu depuis ? Est-ce vraiment parce que les hommes devenus conscients de leur propre mort n’auraient pas pu survivre au désespoir de cette prise de conscience si des croyances et comportements relevant du mystique n’étaient pas apparues dans les sociétés d’alors et ne s’étaient pas conservées génétiquement depuis ? On sait que certains spécialistes du cerveau pensent avoir identifié des zones cérébrales dédiées à la croyance et des neurotransmetteurs ou drogues induisant le sentiment de donner accès à la transcendance.

- Corrélativement, pourquoi, si ce besoin de croyance était indispensable à la survie des individus et des sociétés, des athées ou incroyants ont-ils pu apparaître et survivre - le cas échant en transférant leur besoin de croire sur des objectifs de nature matérielle ?

- Comment en termes neurologique l'idée de Dieu - et plus généralement le fait de croire en quelque chose sur le mode de la foi du charbonnier - se manifestent-ils dans l'anatomie et la physiologie du cerveau soumis aux moyens moderne d'exploration fonctionnelle ?

- Peut-on considérer que l'idée de Dieu est un mème ou mèmeplexe (voir notre page La mémétique) qui parasite nos cerveaux ?

- Comment les pouvoirs sociaux et politiques utilisent-ils à leur profit ce besoin de croyance ? On sait depuis longtemps de quelles façons les classes dirigeantes traditionnelles se sont servies des religions pour aliéner les populations (l'opium du peuple). Mais il serait intéressant de voir aujourd'hui quels sont les intérêts précis, géostratégiques, politiques, commerciaux - qui sont derrière les fondamentalismes chrétiens ou islamiques et visent à mettre en tutelle l'esprit des hommes modernes ? On aimera aussi savoir, sans tomber dans les fantasmes de la théorie du complot, quels pouvoirs encouragent la prolifération des sectes au sein des sociétés occidentales?

JPB 16/12/05

Repost 0

Articles Récents

Liens