Overblog Suivre ce blog
Administration Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

24 novembre 2008 1 24 /11 /novembre /2008 16:03
Mythes philosophiques d’hier et d’aujourd’hui
par
Jean-Paul Baquiast
22/11/2008

La question des rapports entre la philosophie et la science n’a pas fini de faire débat. Lorsque ce sont des philosophes qui la posent, même lorsque ils paraissent au fait des problématiques scientifiques, un doute surgit. Ont-ils vraiment réfléchi aux grandes questions – précisément de type philosophique – que suscitent les développements des disciplines scientifiques les plus récentes. On ressent en les écoutant l’impression qu’ils confondent science et technosciences, voire science, applications technologiques et produits de consommation s’en inspirant.

Luc Ferry, qui poursuit un travail au demeurant très intéressant consistant à mettre les grandes œuvres philosophiques à la portée du public, expliquait récemment en présentant son dernier ouvrage, "La sagesse des Mythes" 1) que la science ne peut apporter la spiritualité dont les hommes ont besoin pour vivre. Il précisait bien que ce disant, il ne se plaçait pas dans la perspective des véritables spiritualistes, pour qui le monde matériel ne prend son sens que dans la contemplation d’un monde divin qui le transcende en tous points. Luc Ferry se veut matérialiste, mais– à juste titre – il ne renonce pas pour autant à s’interroger sur les fins dernières de l’univers et de la vie, comme sur les valeurs morales – altruisme, besoin de dépassement, soif de connaissance – qui inspirent les humains dans leur vie quotidienne, même lorsqu’ils ne prennent pas le temps d’y réfléchir en profondeur.

 

Ces interrogations caractérisent pour lui une exigence de spiritualité inhérente à l’humain. Celle-ci, pour lui, répétons-le, se situe en amont des réponses apportées par les religions, notamment les religions monothéistes qui puisent aujourd’hui dans leurs écritures et dogmes des solutions stéréotypées devant être absorbées sans discussion. Or dit-il, on ne trouve pas de réponses à cette exigence de spiritualité « laïque » dans les sciences, quelles qu’elles soient. Bien pire, selon lui, les sciences ne formulent pas les questions requérant une recherche de spiritualité, ou bien elles les évacuent à peine formulées.

 

Dans ces conditions, seule la philosophie peut satisfaire aux besoins de spiritualité des humains. Cet apport de la philosophie, nous rappelle-t-il, n’est pas nouveau. Dans " La sagesse des mythes ", il montre comment la mythologie grecque et latine a répondu sous une forme à peine cryptée aux grandes questions philosophiques qui préoccupaient non seulement les penseurs mais aussi les citoyens éduqués de l’Antiquité 2) Cette mythologie, en tant que forme populaire de réflexion philosophique, ne s’opposait pas à une science qui n’existait pas à l’époque sous ses formes actuelles. Par contre, elle se proposait de dépasser en les critiquant les finalités implicites fondant les sociétés de l’Antiquité, commerce, profit, esclavage, tyrannies… La sagesse des mythes propose selon Luc Ferry des réponses à ce que l’on pourrait appeler les questions " éternelles" que se posent les humains face à la nature et aux sociétés humaines. Elle suppose une interrogation permanente sur les comportements sociaux dominants et leurs valeurs, destinée notamment à la prise en considération d’un au-delà du présent immédiat.

 

Luc Ferry porte un regard hautement sympathique, au sens propre du terme, sur les mythes antiques et sur l’interrogation philosophique dont ils sont le résultat. Considère-t-il qu’ils pourraient aujourd’hui encore convenir, avec quelques adaptations, aux besoins de spiritualité qu’éprouvent les humains modernes et que, selon lui, la science ne peut satisfaire? On pourrait presque le croire, si grand est son enthousiasme. Quoiqu'il en soit, pour lui, la philosophie moderne, s’exprimant par d’autres formes que celles inspirées par une imagerie polythéiste naïve, est seule capable de remplir le vide de spiritualité des travaux scientifiques. La biologie ne nous donnera pas le sens de la vie, non plus que les neurosciences ne nous proposeront de règles morales ou que la physique quantique ne guérira nos chagrins d’amour.

 

Il est évident, et nous ne le contesterons pas, que le recours à la philosophie s’impose dès que nous sommes curieux de questions que les sciences ne se posent pas ou ne peuvent résoudre. Cependant, au-delà de cette évidence, nous pensons que le point de vue de Luc Ferry sur les sciences est dangereusement réductionniste. Il conduit inévitablement, bien qu’il s’en défende, non pas à une spiritualité matérialiste, mais au spiritualisme historique pour qui notamment l’esprit et la matière ne peuvent et ne doivent être confondus. Plus généralement, il enferme les scientifiques, comme tous ceux qui sans être chercheurs s’intéressent à la philosophie des sciences, dans le matérialisme utilitaire de ceux qui ne s’intéressent pas aux questionnements scientifiques mais aux profits susceptibles d’être tirés de l’exploitation militaire ou commerciale des technologies.

 

Que l’on nous comprenne bien. Nous ne refusons pas, encore une fois, de nous engager dans des débats sur les fins dernières ou sur l’au-delà des connaissances, si les philosophes modernes peuvent y apporter des approches à la fois neuves et critiques Philosophons, philosophons, il en restera toujours quelque chose. Soit dit ici très sérieusement et sans ironie. Mais nous voudrions que dans ces débats, les philosophes aient fait l’effort de s'interroger sur les ressorts profonds qui sous-tendent la recherche scientifique en général ou les recherches spécialisées liées à telle ou telle discipline émergente. Il ne s’agit en général ni du goût de l’argent ni de l’attrait des palmes académiques. Pour comprendre ces ressorts, la première chose à faire consiste à se plonger en profondeur dans les disciplines concernées. Cela n’est pas impossible, car de plus en plus de scientifiques font l’effort aujourd’hui, tel Socrate en son temps, de parler de leur travail en termes compréhensibles. Si les philosophes ne jugent pas utile de s’intéresser à ces efforts de communication, ils retombent inévitablement dans les mythologies de notre temps. Celles-ci n’ont plus les vertus éclairantes qu'avaient les mythes grecs. Elles sont surtout destinées à rapporter de l’argent et du pouvoir à ceux qui les professent.

 

Les neurosciences

Prenons le domaine des neurosciences. Nous avons passé un peu de temps à compiler 3) ce que les neurosciences modernes disent du cerveau, de ses comportements et des « valeurs » qu’il génère, aussi bien d’ailleurs dans les sociétés animales que dans les sociétés humaines. Nous ne pouvons donc accepter de laisser dire qu’elles n’offrent pas de réponses aux grandes questions philosophiques, telles que celles portant sur les valeurs morales, le sens du sacré, le sentiment esthétique face à la voûte céleste et autres interrogations plus que millénaires. Mais la difficulté tient à ce que ces réponses ne sont pas exactement celles qu’attendrait le grand public lecteur des magazines philosophiques distribués pour faire patienter les clients dans les salons de coiffure et centres de remise en forme.

Les neurosciences mettront ainsi de plus en plus en évidence les circuits neuronaux à la base de l’interrogation morale et métaphysique d’hier et d’aujourd’hui. C’est l’évolution qui a organisé le développement de ces circuits dans le cerveau des hominiens (pour ne pas remonter plus haut) afin de commander les comportements de plus en plus complexes imposés par la survie au sein de groupes façonnés par l’explosion des activités manufacturières et langagières. On peut sans trop forcer les mots trouver les origines de ce que l’on appelle la spiritualité dans la verbalisation et l’institutionnalisation de comportements indispensables à la survie des sociétés humaines primitives, tels que l’altruisme, le besoin de se donner des intentions, celui de se projeter dans le futur.

Ce type de réponse satisfera-t-il l’individu en mal d’interrogations sur les fins dernières ? Lui dire que, s’il se pose de telles questions, c’est parce que l’évolution l’a doté d’un cerveau capable, non seulement de se les poser, mais de leur apporter des réponses plus ou moins objectives, le rassurera-t-il ? Oui, sans doute, si dans le même temps, on lui montre que le mouvement continu d’approfondissement des connaissances et des épistémologies qui en découlent justifie qu’il continue à s’interroger sur la façon dont de nouvelles recherches scientifiques, sous-tendues par de nouvelles visions ontologiques, pourront lui faire découvrir de nouveaux horizons de questionnement- et l'inverse, puisque le mécanisme d'approfondissement fonctionne dans les deux sens.

 

Dans les sociétés évoluant sur un rythme technologique et scientifique exponentiel, de nouveaux circuits neuronaux, posant (ou résolvant) de nouvelles questions seront nécessaires à la survie dans le monde de demain. Il est donc quasiment inévitable de réfléchir à ces questions. On y trouvera le fondement de nouvelles approches philosophiques, dont nous n’avons guère idée aujourd’hui. C’est dans la perspective de tels dépassements que les philosophes d’aujourd’hui devrait inciter leurs élèves à s’engager.

Comme quoi et comme aurait dit le pirate Barberousse (il est vrai en brandissant son pistolet sous le nez de ses contradicteurs) « si cela n’est pas là de la bonne philosophie, je veux bien être pendu ».

La légèreté de l’Etre.

Nous voudrions poursuivre ce propos à partir des questions éminemment philosophiques que se pose, et que pose à ses lecteurs, le Prix Nobel de physique Frank Wilczek dans son ouvrage « The Lightness of Being » 4) L’auteur a reçu le Prix Nobel de Physique 2004, conjointement avec David Politzer et David Gross, pour ses travaux sur la chromodynamique quantique, décrivant comment des particules fondamentales nommées les quarks et les gluons interagissent pour former les protons et les neutrons qui sont au cœur de chacun des atomes dont nous sommes faits. Le sujet n’est pas facile, et demande des connaissances qu’on ne saurait exiger d’un philosophe, voire d’un physicien de gabarit normal. Néanmoins le livre écrit par Frank Wilczek, sans être de tout repos, est à la portée d’un lecteur que nous dirions cultivé. Or, sans se placer d’emblée dans la philosophie, il présente l’état des connaissances susceptibles de répondre à de grands interrogations philosophiques : pourquoi les objets ont-ils une masse et pourquoi cette masse est-elle ce qu’elle est ? D’où proviennent les particules élémentaires ? De quoi est rempli le vide cosmique ? …ou plus concrètement, à quoi servira le grand collisionneur à hadrons du Cern (LHC) qui aurait du entrer en service cet automne et dont une panne dans les systèmes de refroidissement a retardé le démarrage ?

La démarche de Frank Wilczek, comme celle de ses centaines de collègues qui étudient ces questions, peut être considérée comme typiquement philosophique, en ce sens qu’elle fait le point des réponses apportées – avec circonspection et sous réserve de vérification – à des questions qui tourmentaient déjà les citoyens grecs éduqués du temps de Démocrite : de quoi sont fait la matière, le temps, nous-mêmes. Elle est également éminemment philosophique dans la mesure où, à la plupart de ces questions, Frank Wilczek répond que ni lui ni aucun de ses collègues aujourd’hui ne peuvent apporter de réponse. Certes, des pistes de réponses apparaissent, s’appuyant sur les théories reconnues actuellement, mais au-delà, l’esprit curieux est invité à patienter, soit quelques mois ou années quand le LHC aura commencé à produire des données, soit plus longtemps encore.

Ainsi concernant l’origine de la masse, le physicien peut répondre qu’elle dérive de l’énergie, en appliquant l’équation (retournée) proposée par Einstein : m=E/c2. Cette équation, dans laquelle E représente l’énergie et c la vitesse de la lumière, est toujours admise bien qu’âgée de plus d’un siècle. Mais au-delà ? D’où vient l’énergie, l’énergie pure dont dérivent toutes les masses ? Les scientifiques ne peuvent que proposer des hypothèses, bien propices à nourrir de nouvelles réflexions philosophiques. Frank Wilczek, à la question de savoir de quoi est fait ce qui nous apparaît comme un espace vide, répond (p. 73) qu’il s’agit d’un milieu dynamique dont l’activité modèle le monde. Il le nomme le Grid ou réseau. Il est constitué d’un condensé instable de quarks et antiquarks. Du vide émergent des pairs de quark-antiquark qui en s’annihilant laissent cependant persister des perturbations dans le Grid qui fournissent l’énergie dont la matière ordinaire est faite.

Cependant, comme chacun le sait dorénavant, les masses telles que calculées par l’équation d’Einstein et qui constituent la matière/énergie ordinaire, celle que nous pouvons observer directement, ne sont qu’une très faible partie des masses détectées (ou suspectées) dans l’univers. L’essentiel des forces qui déterminent l’évolution de l’univers sont encore inconnues. Il s’agit de la matière noire, responsable de l’essentiel de la gravité, et de l’énergie noire, qui serait responsable d’une expansion accélérée de l’univers visible dont les astronomes ont cru détecter les manifestations. Un immense domaine d’incertitudes s’ouvre ainsi. Mais il est aussi porteur d’une certitude stimulante, celle selon laquelle des chercheurs proposeront inévitablement, si les sociétés scientifiques restent ce qu’elles sont, de nouvelles hypothèses qui pourront éventuellement obliger à revoir de fond en comble tout ce que l’on croyait acquis.

Ceci pourra se produire, non nécessairement dans un lointain avenir, qu’aucun d’entre nous ne verrait, mais peut-être demain, ou presque. Il en sera ainsi, prédisent les physiciens, si le LHC ne fait pas apparaître le si recherché et encore mythique boson de Higgs, indispensable pour compléter l’unification des forces dans le tableau des particules élémentaires.

Le lecteur nous demandera en quoi l’évocation de ces mystères pourrait répondre aux interrogations philosophiques du citoyen d’aujourd’hui ? Nous répondrons qu’elle aura l’intérêt non négligeable de l’inviter à prendre de la hauteur et à ne pas s’enfermer dans la recherche nombriliste de réponses à de petites angoisses personnelles. Ainsi pourra-t-il se sentir à nouveau motivé pour s’intéresser à l’évolution d'un cosmos dans lequel il est plongé et dont il est l’un des acteurs. C’est exactement le rôle que jouaient les mythes anciens, tel celui d’Ulysse pris en exemple par Luc Ferry. Le récit légendaire raconte qu’Ulysse, retenu quelques années dans l’ile de la nymphe Calypso qui lui promettait amour et vie éternelle, avait fini par s’arracher à ces délices pour retrouver Ithaque, son épouse et aussi la condition humaine, avec la perspective d’une mort inévitable.

Ce mythe, au demeurant, ne parait pas inspiré par une pensée philosophique d'une hauteur vertigineuse. Il est quasi utilitaire. Il vise à rappeler aux hommes qu’ils doivent éviter de se perdre dans des rêves. Ils doivent se consacrer à leur famille en se contentant de leur sort. Les autres mythes ne sont pas très différents. Ils contribuent tous à la survie du type de société considéré (implicitement) comme un modèle par la structure sociétale de l'époque. Ne les critiquons pas cependant. Ils étaient suffisamment élaborés pour conserver encore un grand pouvoir sur nos imaginaires. Il reste que les mystères dont la physique moderne fait pressentir l’existence pourrait bien mieux encore de nos jours stimuler l’inquiétude philosophique et la recherche de spiritualité.

 

On objectera que le citoyen de nos sociétés n’a pas la culture minimum lui permettant de participer aux interrogations philosophiques suscitées par l’étude des sciences. Ce qui n’était peut-être pas le cas de ceux qui s’enchantaient aux récits d’Homère, sans doute plus immédiatement accessibles aux esprits de ces époques. Certes. Mais c’est bien pourquoi ceux qui voudraient réintroduire de la spiritualité dans les sciences devraient recommander un préalable indispensable : rendre l’enseignement des bases de la physique et des autres sciences dures et moins dures obligatoire dans l'ensemble des lycées et collèges.


Simulation et connaissance

Nous serions injustes cependant de ne pas saluer les efforts que font de plus en plus de philosophes notamment parmi les jeunes générations, pour se mettre au courant du développement des sciences les plus récentes et en présenter les possibles applications à la pensée philosophique ou politique. Ils ne font jamais cela si bien, on doit le dire, que quant ils font participer de « véritables » scientifiques à leurs réflexions. C’est le cas d’un numéro de la Revue philosophique intitulé « Simulation et connaissance » auquel nous renvoyons les lecteurs de notre propre revue. 5)

 

Ceux-ci savent combien sont essentielles aujourd’hui au plan scientifique et philosophique les questions de savoir :
- S’il existe un réel en soi (indépendant de l’observateur) ?
- Sous quelles formes ce « réel » est capté par les moyens d’observations (sensoriels) dont disposent les organismes vivants ?
- Comment ces organismes se le représentent ou le modélisent, soit par leur organisation corporelle quand ils n’ont pas de cerveau, soit au sein de cet organe quand ils en ont.
- Comment ces modélisations participent à la construction des langages et des niches de survie propres aux espèces ?
- Quelle est le rôle des technologies développées par l’espèce humaine dans la dynamique constructive de ces représentations ?
- Comment en retour tout ce qui précède réagit-il sur le "réel en soi" supposé ?

Le numéro Simulation et connaissance n’aborde pas tous les aspects de ces questions fondamentales, ou, s’il le fait, il le fait sous des logiques d’attaques plus dispersées. Néanmoins, une lecture attentive des différents articles permettra peu ou prou de retrouver les problématiques évoquées ci-dessus. Nous avons particulièrement retenu, outre l’introduction de Georges Chapouthier et Stéphane Chauvier, les articles de Frédéric Kaplan et Pierre-Yves Oudeyer, consacré à la robotique évolutionnaire, et celui de Georges Chapouthier, intitulé « Le cerveau simulateur dans tous ses états ". Ce texte, en quelques pages, présente une synthèse des conceptions modernes des neurosciences concernant le rôle du cerveau dans la construction des représentations, aussi bien lors de situations que l’on pourrait qualifier de normales, celles où le cerveau fait des prédictions dont le corps tout entier valide la pertinence, que dans des conditions moins courantes mais tout aussi essentielles où le cerveau s’emballe dans un imaginaire dont les hypothèses ne sont plus immédiatement vérifiables expérimentalement 6)

Revenons pour terminer sur le défi évoqué dans la première partie de cet article, que Luc Ferry semblait poser aux sciences : « Que répondrez vous à une personne qui vous dira qu’elle a besoin d’un dépassement vers l’absolu, ou qu’elle souffre d’un grave chagrin d’amour ? ». Pour Luc Ferry, les sciences ne peuvent pas apporter de soulagement à de telles inquiétudes. Selon nous au contraire, une discussion avec un scientifique tel que Georges Chapouthier ou d’autres de ceux à qui nous avons donné la parole dans notre Revue, pourrait lui faire comprendre que ses angoisses n’ont rien d’exceptionnel. Elles font partie des manifestations les plus banales de la vie organisée et ne devraient pas l’inquiéter plus que les symptômes d’un mal de dents, même si les soulager suppose une démarche comportementale un peu plus complexe que la prise d’un cachet d’aspirine - ou d'un anxiolitique.

Nous pourrions ajouter, toujours en réponse au défi de Luc Ferry, que les discours philosophiques les plus élaborés ne satisferont pas davantage que le recours aux connaissances scientifiques, ces « troubles de l’âme » auxquels l'ancien ministre de l'Education Nationale pense que seule la philosophie peut répondre.

Notes
1) Luc Ferry « Apprendre à vivre : Tome 2, La sagesse des mythes », Plon 2008
2) Le même travail a souvent été fait par ceux étudiant les mythes des civilisations non méditerranéennes, dont nous sommes bien moins informés
3) Voir notre dossier. La conscience vue par les neurosciences 1 et 2
http://www.admiroutes.asso.fr/larevue/2008/92/conscience1.htm
http://www.admiroutes.asso.fr/larevue/2008/92/conscience2.htm
4) Frank Wilczek « The Lightness of Being: Mass, ether and the unification of forces » Basic Books, 2008.
5) Revue philosophique de la France et de l’étranger, PUF, publié avec le concours du CNRS, n° 3 de juillet-septembre 2008.
http://pedagogie.ac-toulouse.fr/philosophie/revphi/revphilo.htm#psto
Nous fournissons ce lien par acquis de conscience. En fait, le site est quasiment vide, il n’est même pas à jour des sommaires des derniers numéros. Si les éditeurs et auteurs voulaient éloigner les gens de la philosophie, ils ne s’y prendraient pas autrement. Peut-être veulent-ils protéger le lectorat payant. Mais j’aimerais savoir en ce cas quel est le tirage et ce qu’il rapporte – au détriment de l’éducation populaire. Comme je l’indique ci-dessus, le numéro que m’a adressé Georges Chapouthier et dont normalement je n’aurais jamais du prendre connaissance mériterait une très large diffusion.
6) Rappelons que nous avions précédemment présenté les travaux de Georges Chapouthier au cours d’un entretien avec ce chercheur, lequel est aussi un philosophe. L’entretien porte en partie sur les relations entre philosophie, métaphysique et sciences
 http://www.automatesintelligents.com/interviews/2007/nov/chapouthier.html

 


Repost 0
23 octobre 2008 4 23 /10 /octobre /2008 21:26

Paléoanthropologie de la conscience de soi
par
Jean-Paul Baquiast
23/10/2008

Nous nous sommes appuyés, pour documenter la première partie du présent article, sur Les Dossiers de La Recherche, La nouvelle histoire de l’homme, N° 32, août 2008.

Crâne de Paranthrope. Genre d’hominidés primitifs fossiles d’Afrique (2,6 à 1,3 millions d’années), les Paranthropes étaient autrefois appelés Australopithèques robustes.

 

Pourquoi aux alentours de 2 millions d’années avant notre ère, certains primates du genre Homo (toutes les espèces partageant un ancêtre commun récent sont considérés comme appartenant au même genre) ont-ils commencé à acquérir des capacités cognitives qui leur ont permis de se distinguer des autres primates, australopithèques et ancêtres des grands singes actuels, avec qui ils partageaient des habitats voisins? La réponse qu’apportent à cette question la majorité des paléoanthropologues est sans doute exacte, mais n’est pas suffisante. Elle repose sur l’hypothèse que c’est par l’usage des outils que s’est amorcée l’évolution vers l’hominisation. Il est indéniable que l’usage des outils a tiré vers le haut les espèces qui en bénéficiaient. Mais la vraie question se situe en deçà. Pourquoi certains primates ont-ils découvert l’intérêt de compléter systématiquement leurs outils corporels naturels par des objets matériels, tandis que d’autres espèces en apparence proches se « satisfaisaient » de ce qu’ils avaient acquis au terme d’évolutions remontant à des dizaines de millions d’années ?

I. Les données de la paléoanthropologie

Rappelons d’abord ce que l’on croit savoir aujourd’hui de l’évolution des outils. Aux origines, des espaces de temps extraordinairement longs ont séparé l’apparition des premiers outils indiscutables, dits outils de phase 1 (galets grossièrement taillés ou éclats) et les transformations et perfectionnement de toutes sortes apparus ensuite. Le premier outil identifié serait un nucléus de quartzite avec des traces de taille, mis à jour en Chine près du village de Dongyaositou. Il serait âgé de 3 millions d’années, ce qui en ferait le spécimen le plus ancien connu. On ne mentionne pas dans ce calendrier les simples galets utilisés comme percuteurs pour briser des noix ou des os, dont l’usage est sans doute beaucoup plus ancien, mais qui sont difficiles identifier en tant que tels. Les primates non humains en font aussi usage occasionnellement.

Les outils indiscutables (pierres aménagées, coups de poing dits bifaces, lames tranchantes) sont évidents à partir de – 2,5 MA. Ils sont associés aux populations d’Homo dits erectus et habilis, lesquelles ont coexisté pendant 500.000 ans sans se mélanger. On rapproche de ceux-ci les Paranthropes (robustus et boisei) d’Afrique du Sud et d’Afrique de l’Est, datés de 2 à 1 MA, voire davantage pour le Paranthropus ethiopicus (2,5 MA). Ces diverses espèces sont plus voisines des Homo que des Australopithèques, avec lesquesl elles étaient confondues jadis..



Le tableau suivant permet de classer les types d’outils et leurs dates d’apparition. Il est tiré d’un article de Olivier Keller: QUELQUES DONNEES POUR UNE PREHISTOIRE DE LA GEOMETRIE.

* Paléolithique archaïque. (-2,5 à –1,5 MA) Homo habilis (volume cérébral 500 à 800 cc). Afrique. Industrie oldowayenne. Galets taillés : choppers et chopping tools.

* Paléolithique inférieur. (-1,5 à –0,2 MA) Homo erectus (750 à 1250 cc) Afrique, Asie, Europe. Industrie acheuléenne. Bifaces.

* Paléolithique moyen (-200000 à –40000) Homo sapiens archaïque, homo sapiens neandertalis (1200 à 1700 cc). Industrie moustérienne. Eclats et lames.

* Paléolithique supérieur (-40000 à –9000) Homo sapiens-sapiens Industrie laminaire. Lames retouchées.

* Epipaléolithique africain (à partir de –15000), Mésolithique européen (-9000 à –5000) Microlithes (petites lames et pointes) géométriques.

 



Grâce aux outils de pierre, d’os et de bois (non conservés) ainsi qu’aux « pyrotechniques » associées au feu (d’usage beaucoup plus ancien qu’il n’était supposé il y a quelques décennies), les diverses espèces d’Homo ont pu, très vite après leur apparition, quitter le berceau africain d’origine et s’étendre, par vagues de peuplement successives ou croisées, à l’Afrique entière, puis à l’Europe, à l’Eurasie, à l’Indonésie et même à l’Australie. Les hommes modernes, dits homo sapiens (sapiens néanderthalensis et sapiens sapiens) identifiés vers – 200.000 ans, ont alors hérités de techniques très sophistiquées qui leur ont permis de s’imposer progressivement à toutes les espèces dont ils partageaient le biotope.

Notons que les paléoanthropologues, dans leur majorité, considèrent que les nombreuses espèces rattachées au genre australopithèques, ayant vécu dans toute l’Afrique et au-delà entre - 4 et -1,5 millions d’années, n’ont pas utilisé d’outils de façon systématique, en les transformant comme le faisaient dès l’origine les Homo, habilis et erectus. Ils le faisaient sans doute occasionnellement, à l’instar des grands singes, pour casser des noix ou éloigner des prédateurs. Ils possédaient les capacités manuelles pour fabriquer des outils, mais sans doute n’avaient-ils pas développé les capacités cognitives nécessaires. Les australopithèques ne sont généralement plus considérés aujourd’hui comme les prédécesseurs des espèces d’Homo leur ayant succédé. Il semble qu’ils se soient enfermés progressivement dans des niches sans débouchés, après cependant s’être répandus dans toute l’Afrique pendant 2 MA (un bel exploit), tandis que les Homo apparaissaient et se généralisaient. Australopithecus africanus a vécu en Afrique du Sud jusqu’à au moins – 2,2 millions d’années, tandis que le plus ancien reste d’Homo, dit Homo habilis, est daté de – 2, 4 millions d’années. Il est possible que ce dernier ait évolué à partir d’une autre espèce, par exemple Kenyanthropus platyops, dont on ignore tout des aptitudes cognitives.

Avant les australopithèques, de – 7 MA à – 5 MA, trois espèces d’hominidés sont aujourd’hui connues. Elles ont été classées par leurs découvreurs dans des genres différents. : Orrorin Tugenensis, (5,8 à 5 MA), Kenya – Ardiphithecus Kadabba (5,8 - 5,2 MA) Kenya – Sahelanthropus Tchadensis (Toumaï, - 7 MA) , Tchad. Il s’agissait sans doute déjà de bipèdes plus ou moins systématiques. Aucun outil n’a été retrouvé sur les sites où ils ont été découverts. Mais le contraire aurait été très surprenant, vu la rareté des vestiges.

Notons par ailleurs que de grands efforts sont faits actuellement pour rapprocher les restes d’hominidés de ceux de grands singes archaïques, par exemple le Proconsul (Myocène inférieur, - 20 MA) ou le Pierolapithecus (Myocène moyen, - 20 – 15 MA). Ceux-ci ne pratiquaient pas la bipédie mais seulement, pour certains d’entre eux, le « grimper vertical ».

Si l’on en croit les analyses génétiques, les Homo ont divergé d’avec les ancêtres des chimpanzés vers – 6,6 millions d’années, eux-mêmes d’avec les gorilles vers - 8,6. Ces divers primates, dits hominoïdes, se sont séparés des cercopithécoïdes (babouins, macaques, vervets) que nous allons retrouver ci-dessous, vers – 38 millions d’années. Avec les céboïdes (singe écureuil, marmoset), les hominoïdes et les cercopithécoides forment le genre des anthropoïdes, lequel lui-même, avec les Strepsirrhinines que l’on retrouve en particulier à Madagascar, et dont ils se sont séparés à la fin du crétacé, vers – 77 millions d’années, constituent l’ordre des Primates. Rappelons qu’à cette époque s’éteignaient les derniers grands dinosaures ;

Un puzzle

Il faut mettre le lecteur en garde, quand on associe comme nous le faisons l’histoire des outils à l’histoire des espèces. Les récits simplificateurs ne sont pas de mise. L’évolution reste encore truffée de points d’ombres. Il s’agit comme le rappellent les scientifiques d’un puzzle progressivement construit à partir de vestiges isolés, dispersés dans des espaces et sur des durées de temps immenses. Spontanément, chaque découvreur tend à vouloir identifier une espèce nouvelle à partir d’un fragment souvent difficilement interprétable. Par ailleurs, les outils nouveaux de l’horloge dite moléculaire ne donnent pas tous de résultats convergents. Les uns procèdent à une datation à partir d’éléments d’ADN de conservation difficiles. Les autres exploitent les données fournies par les génomes des populations actuelles (ADN mitochondrial et ADN du chromosome Y, l’un se transmettant de mère en fille et l’autre de père en fils). Il faut recouper les deux et recouper le tout avec l’anthropologie de terrain.

Afin de reconstruire l’histoire des espèces ayant abouti à la généralisation de l’Homo sapiens sapiens, plusieurs grandes hypothèses, utilisant les informations disponibles et donc nécessairement révisables, sont en compétition. La plus ancienne, dite du modèle multirégional, postule que des espèces plus ou moins isolées ont évolué simultanément et indépendamment vers l’Homo sapiens sapiens dans les trois bassins Afrique, Asie et Europe où les premiers vestiges de ce dernier ont été identifiés. Selon la seconde hypothèse, dite Out of Africa, l’homme moderne n’est apparu qu’en Afrique et à remplacé toutes les espèces préexistantes sur les trois continents. Enfin, selon le modèle dit réticulé, le plus en faveur aujourd’hui, des échanges génétiques permanents entre populations migrantes et locales auraient conduit à l’apparition et à la généralisation du Sapiens sapiens, qui s’est révélé le plus compétitif.

Aux échelles de temps prises en considération par ces trois catégories d’hypothèses, l’usage des outils était déjà généralisé. On peut penser qu’une grande partie de la compétitivité entre espèces concernées par ces migrations a résulté de l’aptitude à inventer des outils de plus en plus performants et diversifiés, capables de s’adapter à des milieux et contraintes variés.

Des changements morphologiques apparus dès le miocène supérieur

Mais il faut aller plus avant dans la recherche des causes. Nous avons rappelé dans des articles précédents que faire appel à l’hypothèse de l’outil pour expliquer la divergence entre des primates devenus de ce fait progressivement des hominiens et leurs ex-congénères restés grands singes, n’éclaircissait pas la cause première de cette divergence, qui s’est produite sans doute au miocène supérieur, c’est-à-dire de – 2 à - 10 MA auparavant, sinon plus tôt encore. A ces époques, nous l’avons rappelé, aucun primate, autant que l’on puisse en juger, n’utilisait systématiquement d’outils, tels du moins qu’ils ont été retrouvés, c’est-à-dire sous forme de pierres aménagées. Par contre, tous étaient déjà engagés dans des évolutions morphologiques et sans doute aussi cérébrales qui les ont écartés du modèle des grands singes. Ce ne fut donc pas l’usage de l’outil qui a provoqué ces évolutions.

Il semble bien aujourd’hui, en effet, que les mutations déterminantes se soient produites au miocène, dès – 15 MA, les plus importantes ayant permis la bipédie et ses diverses conséquences (libération de la main, nouveau port de la tête et du bassin, nouveaux organes phonateurs, etc.). Les fossiles de ces époques montrent qu’un nombre important d’espèces manifestent une tendance au redressement. Le schéma dit pronograde (tronc horizontal) a laissé place chez ces espèces au schéma orthograde (tronc redressé puis vertical). Les spécialistes supposent également que les mutations ayant provoqué ces différenciations morphologiques se sont accompagnées, peut-être conointement avec un accroissement du volume crânien chez certaines espèces, de mutations donnant aux bases neurales de la cognition de nouvelles capacités associatives. Celles-ci se sont précisées à partir sans doute de dispositions déjà présentes dans les cerveaux des prédécesseurs des hominiens mais non exploitées. On cite généralement à cet égard les neurones miroirs ou l’organisation des minicolonnes dans les aires cérébrales devenues ultérieurement les aires du langage. Nous reviendrons sur ce point dans la seconde partie de cet article.

Cependant, la recherche d’éventuelles causes premières ne peut pas s’arrêter là. Evoquer des changements morphologiques et cérébraux ne suffit pas. Il faut rechercher les causes naturelles ayant provoqué un ensemble impressionnant de mutations convergentes au sein de certaines espèces, alors que d’autres espèces voisines, apparemment en compétition darwinienne avec les premières, n’en bénéficiaient pas. Pour les darwiniens, seuls des changements environnementaux importants peuvent produire de tels résultats. Ces changements peuvent avoir deux effets opposés mais finalement complémentaires. Les uns obligent les espèces qui les subissent à muter pour s’adapter. Il s’agit d’un renforcement des pressions de sélection. D’autres libèrent, au moins momentanément, les espèces des pressions de sélection s’exerçant jusque là sur elles et laissent par conséquent s’exercer une dérive génétique spontanée rendant actifs des gènes jusque là non exprimés. On parle de « sélection relachée » ou « relaxed selection » 1).

 

Il serait irréaliste de penser qu’une seule et unique cause environnementale ait pu brutalement conduire des primates jusque là forestiers à se redresser. Très probablement, ces changements se sont produits plusieurs fois et en plusieurs lieux, sur plusieurs millions d’années, entraînant des évolutions convergentes. On parle à cet égard d’ « homoplasie » ou acquisition indépendante de traits similaires. D’autres causes très différentes ont peut-être également joué Mais ce n’est pas le lieu de discuter ici ces hypothèses. Il suffit de supposer que des modifications dans les pressions de sélection ont provoqué durant le miocène une divergence évolutive entre des primates devenus hominidés et des primates restés arboricoles.

Mais revenons à l’usage de l’outil. Nous avons dit que les premiers vestiges d’outils de pierre ont été identifiés dans des sites datés de – 2 MA. Les hominiens supposés utilisateurs de ces premiers outils ont peut être été des australopithèques. Mais on considère que leur généralisation a été due à des espèces nouvelles, regroupées sous les noms d’Homo habilis et Homo erectus (que l’on qualifiait aussi jadis d’Homo faber.) Il avait donc fallu que tous les changement anatomiques et neurologiques résumés ci-dessus et nécessaires à l’utilisation systématique d’outils de pierre pour améliorer les modes de survie se soient produits bien auparavant, notamment la station debout et la libération de la main.

De plus, peut-on envisager que des hominiens, qu’ils soient australopithèques ou habilis, aient pu découvrir le rôle utile d’une « association » avec des outils, l’aient transmis et perfectionné de générations en générations, sans qu’ils aient disposé d’un minimum de conscience de soi, conscience que les autres primates n’avaient pas. Pour qu’ils aient pu disposer de cette conscience de soi, il fallait que les bases neurales en soient présentes dans leur organisation cérébrale. Mais alors, pourquoi disposaient-ils de telles bases neurales, alors que les autres primates en étaient apparemment dépourvues ? Nous avons évoqué l’hypothèse de ce que nous appellerions volontiers la mutation providentielle. Subitement, une mutation se serait produite chez certains groupes d’individus, au niveau par exemple de leur cortex pariétal, les rendant plus doués que les autres (un peu de la même façon que des enfants surdoués apparaissent de temps à autres chez les humains modernes).

Nous avons indiqué ailleurs que cette hypothèse de la mutation providentielle parait un peu ad hoc. Nous préférons pour notre part celle, beaucoup plus « passe-partout » si l’on peut dire, selon laquelle l’ensemble des primates disposaient à l’époque et disposent encore, de capacités cognitives suffisantes pour leur permettre de développer l’usage des outils. Ces capacités comprennent l’amorce d’une aptitude à la conscience de soi. Si les primates qui ne sont pas devenus des hominidés n’ont pas développé ces capacités, au miocène comme aujourd’hui, ce fut parce qu’ils n’en avaient pas besoin pour survivre dans leur milieu d’origine. Seuls certains de ces primates ont, sans doute par hasard et du fait qu’ils s’étaient retrouvés entre – 5 et – 2 MA dans des environnements différemment sélectifs, développé ces capacités. Notre thèse est qu’ils l’ont fait à l’occasion d’une interaction avec des objets du monde matériels qui ont progressivement acquis pour eux le rôle de compléments corporels, c’est-à-dire d’outils naturels.

Nous avons nous-mêmes formulé plusieurs fois sur ce site l’hypothèse selon laquelle, dès que des primates soumis à de nouvelles pressions de sélection avaient constaté l’intérêt pour la survie de l’utilisation systématique d’un outil de pierre, par exemple un percuteur afin de briser des noix, un système d’enrichissement croisé à deux pôles s’était mis en place, associant les utilisateurs de l’outil et les formes successivement prises par ce dernier. Au sein de ce système, les deux catégories de « partenaires », le vivant et le matériel, se sont trouvés engagés dans la construction d’un ou plusieurs ensembles évolutionnaires complexes associant des corps, des cerveaux et des esprits de plus en plus façonnés par les usages de l’outil, d’une part, des outils se développant selon des dynamiques spécifiques de nature mécanique guidant d’une certaine façon la main de leurs utilisateurs, d’autre part. Nous avons utilisé pour désigner ce système à deux pôles le terme de superorganisme ou complexe anthropotechnique.

Des outils qui n’en étaient pas encore

Mais dira-t-on, les premières traces d’outils remontent à – 2 MA. Il n’existait rien auparavant. C’est contre cette affirmation que nous voudrions nous inscrire en faux. On sait que les anthropoïdes, appartenant à des ordres différents, hominoïdes ou cercopithécoïdes (macaques ou babouins) utilisent spontanément différents objets prélevés dans le milieu à titre d’outils temporaires, cannes, percuteurs, armes de jet. Bien d’autres mammifères et oiseaux le font aussi. Il est donc légitime de supposer que certains primates s’étant redressés sur leurs membres antérieurs et se retrouvant dotés d’organes leur facilitant la manipulation de ces objets, les aient utilisés de plus en plus systématiquement, dès – 5 MA, à titre d’outils. Ils auraient ainsi donné l’occasion à des capacités cognitives dont les bases neurales étaient jusque là dispersées dans leur cerveau et non utilisées, de s’assembler en boites à outils cognitives. Celles-ci auraient progressivement donné naissance à la conscience de soi, au langage et à l’intelligence. Cette évolution serait restée très lente, sans grands effets aujourd’hui visibles, pendant 3 MA environ. Elle aurait produit les premiers outils de pierre aujourd’hui retrouvés dans des sites datés de – 2 MA et se serait enfin brutalement épanouie avec Homo sapiens vers – 200.000 ans.

Si nous voulons aujourd’hui retracer cette évolution, il faudra prendre garde à ne pas se focaliser seulement sur l’évolution des corps et des cerveaux, en oubliant celle, s’étant produite en parallèle, des niches environnementales et notamment des outils et technologies constituant ces niches. Nous rappelions, dans l’article cité en note 1 qu’ « une espèce, par son activité, se crée une niche formant bouclier à l’intérieur de laquelle se déroule une co-évolution complexifiante résultant des interactions entre les mutations génétiques et l’enrichissement de la niche. On parle aussi d’éco-devo ou d’évolution épigénétique. Celle-ci se produit dans tous les cas où des espèces fabriquent des niches bien définies, comme le font des insectes sociaux tels que les termites et les fourmis. Dans le cas des hominidés, la co-évolution entre l’espèce et sa niche, c’est-à-dire avec le milieu transformé par l’activité de ladite espèce, à pu se faire assez vite. On parle aussi en ce cas d’évolution baldwinienne. C’est ainsi, comme il a été souvent expliqué, que l’acquisition de l’usage des outils de pierre, puis du feu, a libéré les hominidés des contraintes de l’alimentation en racines ou en viande crues. De nombreuses transformations physiques et cérébrales en ont découlé, dont de nouvelles capacités cognitives ayant en retour introduit des innovations technologiques et culturelles. Des cycles d’interactions incessants entre les humains et les « niches » qu’ils se construisaient ont fini par provoquer la sortie du paléolithique récent et l’entrée dans le néolithique ».

Soit, dira notre lecteur, mais quelle preuve peut-on avancer pour justifier l’hypothèse selon laquelle la manipulation, entreprise par hasard, d’objets du monde matériel par des primates obligés de s’adapter à des milieux différents de l’environnement forestier ancestral, ait pu – si cette manipulation avait produit des résultats justifiant son « renforcement » dans les réseaux neuronaux du primate manipulateur, donner naissance aux bases neurales de la cognition supérieure ? Il se trouve qu’un article récent de la journaliste scietifique Laura Spinney vient à point nommé nous apporter le commencement de preuve dont nous avons besoin  2).

 

II. Acquisition de la conscience de soi et du langage chez des macaques et des marmosets.

L’article rapporte les recherches du chercheur japonais Atsushi Iriki, chef du Laboratory for Symbolic Cognitive Development au sein du RIKEN Brain Science Institute de Wako, Japon 3) L’équipe de celui-ci travaille depuis déjà plusieurs années en vue de montrer que des macaques japonais (photo) peuvent acquérir spontanément des capacités cognitives complexes en étant entraînés à l’utilisation d’outils plus ou moins simples, par exemple un petit râteau pour attirer de la nourriture. Les grands singes, chimpanzés et orangs-outangs, sont réputés pour leur capacité à apprendre le langage des signes, à développer des consciences de soi limitées (se reconnaître dans un miroir), à faire montre de théorie de l’esprit en prêtant des intentions à des tiers, congénères ou humains. Mais ce n’est pas le cas du macaque, considéré comme « moins évolué ». On lui attribue l’intelligence d’un enfant de 2 ans alors que les chimpanzés auraient celle d’un enfant de 7 ans. Le macaque dans la nature n’imite pas et ne prête qu’une attention limitée à ses congénères.

Or Atsushi Iriki suppose que les cerveaux des macaques, comme ceux d’autres petits singes tels les marmosets (photo) avec lesquels il se propose maintenant d’expérimenter, disposent de tous les composants nécessaires à l’intelligence de type humain. Mais ces composants ne se sont pas assemblés en « système global », parce que, dans la vie sauvage, les macaques n’en avaient pas besoin. Si l’on place un de ces animaux dans un environnement humanisé très sélectif, il se montre par contre capable, en quelques semaines et non en quelques générations, de faire preuve de pré-capacités cognitives de haut niveau, telles la conscience de soi et le protolangage.

Nous ne décrirons pas ici les situations expérimentales ayant permis de doter les macaques du laboratoire de l’amorce de telles capacités. Leur objectif, comme indiqué ci-dessus, est d’entraîner l’animal à utiliser des outils afin de se procurer de la nourriture. Il ne s’agit pas cependant d’un simple dressage destiné à réaliser des performances pour lesquelles beaucoup d’animaux dits savants se montrent experts. Atsushi Iriki montre que le bras du singe prolongé par l’outil est très rapidement considéré par le sujet comme une prolongement de son corps, qu’il pourra utiliser à de nombreuses tâches non programmées à l’avance. Il l’aura ainsi intégré à la « conscience de soi » qu’il a de lui-même. Cette conscience commence par l’image du corps que, grâce à ses sens, le sujet acquiert de lui-même. Lorsque le sujet perçoit la vue de son bras prolongé d’un râteau, il acquiert une image plus sophistiquée de lui-même que celle résultant des simples perceptions cinoesthésiques (ou kinesthésiques) dont il dispose spontanément. Fait exceptionnel, l’image perçue au travers d’un miroir joue le même rôle.

Dès qu’il a acquis cette conscience renforcée de soi, autrement dit dès qu’il constate qu’il peut en agissant sur le bras armé de l’outil provoquer des modifications de l’environnement qui présentent pour lui des avantages, une pression de sélection s’exerce sur son cerveau pour renforcer les circuits neuronaux contribuant à ce que Atsushi Iriki appelle une « construction intentionnelle de niche », autrement dit une interaction dynamique en allers et retours entre le cerveau et le milieu. C’est cette interaction que nous nommons pour notre part, dans le cas des humains, un complexe anthropotechnique. Pour ce qui concerne les macaques évoqués ici, nous pourrions parler de l’amorce de mise en place d’un “complexe cercopithécoïdotechnique” ! La construction d’une conscience renforcée de soi conduit immédiatement, y compris en ce qui concerne les macaques japonais, à l’apparition d’une conscience de l’existence des autres. Le sujet leur prête des intentions, les imite et cherche à communiquer avec eux, en inventant des langages symboliques ad hoc si de tels langages n’existaient pas déjà.

Toutes ces hypothèses ne restent pas du domaine de la conjecture. Atsushi Iriki et son équipe ont vérifié par imagerie cérébrale que les macaques ainsi entraînés manifestaient une activité électrique nouvelle dans les neurones du cortex pariétal en charge de l’image de soi. Ces neurones conservent après quelques expériences les nouvelles capacités ainsi acquises. On peut supposer que cette situation pourrait favoriser la prise en charge par le génome des mutations provoquant les modifications à long terme des bases neurales intéressées. Après quelques générations, pourquoi pas, les macaques pourraient alors surpasser en intelligence non seulement les chimpanzés mais même un enfant de 9 ans. Ceci d’autant plus que d’autres expériences ont montré que soumis à des contraintes un peu voisines, à partir de l’utilisation d’outils, les cerveaux des macaques ont enregistré une expansion des cortex préfrontal et pariétal, important chez l’homme dans le contrôle des comportements sociaux complexes. Or ces cortex se sont développés rapidement durant les dernières dizaines de milliers d’années de l’évolution humaine, marqués par l’explosion des pratiques ouvrières.

Applications

Nous pourrions pour notre part retenir de la publication de ces résultats une conclusion s’appliquant aux questions posées dans le présent article : pourquoi subitement, avant même de disposer d’outils, certains primates sont-ils devenus plus intelligents que d’autres ? Point ne serait besoin, pour expliquer ce paradoxe, de faire appel à des mutations génétiques développant les aires cognitives du cerveau. En manipulant, un peu par hasard initialement, des objets de l’environnement, et constatant (inconsciemment, évidement) les bons effets de cette manipulation, certains primates bipèdes auraient augmenté les capacités des aires de leur cortex pariétal responsables de l’image de soi. Il en aurait résulté une propension, vite diffusée par imitation au sein du groupe, à utiliser le corps prolongé de ces outils improvisés pour se construire l’amorce d’une niche intentionnelle. De l’outil improvisé à l’outil préparé, il n’y aurait eu qu’un pas – nécessitant pourtant quelques 2 à 3 MA pour être franchi….

Atsushi Iriki reste prudent dans l’interprétation de ses résultats, d’autant plus que certains de ses collègues prétendent que ces résultats ne pourraient pas être rétro-transposés à des cerveaux de primates vivants il y a 5 à 7 MA. Mais selon nous, l’objection ne tient pas. Les travaux de ce chercheur (photo) pourraient lui valoir une renommé méritée. Si les cerveaux des macaques, marmosets et autres petits singes avec lesquels le scientifique japonais travaille disposent des outils dispersés nécessaire à la construction d’une conscience de soi, auxquels ils n’avaient pas eu besoin de recourir dans la nature, cela pourrait montrer que cette boite à outil existait dans avant le miocène. Elle remonterait probablement au crétacé, à l’apparition des primates, tous genres réunis. Mais dans ce cas, pourquoi ne pas supposer qu’elle existait aussi chez d’autres mammifères de cette époque, voire chez les dinosaures, précités. Dans ce cas, il serait urgent de les rechercher chez les descendants actuels de toutes ces espèces. Il faudrait pour cela faire interagir systématiquement les représentants d’espèces modernes avec des outils modernes, comme le fait Atsushi Iriki avec les macaques et les marmosets. Comme quoi la conscience de soi, dont les humains se plaisent à se croire les seuls détenteurs, serait une propriété très généralement répandue, au moins virtuellement, et ne demandant qu’à s’exprimer.

En ce qui concerne précisément la conscience humaine, les mêmes hypothèses entraîneront les mêmes conclusions. Les cerveaux des primates humains disposent certainement encore (comme d’ailleurs ceux des autres primates) de nombreuses bases neurales non exploitées pour la cognition ou de gènes appropriés non encore exprimés. L’interaction avec les technologies modernes, au sein des systèmes anthropotechniques de demain, pourrait provoquer bien des surprises en matière d’intelligence et de conscience augmentées. C’est le vœu de tous ceux qui encouragent le co-développement des intelligences naturelles et des intelligences artificielles.

 

Notes
1) voir http://www.automatesintelligents.com/echanges/2008/oct/sapiens.html
2) Tools maketh the monkey, NewScientist, 11 octobre 2008, p. 42.
3) Laboratory for Symbolic Cognitive Development (Atsushi Iriki)
http://www.brain.riken.jp/en/a_iriki.html

 


Repost 0
24 septembre 2008 3 24 /09 /septembre /2008 21:04

Human. The Science behind what makes us unique

Présentation et commentaires par Jean-Paul Baquiast

Le livre de Michaël Gazzaniga, bien que très différent de celui de Colin Renfrew, apporte des lumières complémentaires aux propos de ce dernier. Il nous éclaire de façon très démonstrative, non seulement sur ce que d’autres auteurs étudient sous le thème des origines animales de la culture, mais sur le caractère, selon lui unique, caractérisant l’espèce humaine.
Michaël Gazzaniga est en effet convaincu que le phénomène humain est spécifique à l’homme et que la science peut le démontrer. Prise au pied de la lettre, son affirmation en sous-titre de l’ouvrage « The science behind what makes us unique » (Harper Collins 2008) pourrait révéler une tentative de plus pour expliquer le caractère véritablement extraordinaire de l’humanité, qu’il ne faudrait confondre avec aucun autre phénomène émergent. De là à dire que si l’humanité est si exceptionnelle, elle a nécessairement été créée par Dieu, il n’y a qu’un pas. Heureusement, ce n’est pas du tout dans cette perspective que se place Michaël Gazzaniga. Il ne semble pas intéressé par les visions religieuses du monde, notamment celles inspirées par les intégristes de l’Intelligent Design, si répandus aujourd’hui aux Etats-Unis. Il se limite à ce qu’il faut bien nommer un matérialisme scientifique de bon aloi. Mais ce faisant, il croit pouvoir constater qu’à bien des égards, le phénomène humain est exceptionnel, voire unique. Dire le contraire serait pour lui nier les évidences.

Par contre, à ses yeux, cette spécificité n’a rien de mystérieuse. Elle découle d’une évolution biologique répondant aux règles de la sélection darwinienne aujourd’hui admise par tous les scientifiques sérieux. Les principaux déterminismes, notamment génétiques, à l’intérieur desquels s’est construite l’hominisation sont présents dans beaucoup d'espèces ayant précédé les humains dans le temps et se retrouvent dans toutes les espèces non-humaines contemporaines. Ceci ne suffit pas cependant à expliquer les différences séparant l’homme des animaux, même les plus proches. Que s’est-il passé ?

Dans le Prologue de l’ouvrage, Michaël Gazzaniga précise en quoi la réponse qu’il apporte à cette question fondamentale diffère de celle généralement donnée par les biologistes évolutionnistes. La plupart d’entre eux, dit-il, envisagent une évolution sinon linéaire du moins continue conduisant par petites touches des mammifères supérieurs à l’homme moderne. Or selon lui, dans le cas de l'hominisation, l’accumulation de ces multiples changements a provoqué à un certain moment de l’évolution une rupture dans la linéarité. Autrement dit, il s’est produit un véritable changement de phase. Les mêmes ingrédients ont donné un produit radicalement nouveau, de même nature que la glace est un produit radicalement nouveau par rapport à l’eau liquide, qui apparait lorsque la température décroît. Malgré toutes les connexions que nous avons avec l’univers biologique, que ce soit au plan génétique ou à celui de l’organisation du cerveau, nous nous en distinguons profondément( 1)

Présenter les choses de cette façon pourrait, nous l'avons dit, donner des arguments à ceux prétendant que c’est le doigt de Dieu qui a précipité le changement de phase décrit par l’auteur. Mais pour lui, il ne s’agit évidemment pas de cela. Il s’agit de nombreux changements, peu observables mais stratégiques, apparus dans des délais relativement courts (peut-être en quelques dizaines de milliers d'années seulement) dans les cerveaux et dans les esprits des hominiens en interaction avec un environnement sélectif. Ces changements sont souvent trop subtils ou diffus pour avoir été encore étudiés. C’est aux sciences modernes qu’il appartient d’essayer de les faire apparaître. Cependant, pour que ces sciences ne sous-estiment pas l’importance de l’enjeu, Michaël Gazzaniga insiste pour qu’elles prennent en considération le saut conceptuel à réaliser. D'où l'importance qu'il attache au caractère unique de l'homme. Si l’on considérait que les humains ne sont que des rats améliorés, on ne rechercherait pas les raisons pour lesquelles ils sont effectivement autre chose que des rats. (2)

Ajoutons pour notre part que la même approche devra inspirer les recherches en cognition artificielle. Si l’on veut obtenir des systèmes cognitifs artificiels ayant les mêmes performances que celles des humains, il ne faudra pas s’imaginer qu’il suffira de simuler sur des artefacts les comportements intelligents de diverses espèces animales. On devra se représenter en quoi le cerveau et l’esprit humains sont véritablement spécifiques. La barre à franchir sera bien plus haute, mais ce sera une condition indispensable pour que les robots et autres systèmes autonomes artificiels dont l’humanité est en train de se doter ne soient pas des entités simplistes ayant un effet réducteur. Il faudra qu’elles puissent véritablement apporter à l’homme ce qui lui manque encore pour que son évolution vers une hominisation plus complexe se poursuive sans obstacles.

Précisons avant d’aborder le corps de l’ouvrage que Michaël Gazzaniga dispose d’une riche expérience de neurologue et de clinicien, ayant particulièrement étudié, comme il l’indique, des patients ayant subi une séparation chirurgicale des hémisphères cérébraux par section du corps calleux (split brain). On le verra sur son site http://www.psych.ucsb.edu/~gazzanig/.
Mais les références de son livre vont bien au-delà de ses travaux personnels. Elles offrent un panorama très riche des travaux des neuroscientifiques et psychologues évolutionnaires ayant étudié le cerveau et les comportements sous contrôle direct de celui-ci. Nous avons eu le plaisir de constater que, parmi une grande quantité de sources anglo-saxonnes, il évoque avec beaucoup de considération les travaux de nos concitoyens Jean-Pierre Changeux et Stanislas Dehaene, référencés dans notre revue.

Sur les cerveaux

Le premier chapitre pose une question déterminante : le cerveau humain est-il unique ? Il l’est si l’on considère ses performances globales, mais l’est-il d’un point de vue anatomique ? La réponse ainsi posée n’est pas aussi évidente que l’on pourrait croire. Les constituants de base du cerveau, les neurones, se ressemblent beaucoup d’une espèce à l’autre, et fonctionnent de la même façon. Faut-il prendre en compte le rapport entre le poids du cerveau et celui du corps ? Certes, les humains l’emportent au plan quantitatif sur les autres animaux, y compris les primates. Il faut observer pourtant que la capacité crânienne du néanderthalien était en moyenne de 1.500 cm3 alors que celle de l’homme moderne est de 1.340 cm3. Les premiers ont certes développé une culture importante, néanmoins ils n’ont pas réussi à s’imposer aux homo sapiens. De plus le volume cérébral des homo sapiens a diminué d’environ 150 cm3 depuis les origines de l’espèce, alors que les cultures et les structures sociales se complexifiaient considérablement.

Michaël Gazzaniga, qui avait étudié comme indiqué ci-dessus des patients dont le corps calleux avait été sectionné et avait pu mesurer ainsi les compétences différentes des deux hémisphères, a constaté que cette opération apparemment épouvante n’avait guère de conséquence sur l’intelligence des patients. Ceci parce que l’hémisphère gauche peut se charger à lui seul des opérations logiques, parole, pensée, génération d’hypothèses. Dans le domaine de la perception sensorielle, notamment visuelle, par contre le cerveau droit se montre le plus performant. Il s’agirait donc là d’une première spécialisation ayant contribué à différencier les cerveaux des humains de ceux des primates. Nous y reviendrons ci-dessous. D’une façon générale, la latéralisation et la spécialisation des aires cérébrales est beaucoup plus poussée chez l’homme que chez les autres espèces, où elle n’existe pas ou n’est qu’esquissée. L’auteur note à sujet qu’aller plus loin dans les études fonctionnelles comparatives reste difficile, malgré les progrès de l’imagerie cérébrale. Ceci pour une raison à laquelle on ne pense généralement pas : la difficulté d’expérimenter, non seulement sur les humains mais, avec des méthodes invasives, souvent létales, sur les cerveaux d’animaux de plus en plus rares et protégés.

En ce qui concerne la taille du néocortex, qui n’a cessé d’augmenter au cours de l’évolution, les différences entre primates et humains sont évidentes, mais pas déterminantes a priori. Le néocortex du petit singe Galago fait 46% du volume cervical total, contre 76% chez le chimpanzé et à peine plus chez l’homme. Le chimpanzé dispose-t-il de 76% de l’intelligence humaine ? Par ailleurs, il n’apparaît pas de grandes différences dans la taille des aires corticales nécessaires à la cognition. Les lobes frontaux du cerveau humain, par exemple ne sont guère plus importants que ceux des grands singes. Pourtant, le langage humain fait appel à ces lobes, ce qui aurait du provoquer leur explosion.

Mais des différences plus fines peuvent être notées, par exemple dans la taille du cortex préfrontal et l’importance qu’y prend la « matière blanche » faite de fibres connectant les différentes parties du système nerveux. Nous n’entrerons pas dans les détails. Bornons nous à indiquer que selon Michaël Gazzaniga, le cortex préfrontal des mammifères non primates comporte deux zones déterminantes pour le traitement des stimulus internes et externes corrélés dans la fabrication des émotions. Les primates en ont trois, la troisième comportant une aire 10 très connectée au reste du cerveau et responsable de ce que l’on pourrait appeler les aspects rationnels de la prise de décision. Or cette aire est plus étendue et mieux interconnecté chez les humains que chez les primates, ce qui rendrait les humains plus flexibles et mieux capables de décisions originales. D’autres différences apparaissent entre les lobes temporal et pariétal des cerveaux, mais leurs conséquences précises restent à étudier. Par ailleurs, en dehors du cortex, le cervelet humain, qui assure la coordination motrice et qui avec le thalamus contribue à l’information du cortex, est plus développé chez l’homme que chez le singe.

 

Les aires corticales, dont on a progressivement découvert la spécialisation dans le traitement des informations sensorielles en entrée et la formation de réponses en sortie, sont plus nombreuses chez les primates que chez les autres mammifères. Cependant, à la surprise générale, on a découvert qu’elles ne l’étaient pas plus chez l’homme que chez les autres primates. Les primates non-humains ont les mêmes aires corticales que les hommes, et elles assurent les mêmes fonctions spécifiques de base. Les primates ont ainsi comme les hommes des aires pour le langage et l’usage des outils. Elles sont également latéralisées, comme chez l’homme. Où se trouvent alors les différences ? Pourquoi les primates ne parlent-ils pas ? Selon Michaël Gazzaniga, il apparaît cependant une différence qui pourrait être responsable du caractère unique du cerveau humain. Elle se situe au niveau du planum temporale, une des composantes de l’aire de Wernicke elle-même associée à la compréhension des langages écrit et parlé. Le planum temporale est plus grand dans l’hémisphère gauche des rhésus, des chimpanzés et des humains. Mais chez ces derniers, de plus, les minicolonnes du planum temporale gauche y sont plus grandes et plus espacées que chez les primates.

Pour comprendre ce que signifie cette différence, il faut poursuivre l’étude des minicolonnes au niveau microscopique. Nous avons indiqué dans la note 2 que les minicolonnes, présentes dans les six couches du cortex des primates et communes aux cerveaux de tous les mammifères, constituent l’équivalent de microprocesseurs responsables du fonctionnement logique du cerveau. Mais leur nombre et leur organisation cellulaire et chimique varient beaucoup selon les espèces, d’une part, et d’une région du cerveau à l’autre d’autre part. Que pourrait alors signifier la dissymétrie dans les minicolonnes du planum temporale identifiée chez les humains ? Nous l’avons déjà indiqué dans la note (2)  Un plus grand espace entre minicolonnes de cette aire pourrait signifier des différences dans les capacités de connexion et donc dans la finesse de l’analyse des informations entrantes.

Ceci ne suffit pas cependant pour justifier la supériorité du cerveau humain dans les fonctions cognitives. Michaël Gazzaniga la rechercherait plutôt dans la latéralisation poussée caractérisant ce dernier, et dans le rôle du corps calleux, corpus callosum, servant de jonction entre les deux hémisphères. Selon lui, au fur et à mesure que le cerveau des hominiens était sollicité par l’augmentation des besoins de traitement découlant de l’enrichissement de leurs activités culturelles, il avait été obligé de se spécialiser. Il existe en effet une limite à la complexification du tissu neuronal et à la densification des liaisons interneuronales à courte distance, indispensables pour la computation, d’autant plus que la capacité crânienne, pour des raisons mécaniques, ne peut s’accroître indéfiniment.

L’évolution aurait alors privilégié la solution consistant à réserver les mutations à l’un des hémisphères, laissant l’autre accomplir les fonctions courantes qui ne pouvaient pas être interrompues pour autant. Le corps calleux aurait pour cela servi de répartiteur entre les évènements. Hémisphère par hémisphère, une moitié des régions corticales en charge de fonctions identiques chez les primates ou d’autres animaux aurait être déchargée de ses tâches de routines, pour que ses capacités soient utilisées, exaptées selon le terme de Stephen Jay Gould, afin de faire face à de nouvelles exigences fonctionnelles. Selon les fonctions, l’un et l’autre hémisphère aurait pu être sollicité pour participer à cet investissement global. La circulation intra-hémisphérique des informations serait par conséquence devenue plus importante, en quantité et en qualité, que la circulation inter-hémisphères. Chez les humains adultes d’aujourd’hui, chaque hémisphère coopterait les fonctions pour lesquelles il aurait été le mieux armé par l’évolution, le corps calleux restant responsable de l’équilibre du système et pouvant pallier à d’éventuelles défaillances. L’étude des patients « split brain » montre d’ailleurs qu’ils souffrent précisément de défaillances, dans la qualité ou les temps de réponse des réactions, peu observables à première vue mais indiscutables.

ne autre découverte importante, celle des neurones-miroirs dans le lobe préfrontal des singes, due à Giacomo Rizzolatti, a montré l’importance de leur rôle pour permettre aux cerveaux des primates d’acquérir les rudiments d’une théorie de l’esprit (TOM, theory of Mind) par la possibilité de se représenter les actions des autres, puis de les imiter. Cette découverte, dont on n’a pas assez, pensons- nous, souligné l’importance, met sur la voie de la compréhension de la façon dont opère la conscience de soi chez les humains. Les neurones miroirs sont en effet chez l’homme beaucoup plus développés et impliqués dans les activités courantes qu’ils ne le sont chez le singe. Ils participent ainsi, selon Rizzolatti, à la construction d’un cerveau modulaire spécifique à l’homme. C’est par de tels développements survenus au cours de l’évolution des hominiens que ce sont mis en place des systèmes latéralisés spécialisés opérant au sein d’une dynamique d’ensemble imposée par le système global. Là reposerait donc le caractère unique du cerveau humain. Ceci dit, comment et pourquoi certaines fibres neuronales se sont-elles spécialisées en ce que l’on nomme désormais des neurones –miroirs ? Comme indiqué dans la note 2) la réponse reste à trouver.

Il va de soi que toutes ces adaptations de détail dans l’architecture et les fonctionnalités du cerveau humain, à partir de bases neurales préexistant chez les primates et souvent bien plus anciennes, ont résulté de mutations dans les génomes de certains individus transmises en cas de succès par les génomes de l'espèce. Mais rappeler cette évidence ne suffit pas à éclairer le rôle des mutations, que ce soit au niveau des gènes ou de leurs allèles(3). Michaël Gazzaniga, comme bien d’autres aujourd’hui, met en garde contre les visons simplistes attribuant telle fonction à tel gène et l’apparition de telle nouvelle fonction à une mutation au niveau de tel gène. Il en donne deux exemples, l’un concernant les gènes Microcéphalin et ADPM intervenant dans la croissance de la taille de l’encéphale, l’autre le gène FOXP2 supposé réguler les fonctions motrices liées à l’expression langagière. Nous avons développé son point de vue dans un article de ce même numéro et n’y reviendrons pas.
( http://www.automatesintelligents.com/echanges/2008/sep/foxp2.html )

Michaël Gazzaniga conclue cette première analyse, consacrée au cerveau, par la constatation que de multiples petites différences, dont la plupart ajouterions nous restent à élucider, distinguent le cerveau des humains modernes de celui des autres animaux. Pourquoi alors les esprits (minds) des uns et des autres ne différaient-ils pas ?

Nos plus proches cousins

Le chapitre 2 de Human examine en détail un certains comportements et caractères biologiques qui font des grands singes et de certains animaux familiers ou non de l’homme des êtres si proches de l’humain que parfois l’on refuse de les juger différents. Mais l’auteur tient à montrer que si les différences sont souvent faibles, elles entraînent toujours des conséquences qui qualitativement, ne sont pas comparables.

Les lignées d’hominiens dont l’homo sapiens est le seul survivant se sont séparées des grands singes, gorilles, orangs-outangs, chimpanzés, bonobos à partir de 15 millions d’années BCE, la dernière séparation, d’avec les chimpanzés et bonobos, étant survenue entre 7 et 4,5 millions d’années. Nous avons relaté dans l’article précédent les grandes phases de cette aventure. Les différences entre génomes des chimpanzés et des humains ne dépassent pas 1,5%. Pourtant elles ont très vite entraîné des différences morphologiques considérables, dont les effets sur l’adaptativité des comportements ont été plus considérables encore : marche bipède et ses conséquences en matière d’organisation du squelette, libération de la main, opposition du pouce, etc. Ces modifications ont été accompagnées de modifications relatives à la façon de penser (thinking). Michaël Gazzaniga n’accepte pas de suivre les chercheurs pour qui la pensée humaine n’est qu’une forme améliorée des pensées animales, ceci d’autant plus que l’on a beaucoup de mal à se représenter vraiment comment pensent les animaux, y compris les grands singes vivant dans la nature. Comme dans les autres domaines de l’hominisation, il estime au contraire qu’il s’est produit une rupture permettant d’affirmer le caractère unique de la pensée humaine. Certes, tous les grands composants de celle-ci sont présents chez les animaux, à divers titres. Mais ils ne sont pas suffisamment développés ni suffisamment intégrés pour produire des esprits ayant la même puissance que les nôtres. Pour justifier cette affirmation, l’auteur s ‘appuie sur un nombre considérables d’expériences scientifiques.

Il en est ainsi de la théorie de l’esprit (TOM) que l’on observe à l’œuvre chez les nourrissons puis tout au long de la vie. Elle consiste à prêter des intentionnalités aux objets et aux êtres en faisant l’hypothèse implicite que ceux-ci réagissent comme nous. Les très jeunes singes auraient les mêmes aptitudes à la TOE que les nourrissons, mais très vite, leurs capacités à cet égard plafonneraient, en se limitant aux exigences de l’immédiat, ce qui n’est pas le cas chez l’enfant humain. Les mêmes observations peuvent être faites à propos du langage. Les primates, comme dans une moindre mesure d’autres animaux, disposent des bases neurales indispensables aux échanges, mimétiques ou langagiers (y compris le gène FOCP2 déjà évoqué), mais ils ne les ont pas utilisées pour développer des langages symboliques complets comme l’ont fait les homo sapiens et peut-être aussi les néanderthaliens.

Parvenu à ce point (c’est-à-dire p. 66 sur un ouvrage de 385 pages), Michaël Gazzaniga entreprend un recensement très complet des différentes fonctions et caractéristiques des comportements cognitifs humains. Il examine pour chacun d’eux comment ces fonctions et comportements se présentent chez les animaux, ce que l’on connaît des bases neurales commandant ces comportements dans un certain nombre d’espèces et chez l’homme, les gènes éventuellement impliqués et, bien entendu, la façon dont ces comportements ont évolué tout au long d’une histoire de quelques millions d’années, sous la contrainte de la lutte pour la survie. La méthode qu’il utilise consiste à identifier de grandes catégories de comportements significatifs, allant des plus simples en apparence (par exemple les réflexes de peur) aux plus complexes, liés à la production artistique et à la conscience de soi et à la croyance à des essences invisibles. Dans chaque cas, l’auteur tente de donner une définition aussi simple que possible du comportement considéré, de rechercher s’il existe sous cette forme ou sous d’autres chez nos cousins animaux, principalement chez les primates et finalement de chercher à expliquer les différences indiscutables distinguant nos comportements de ceux des primates.

Ces explications sont évidemment difficiles et prêtent parfois à controverse. Les causes évoquées peuvent faire appel à des modifications épigénétiques (produites par une co-évolution des gènes et des milieux culturels) tant du moins que les génomes humains n’avaient pas atteint leur configuration définitive, aux alentours de 40.000 ans BCE. Pour ce qui concerne des dates plus récentes, il faut rechercher l’influence des innovations imposées notamment par la vie en groupe et par l’utilisation d’outils et de pratiques productives de plus en plus complexes et diversifiées. Les auteurs cités par Michaël Gazzaniga sont, nous l’avons dit, très nombreux. Souvent leurs opinions sont différentes, ce qui nourrit d’intéressants débats. La plupart des travaux récents font appel à l’imagerie cérébrale ou à des expériences plus classiques d’étude des comportements dans des situations recrées en laboratoire. Les recherches propres de l’auteur, bien que riches, ne lui permettent pas de présenter systématiquement un point de vue personnel. Il expose donc très loyalement les questions et les réponses des uns et des autres, en soulignant que beaucoup des premières restent encore sans solutions.

Nous ne pouvons pas ici évoquer, même sommairement, le contenu des nombreux chapitres consacrés par l’auteur à la présentation et à la discussion de tous les facteurs qui ont contribué à faire de l’homme un produit « unique », selon son expression, au sein de l’évolution des êtres vivants. Disons seulement qu’il aborde :

- Les sensations (feelings) et leur influence (considérable) sur le fonctionnement des cerveaux et des corps.

- Le monde immense des relations sociales avec tous les comportements permettant le fonctionnement des groupes, tel l’altruisme, ou à l’inverse ceux qui doivent être inhibés pour que le groupe survive. Plus généralement, au sujet des groupes, il se dit en faveur de la théorie dite de la sélection de groupe, selon laquelle la sélection darwinienne ne s’exerce pas seulement au niveau des individus, mais, chez les espèces capables de former des groupes, au sein de ceux-ci. L’affirmation parait assez évidente, mais il a fallu batailler beaucoup avec les darwiniens de stricte obédience pour la faire reconnaître. Voir à ce sujet notre article
http://www.automatesintelligents.com/echanges/2007/nov/groupselection.html

- Les modules moraux ou éthiques intervenant dans les prises de décision, que celles-ci soient spontanées ou qu’elles se veulent rationnelles. Ceci comprend bien entendu les décisions relevant de la psychopathologie.

- L’imitation ou mimétisme (mimicry) qui prend très souvent la forme de l’empathie, ou partage des sensations douloureuses ou plaisantes. Il s’agit d’une gamme de comportements très structurants dans la formation des jeunes et pour les alliances entre adultes donnant naissance aux groupes. Les neurones miroirs jouent, chez les primates, un rôle essentiel à cet égard. On notera que Michaël Gazzaniga considère que le développement au sein des groupes humains de ces comportements apparemment simples a donné naissance à l’imagination sous toutes ses formes et à la conscience de soi (self-awareness). C’est parce que le sujet s’imaginait à la place d’un autre dont il imitait (plus ou moins bien) les comportements que les réseaux neuronaux responsables de la représentation du soi et de l’autre se sont différenciés. Il est intéressant de constater que contrairement à beaucoup de psychologues, l’auteur ne fait pas de la conscience humaine, ainsi définie limitativement, un phénomène extraordinaire, mystérieux, nécessitant des explications alambiquées. Il revient cependant dans la suite du livre sur la question des faites de conscience. Nous examinerons plus en détail un peu plus loin ce qu’il en dit.

- Le sens de la beauté, les comportements de création esthétiques et les divers arts. Ceci le conduit à réfléchir aux « récompenses » que procure pour l’esprit le fait de se placer de façon imaginaire dans des univers non matériels, virtuels dirait-on aujourd’hui. De nombreux avantages adaptatifs en découlent, exploités dès les origines de l’humanité – voire au sein de celles des sociétés animales où des comportements un peu voisins semblent exister.

- Les systèmes de croyances, associés à un dualisme qui serait systématique chez l’humain dès les premières manifestations de la cognition enfantine. Par dualisme, qu’il assimile à l’essentialisme, Michaël Gazzaniga entend le fait de croire que tout ce que l’on observe, chose ou personne, comporte une partie visible et une autre invisible. C’est cette dernière qui lui donne son sens, qui définit son essence. Il ne se pose pas la question de savoir si l’esprit et le corps sont distincts dans la réalité mais seulement pourquoi les gens croient qu’ils sont distincts et même pourquoi, alors qu’ils ne croient pas qu’ils soient distincts, ils agissent comme s’ils l’étaient. Il considère que le cerveau humain est pourvu d’un convertisseur (converter) qui transforme les informations brutes reçues par les sens en quelque chose d’autre, intéressant un autre niveau d’organisation dans le cerveau. Nous sommes tous, selon son expression, des dualistes-nés se superposant à des taxonomistes-nés. Autrement dit le cerveau dispose de systèmes d’identification associés à des systèmes de croyance permettent de classer immédiatement les objets perçus en catégories, à partir de leurs caractéristiques expérimentées depuis longtemps, notamment celles qui sont utiles ou dangereuses,. Le convertisseur mental transforme donc ce qu’il voit en ce qu’il croit que ce qu’il voit est réellement. Ce mécanisme était essentiel pour la survie. Celui qui voit une forme ressemblant vaguement à un lion n’avait pas le temps de s’interroger sur la réalité de ce qu’il voyait. Il lui imputait une nature « essentielle » (celle d’un prédateur dangereux) qui n’était pas directement fonction de ce qu’il voyait réellement. Il le classait automatiquement dans la catégorie des essences à éviter, la plus apte à minimiser les risques nés de la rencontre. S’il se trompait, il n’y avait que moindre mal.

Les systèmes d’identification et de classement dont dispose le cerveau dès la naissance sont nombreux et différents entre eux, notamment selon qu’il s’agit de distinguer des objets animés et des objets inanimés, des silhouettes, des figures…etc. On peut parler d’une physique intuitive, d’une biologie intuitive, d’une psychologie intuitive. Dans tous les cas, le convertisseur dualiste opère en transformant ce qu’il voit réellement en ce qu’il croit, à tort ou à raison, voir. La plupart des croyances, implicites ou raisonnées, sont justifiées par des siècles d’expérience. Mais dans certains cas, elles cessent de l’être ou ne le sont que très superficiellement. Le sujet prête alors à l’objet perçu des caractères, des intentions, qu’il n’a pas.

La Théorie de l’esprit (TOM) renforce cette tendance. On croit détecter dans l’objet, l’animal ou la personne avec qui l’on est en contact des intentions, une sensibilité, un esprit analogue au sien. De même, la téléologie qui consiste à voir des finalités dans des évènements obéissant à de simples mécanismes causaux, découle aussi de ce dualisme fondamental. Ces considérations nous paraissent particulièrement importantes, car elles fournissent des explications simples à l’omniprésence, chez les hommes, des religions, mythologies ou philosophies essentialistes, ainsi que des croyances en l’âme, la vie après la mort et autres phénomènes invérifiables par l’expérience pratique et moins encore par l’expérience scientifique .

Il ne semble pas que les animaux puissent croire en des essences qui se situeraient au-delà des objets perçus. Ils ne croient qu’en l’observable. Mais dans certaines espèces, par exemple chez les éléphants, il arrive que certains individus apportent des soins aux cadavres de leurs proches, comme s’ils s’imaginaient qu’ils étaient encore présents malgré les apparences de la mort.

Les faits de conscience.

La plupart des opérations mentales se produisent de façon inconsciente. Certaines d’entre elles cependant, ou seulement leurs résultats, émergent à la conscience. Michaël Gazzaniga reconnaît que le mécanisme qui permet ces tris et qui fait émerger tel ou tel contenu à l’attention conscience est encore un mystère. Les bases neurales de la conscience (NCC, neural correlates of consciousness) restent le Graal que cherchent à découvrir tous les neuroscientifiques. Compte tenu de l’importance de cette question dans le cadre des réflexions auxquelles nous nous livrons dans cette revue, nous allons détailler un peu les points de vue présentés par l’auteur.

Il faut d’abord distinguer, comme Antonio Damasio et d’autres l’ont proposé, la conscience primaire (core consciousness) et la conscience supérieure (extended consiousness). Mais la conscience primaire ne pose guère de problèmes. On la retrouve sous des formes différentes chez tous les animaux supérieurs. Michaël Gazzaniga décrit le circuit compliqué que suivent les neurones apportant les informations du corps, en continuité avec la colonne vertébrale, jusqu’au tronc cérébral puis ensuite dans le cortex. Toutes ces informations n’intéressent pas la conscience supérieure. Il existe des boucles de connexions dans le cortex cingulaire, notamment antérieur (ACC), lequel joue le rôle d’une centrale d’interaction dans les deux sens, remontant et descendant. Malgré la complication de ces interconnexions, il semble qu’elles pourraient aisément être simulées dans une machine.

Comprendre le fonctionnement de la conscience supérieure pose des problèmes plus difficiles. Il faut tenir compte de l’extrême modularité du cerveau, l’évolution ayant sélectionné progressivement des zones spécialisées pour accomplir des fonctions s’étant révélées utiles à la survie, que ce soit chez les primates ou chez les premiers hominiens chasseurs-cueilleurs. Un modèle du cerveau, le cerveau modulaire, avait été proposé. Il n’a cependant pas été conservé, précisément parce que le cerveau ne réagit pas module par module, mais d’une façon unitaire, derrière laquelle l’individualité des modules disparaît. Ceux-ci ne révèlent leur existence et leur rôle que lorsqu’ils sont atteints par diverses pathologies ou grâce à l’observation par imagerie fonctionnelle. Par ailleurs, les capacités de connectivité des neurones sont limitées. Plus il y a de modules, plus la connexion d’ensemble devient difficile. Quel est donc le superviseur qui régule ce pandemonium, pour reprendre un terme de Lionel Naccache ? Il faut sans arrêt exciter les uns, inhiber les autres, établir des contacts là où ils n’existent pas et finalement émettre une parole unifiée.

Michaël Gazzaniga reconnaît, comme tous les auteurs que nous avons cités dans nos articles antérieurs, que ce point demeure encore mystérieux. Le superviseur central a reçu des noms différents : central executive (Baddeley), supervisory attention system (Shallice), anterior attention system (Posner et Dehaene), global workspace (Baars), dynamic core (Tonini et Edelman). Mais tous ces termes sont en fait, dirions-nous, des cache-misère. Sans pouvoir entrer dans le détail des agencements neuronaux impliqués, Michaël Gazzaniga veut aller plus loin. Il propose une hypothèse qui nous semble mériter d’être retenue par ceux qui refusent de voir dans la conscience humaine une propriété tombée du ciel.

Les processus d’attention, de mémoire à court terme, de mémoire à long terme sont tous sollicités par le superviseur central, selon les besoins, tout autant que les capacités langagières, les entrées-sorties sensorielles, émotionnelles et imaginaires. Mais il ne suffit pas de comprendre la façon dont le superviseur va chercher les informations qui lui sont utiles. Il faut aussi comprendre ce qu’il en fait, autrement dit l’out-put de son action. Comprendre ceci devrait alors permettre de comprendre deux grands traits de la conscience humaine, d’une part le caractère continu et sans à-coups (smoothness) du flux émergent, et d’autre part l’apparition de la sensation d‘être un Je capable de conserver son unité, à travers les expériences de son passé et de son présent.

 Pour tenter d'expliciter les mécanismes sous-jacents, Michaël Gazzaniga propose des analyses que nous ne reprendrons pas ici, s’appuyant sur son expérience des split brains et aussi des troubles fonctionnels unilatéraux, comme le syndrome dit hémineglect. Il en conclut que c’est principalement l’hémisphère gauche qui est intéressant, en tant que siège principal des analyses logiques et des fonctions langagières, ainsi que des décisions volontaires, autrement dit des comportements intelligents. C’est lui qui recherche des patterns dans le désordre apparent des perceptions. C’est lui qui propose des réponses sous forme d’hypothèse même quand ces patterns n’existent pas. Autrement dit, ce serait lui le grand « interpréteur » décrit précédemment par l’auteur.

Là pourrait se trouver l’explication des deux caractères de la conscience précédemment évoqués, la continuité du flux et la création du Je. L’hémisphère gauche cherche à tous prix à trouver des explications aux évènements qui affectent l’individu. Il tend à créer des patterns lorsque ceux-ci n’existent pas, autrement dit des interprétations ad hoc. Il génère donc des hypothèses et des explications plus ou moins indépendantes des circonstances. Si ces interprétations peuvent jouer un rôle utile pour la survie, même si elles ne correspondent pas exactement à ce que sont les choses, le cerveau tend à les conserver et à les réutiliser. Ceci d’autant plus que la différence des rôles joués par chaque hémisphère permet de corriger certaines erreurs. L’hémisphère droit dispose en effet d’un système de résolution de problèmes reposant sur l’analyse statistique : tel évènement plusieurs fois répété est plus intéressant que tel autre qui ne se manifeste qu’occasionnellement. Le système de résolution de problèmes de l’hémisphère gauche cherche au contraire à identifier des patterns, comme indiqué ci-dessus. Ce sont alors les cohérences logiques entre évènements, plutôt que leur fréquence, qui les rendent intéressants. Quand ces cohérences ne sont qu’apparentes, peu lui importe. Cette dualité d’approche pourrait expliquer les capacités exceptionnelles du cerveau humain pour l’adaptation aux changements et donc pour la survie. Il reste qu’en général, ce sont les interprétations du cerveau gauche qui l’emportent, malgré les démentis que peut apporter le cerveau droit. On comprend alors pourquoi les croyances dualistes les plus mythiques peuvent l’emporter sur l’expérience des sens.

Suivant cette hypothèse, on comprend aussi comment le cerveau peut générer le sens du Je. Au cerveau droit qui remarque que le sujet est engagé dans des activités multiples apparemment sans logique, le cerveau gauche répond : « ne vous inquiétez pas, il y a un Je, autrement dit un Moi, qui tient les commandes et qui résout tous les problèmes ». Selon John Kihlstrom et Stan Klein, cités par Michaël Gazzaniga, le Je est une structure de connaissance (knowledge structure) bien définie, propre au cerveau droit, qui organise les informations mémorisées dans différentes parties du cerveau : la représentation du Moi comme personne distincte des autres, tant par ses qualités que par ses accointances sociales – la représentation du Moi comme ayant vécu une histoire (narrative) bien précise – la représentation du moi comme image physique – la représentation de Moi comme résultant de multiples évènements mémorisés dans les mémoires épisodiques et sémantiques.

Cette structure de connaissance ne différerait sans doute pas beaucoup de nombreuses autres de même nature existant dans le cerveau et relative aux processus inconscients. Mais elle serait produite par un mécanisme n’existant que chez les humains, qui serait cet interpréteur spécifique au cerveau gauche décrit par Michaël Gazzaniga. Là se trouverait finalement ce qui confère à l’homme son caractère unique. Nous ne détaillerons pas les nombreuses pages consacrées par l’auteur à préciser son hypothèse. Il nous suffit ici d’en retenir la conclusion la plus importante, que nous venons de formuler.

Indiquons pour terminer que selon lui, si le système générateur de conscience ainsi décrit est bien spécifique aux humains, de nombreux animaux, à partir de leurs propres capacités pour la conscience primaire, en possèdent certains rudiments. Une observation attentive de leurs comportements le montrerait. Il serait erroné d’y voir de l’anthropomorphisme. Il s’agirait seulement de reconnaître qu’en effet nous sommes tous proches cousins.

Conclusion

L'article étant trop long pour le blog, pour lire la suite et les notes, faire
 http://www.admiroutes.asso.fr/larevue/2008/91/human.htm

Repost 0
18 septembre 2008 4 18 /09 /septembre /2008 10:18
Le processus d'hominisation (1)
par Jean-Paul Baquiast 17/09/2008

Introduction

Deux livres récents, publiés au début de 2008, éclairent d’une lumière croisée la question des origines et de la spécificité de l’espèce humaine. Leurs auteurs sont tous deux éminents dans leurs disciplines. Il s’agit d’une part de Human, the Science behind what makes us unique , Harper Collins 2008, du psychologue évolutionnaire et neuroscientifique américain Michaël S. Gazzaniga, et d’autre part de Prehistory, Making of the Human Mind, (Weidenfeld and Nicholson 2007) du préhistorien britannique Colin Renfrew. Les deux auteurs ne semblent pas s’être concertés. Ils ne se réfèrent même pas l’un à l’autre. L’ouvrage de Michaël S. Gazzaniga est beaucoup plus touffu que celui de son collègue, mais l’un et l’autre sont également riches en contenus informatifs et surtout en thèmes et références pour plus amples réflexions. Ils éclairent de beaucoup de précisions intéressantes les articles que nous avons nous-mêmes publiés sur ce site relatifs à l’apparition de l’intelligence et de la conscience de soi au sein de l’espèce humaine.

Avant d’examiner de façon séparée ces deux ouvrages, il n’est pas inutile de tenter un bref état des connaissances actuelles concernant l’hominisation et de signaler les grandes questions qui restaient sans réponse jusqu’à ces derniers temps. Les deux auteurs que nous allons présenter pensent pouvoir apporter des solutions originales à ces problèmes. Elles ne peuvent nous laisser indifférents.


Appelons hominisation les processus évolutifs complexes ayant permis vers – 7 millions d’années BCE (BCE = before common era) l’apparition d’un certain nombre d’espèces d’hominiens se distinguant des primates de l’époque par les enrichissements et transformations adaptatives de leurs génomes (à peu près reconstruits par la biologie moléculaire) et leurs caractéristiques morphologiques et culturelles. S’agissait-il d’espèces différentes caractérisées par l’impossibilité d’union fécondes entre leurs membres ou de sous-espèces ou races à l’intérieur d’une même espèce ? La réponse est difficile car l’étude des ADN résiduels ne donne pas de résultats précis. Quant aux autres vestiges, ils ne sont pas signifiants à cet égard. On considère généralement cependant qu’il s’agissait d’espèces différentes ayant divergé en formes buissonnantes, sur de très longues durées (plusieurs millions d’années), intéressant de très petits effectifs d’individus répartis sur des territoires immenses. Toutes ces espèces n’étaient sans doute pas condamnées à disparaître. Reste que, pour des raisons encore inconnues, aucune n’a survécu, hors celles ayant abouti à l’homo sapiens.

Le tronc principal de cette évolution a été associé aux australopithèques présents en Afrique dès 4 millions d’années BCE et ayant vécu jusqu’à 2,5 millions d’années BCE. Les premiers outils de pierre, dits de l’Olduvien, datés de 2 millions d’années BCE, ont été attribués à un hominien dit homo habilis, mais peut-être avaient-ils aussi été utilisés par des australopithèques récents. Certains de ces premiers hominiens ont quitté l’Afrique et ont migré en Europe et en Asie. Ils ont reçu divers noms, homo erectus en Asie, homo ergaster et homo heidelbergensis en Europe. Tous avaient acquis l’usage des outils de pierre du type dit coup de poing ou biface, puis l’usage du feu. Du tronc commun s’est séparée vers 1 à 0,5 million d’années BCE l’espèce des néanderthaliens, contemporaine des premiers homo sapiens. Elle ne s’est éteinte qu’à une date récente. Ils sont associés avec l’industrie lithique dite Moustérienne. On pense par ailleurs que les homo erectus d’Asie auraient pu survivre jusqu’à une date encore plus proche de notre époque, dont la forme dite de l’homme de Flores serait un vestige.

On identifie les premiers homo sapiens à leurs caractères génétiques, morphologiques et à leurs outils, dits Aurignaciens ou de Cro-Magnon, outils très présents en Afrique du nord, Moyen-Orient et Europe à partir de 40.000 ans BCE. Il est probable que de véritables sapiens, très proches de nous sinon semblables sur le plan corporel, se soient individualisés bien auparavant, entre 60.000 années BCE, voire 80.000, sinon plus tôt, comme indiqué ci-dessous. Signalons que le terme encore employé d’homo sapiens sapiens pour distinguer les hommes modernes de leurs cousins homo neanderthalensis, préalablement dénommé homo sapiens neanderthalensis, est abandonné. Ce dernier a été jugé trop éloigné de l’homo sapiens pour être qualifié lui-même de sapiens, ceci malgré ses capacités cognitives incontestables.

Les conditions selon lesquelles s’est opérée la transition entre les homo erectus et espèces voisines et les sapiens n’est pas clairement élucidée, ni les lieux où elle s’est produite. Peut-être s’est-elle faite en plusieurs fois, certaines branches pouvant avoir disparu par isolement. Des auteurs, comme indiqué ci-dessus, pensent avoir identifié des individus anatomiquement proches de l’homme moderne, c’est-à-dire du sapiens, en Afrique et même en Australie, vers 150.000 années BCE.

Ajoutons que, depuis quelques années, les australopithèques présents dans l’est de l’Afrique ne sont plus considérés comme les premiers hominidés bipèdes. Un fossile découvert en Afrique de l’Ouest les a remplacés dans ce rôle. Il s’agit d’Orrorin tugenensis également surnommé Millennium Man. Il était devenu momentanément le principal prétendant au statut de premier hominidé bipède, accordé depuis 1993 à Ardipithecus ramidus (4 à 5 Millions d’années BCE), suivi de près par Australopithecus afarensis ou australopithèque précité. Il a cependant été évincé dans ce rôle en 2002 par Toumaï (Sahelanthropus tchadensis), âgé de 6,9 à 7,2 millions d’années.

On distingue les premiers hominiens de leurs contemporains grands singes par un certain nombre de caractéristiques physiques et comportementales. Elles ont été souvent énumérées. Nous n'y reviendrons pas ici: important développement de la capacité crânienne (EQ), aptitude à la station debout et à la marche bipède, développement de la main comme instrument multifonctions, transformation du pelvis et du port de tète lié sans doute à la station debout, transformations de l’appareil audio-phonateur, etc. Concernant la station debout, on sait que les grands singes la pratiquent occasionnellement, y compris en se déplaçant sur des branches d’arbres. D’autres animaux le font aussi. Mais chez les hominiens il s'agissait d'un mode de déplacement par défaut, si l'on peut dire, autrement dit devenu standard et ayant entraîné de nombreuses autres conséquences corporelles et culturelles.

L'augmentation de la taille du cerveau, liée à l'augmentation de la capacité crânienne, est généralement considérée comme révélatrice d'une augmentation des capacités cognitives. C'est souvent le cas, même si cela n'est pas systématique. Les capacités cognitives sont en effet également fonction de la densité du tissu neuronal et de son architecture. Néanmoins, cette augmentation, poursuivie sans interruption depuis l'australopithèque jusqu'à l'homo sapiens, et contemporaine de l'utilisation de plus en plus systématique des outils, puis du langage, est un bon révélateur du développement de l'intelligence caractérisant l'espèce humaine.

Il est indiscutable que les différents changements morphologiques propres aux hominiens ont résulté initialement uniquement de mutations génétiques. Tous les gènes responsables de ces changements n'ont pas été identifiés. Le plus souvent ils préexistent chez les primates et d'autres animaux, sans s'exprimer aussi directement. C'est le cas des gènes microcephalin et ASPM 1). Pour qu'ils se soient développés chez les hominidés, il a donc fallu que les mutations provoquant ce développement se soient révélées indispensables à la survie. On considère généralement que c'est un changement du milieu de vie qui a nécessité l'abandon des anciens comportements et des anciennes morphologies et activé des sites géniques jusqu’alors peu exprimés ou ayant d’autres fonctions. L’hypothèse d’un changement climatique ayant provoqué le recul de l'habitat forestier ancien au profit d'un milieu ouvert de type savane a été souvent évoquée. On a parfois aussi mis en cause des mouvements tectoniques ayant isolé certains groupes de primates des autres. Ces hypothèses semblent un peu ad hoc, pour expliquer des évolutions s'étant apparemment produites durant des centaines de milliers d'années sinon davantage. Ne pourrait-on pas envisager des causes plus ordinaires, par exemple de simples mutations au hasard ayant donné à leurs porteurs, à milieux équivalents, des avantages décisifs ? Elles auraient pu se produire plusieurs fois, en des lieux éventuellement différents. Quoiqu'il en soit, ces hypothèses mettent en évidence l'improbabilité de l'hominisation. Celle-ci s'est enclenchée véritablement au hasard. Si elle n'avait pas eu lieu, le sort de la planète aurait été changé.

Cependant, les premières formes de culture, pratique de l'outil, utilisation du feu (que l'on suppose aujourd'hui avoir été beaucoup plus ancienne que crue jusqu'ici (1,5 millions d’années BCE plutôt que 0,7 BCE) ont permis aux différentes espèces d'hominiens de se doter de niches environnementales au sein desquelles des mutations successives favorables à la tendance générale à l'hominisation ont pu être sélectionnées. Ces niches se sont géographiquement étendues d'une façon considérable puisque ces espèces, armées de leurs nouvelles compétences, se sont progressivement établies de plus en plus loin de leur foyer d'origine, l'Afrique, dans l'hypothèse dite out of Africa. Un processus de co-évolution entre l’environnement résultant de l’activité dite culturelle et les mutations génétiques s’est donc engagé très tôt. Mais il semble que le processus se soit arrêté avec l’avènement des sapiens, dont le génome n’a plus varié que sur des détails, à partir de 60.000 à 40.000 ans BCE. Pour quelles raisons ? La question suscite beaucoup d’intérêts chez les préhistoriens évolutionnistes ?

Quoiqu’il en soit, le relais évolutif a été pris à partir de 40.000 ans BCE environ par l’évolution du milieu culturel. Ce sont les produits de la culture, outils de plus en plus perfectionnés, langages, nouvelles pratiques productives puis en fin de période construction de grandes cités et autres travaux d'ampleur qui ont soutenu l'évolution et la diversification des habitats, des peuples et finalement des mentalités ou esprits. Mais une autre question doit alors être posée. Ce relais culturel a été tardif. Les sites d’art rupestre de France et d’Espagne apparus vers 35.000 ans BCE sont considérés comme des précurseurs restés isolés. Les vrais développements socio-environnementaux datent plutôt des années 12.000 à 10.000. Que s’est-il passé entre 60.000 à 20.000 ans BCE ?

Ce rapide panorama nous laisse donc en face de trois grandes questions mal élucidées, sinon sans réponses : le pourquoi de la transition entre les primates simiens et les premiers hominiens ? le pourquoi de la transition entre les divers hommes de type ergaster et néanderthalien et les sapiens ? le pourquoi enfin du développement tardif des cultures caractérisant l’homo sapiens, dont les bases génétiques et les outils étaient en place depuis des dizaines de milliers d’années mais sont restées sans effets aujourd’hui visibles.

La première question intéresse moins les préhistoriens que les généticiens et les neuroscientifiques. Elle vise à identifier ce qui a distingué l’humain des autres espèces animales, au plan de l’expression des gènes et de l’architecture fonctionnelle du cerveau. C’est Human, l’ouvrage de Michaël Gazzaniga qui est le plus éclairant à cet égard. Les deux autres concernent davantage la préhistoire. La lecture de Prehistory de Colin Renfrew s’impose alors. C’est par elle que nous allons commencer notre recension, renvoyant celle de Human à un autre article.


Prehistory, Making of the Human Mind

Le distingué professeur d’archéologie Colin Renfrew (Lord Renfrew of Kaimsthorn) a produit une œuvre considérable, intéressant aussi bien l’archéologie que la préhistoire 2). Il s’est tout autant intéressé à ces sciences et à leurs méthodes qu’aux résultats qu’elles nous proposent, afin de mieux comprendre les anciennes civilisations. Le livre Prehistory nous présente un tableau passionnant de l’état des connaissances dans ces domaines. Mais il va plus loin. L’auteur nous livre ses hypothèses dans des domaines qui concernent tout autant la préhistoire des sociétés humaines que le développement plus général des espèces et les mécanismes entrant en jeu pour définir l’évolution biologique depuis l’apparition des premiers hominiens ayant divergé des autres primates entre 10 et 7 millions d’années BCE. Faut-il préciser que Colin Renfrew est strictement matérialiste évolutionniste, rejetant toute hypothèse s’apparentant de près ou de loin au dessein intelligent. Il est par conséquent profondément darwinien, même s’il admet que les modèles darwiniens simplistes qui avaient encore cours il y a quelques décennies doivent être complétés pour tenir compte de la grande variabilité des contraintes réelles s’étant exercé sur l’évolution. Sa pensée est par ailleurs extrêmement moderne et audacieuse, ce qui n’est pas toujours le cas chez les universitaires arrivés au faîte des honneurs

Nous allons résumer ici les grandes lignes des premiers chapitres de son ouvrage, en mettant l’accent sur les points qui rejoignent nos préoccupations habituelles : le rôle des gènes dans la spéciation et le relais (sur le mode de la co-évolution) pris par les constructions matérielles résultant de l’activité des humains dans la détermination des contenus cognitifs spécifiques de leurs cerveaux. Nous ferons à cette occasion quelques commentaires permettant de proposer les enseignements que nous pourrions retenir de ces travaux, concernant l’avenir des sociétés humaines. Celles-ci sont plus que jamais définies aujourd’hui par ce que sir Colin appelle « the matérial engagement », autrement dit l’intrication avec les produits matériels résultant des dimensions technologiques prises par leur évolution.

La découverte de la préhistoire

La première partie du livre, « La découverte de la préhistoire », relate comment depuis les hypothèses initiales faites au 18e siècle à partir de l’étude des fossiles et des vestiges progressivement mis à jour, les scientifiques et philosophes, depuis les Lumières jusqu’au milieu du 20e siècle, se sont progressivement dégagés des récits bibliques ou des premiers travaux historiques, dont certains remontaient à l’Antiquité. Ils ont ainsi mieux pris conscience de la longueur des périodes impliquées, de la grande dispersion géographique et de la variété des formes biologiques et des constructions culturelles caractérisant l’histoire des hominiens. Il s’est ainsi durant ces années construit une « archéologie comparée » non exemptes d’erreurs d’observations et d’interprétations erronées dues aux préjugés de l’époque (certains encore vivaces ces dernières années). Cette archéologie comparée a permis l’élaboration de grands récits (narratives) exploitant les documents disponibles régions par régions et valorisant l’énergie et l’inventivité des individus humains concernés. Mais, comme le signale l’auteur, la science ne peut se limiter aux détails. Elle doit rechercher des modèles généraux (patterns) révélant un ordre sous-jacent, voire une ou des lois plus générales jouant le rôle explicatif que fut au 19e siècle l’Origine des espèces de Darwin. Colin Renfrew pense avoir pu le faire, évitant ainsi que l’arbre des détails ne lui cache la forêt des évolutions anthropologiques.

La préhistoire de l’esprit

Le seconde partie du livre « La préhistoire de l’esprit » nous intéresse directement, puisque, nous allons le voir, elle postule que l’esprit humain s’est progressivement complexifié à partir des comportements nouveaux eux-mêmes permis par les « progrès technologiques » résultant de l’utilisation des outils lithiques, du feu, des objets pouvant servir d’ornements. Le langage et des représentations complexes de soi, du monde, du passé et du futur en ont découlé. Mais contrairement à beaucoup d’auteurs qui associent le début de cette « révolution humaine » au début du paléolithique moyen, vers 40.000 ans BCE, Colin Renfrew considère que le véritable décollage s’est produit bien plus tard, avec la révolution agricole du néolithique, en Asie occidentale, au Moyen Orient puis en Europe, vers 14.000 à 10.000 ans BCE. On est véritablement passé à ces époques et en ces lieux de petites sociétés de chasseurs-cueilleurs mobiles à la sédentarisation et à la transformation des comportements et des mentalités impliquée par cette dernière. Mais dans ces conditions, il s’interroge sur la raison du délai immense de près de 30.000 à 40.000 ans ayant séparé l’apparition des premiers homo sapiens, avec toutes leurs capacités « modernes » et celle des outils et pratiques comportementales résultant de la révolution néolithique. Autrement dit, pourquoi celle-ci ne s’est pas produite plus tôt ? C’est ce que l’auteur appelle le « paradoxe du sapiens ».

En effet, pour lui, la transition entre les humains précédents et le sapiens s’est faite très tôt, entre 150.000 et 75.000 ans BCE, non pas sur de multiples sites mais exclusivement en Afrique et en Afrique du Sud. Les études sur l’ADN mitochondrial actuel (l’ADN des mitochondries, qui se transmet de mère en fille, à distinguer de l’ADN des cellules) montrent que les humains qui se sont dispersés à partir de l’Afrique, comme ceux qui y sont demeurés, dérivent de cette origine. Ainsi tous les humains actuels sont apparentés à une souche unique qui vivait il y a 200.000 ans (mtDNA haplogroupes M et N). La première dispersion identifiée, (confirmant le scénario « Out of Africa ») se serait produite il y a 60.000 ans et aurait touché diverses parties du monde, très éloignées les unes des autres. Mais d’autres migrations ont peut-être eu lieu avant, sans que leurs descendants aient survécu.

Ces découvertes, pour Colin Renfrew, entraînent des conclusions importantes. Les migrants possédaient nécessairement, des 60.000 ans BCE un langage pleinement développé hérité de langages primitifs construits à partir de bases neurales progressivement « exaptées » présentes dans le monde animal. On retrouve ce langage développé sous des formes identiques chez tous les humains actuels. Plus généralement, le génotype de l’époque était très semblable au génotype de l’humanité actuelle, comme l’a montré le Projet Génome Humain. Il était d’ailleurs plus proche de celui des chimpanzés que de celui des néanderthaliens (sous réserve de la validité d’observations qui restent très difficiles, compte-tenu du risque de contamination). Les changements survenus dans les sociétés humaines depuis l’époque lointaine de 100.000 à 60.000 ans n’ont donc pas été provoqués par des mutations génétiques, comme dans le million d’années antérieures. Ceci renforce le « paradoxe du sapiens ». En termes darwinien, il ne faut plus faire appel au concept de co-évolution entre génomes et culture, co-évolution ayant opéré pendant le million d’années précédentes et ayant permis à partir des génomes hérités du monde des primates, la mise au point d’outils, de structures sociales et de langages primitifs. Un nouveau mécanisme est apparu.

Certes, les mutations génétiques n’ont pas totalement disparues, mais elles sont restées mineures, entraînant les différences observées aujourd’hui entre « races » ou sous-espèces au sein de l’espèce humaine. Mais l’humanité moderne s’est construite pour l’essentiel à la suite du développement darwinien intéressant les modules culturels. C’est ce que l’auteur appelle la phase "tectonique", le terme venant du grec tecton ou charpentier. Il s’agit de ce qu’il désigne aussi comme des engagements de plus en plus imbriqués entre le facteur humain et le monde matériel, à travers les outils et pratiques technologiques de plus en plus efficaces développés au fil des millénaires par ceux méritant mieux que leurs lointains prédécesseurs le nom d’homo faber.

Pour comprendre les phénomènes caractérisant la phase tectonique, il faut donc élaborer ce que l’auteur appelle une préhistoire de l’esprit (Prehistory of Mind). Une approche darwinienne des évolutions s’étant produites durant ces dizaines de milliers d’années lui parait possible, à condition de considérer que les unités réplicantes et mutantes ne sont plus principalement génético-biologiques, mais culturelles. Colin Renfrew, dans cette perspective, évoque la théorie mémétique proposée par Richard Dawkins, que nos lecteurs connaissent bien. Mais il estime que celle-ci est trop superficielle, en ne fournissant pas un cadre évolutif général capable de fixer des contraintes à l’évolution des « unités culturelles » en compétition. Pour lui, ce cadre doit être trouvé dans les processus d’apprentissage (learning) bien adaptés pour comprendre des mutations intervenant dans le domaine cognitif. L’apprentissage du langage, celui des comportements de la mère et du groupe, constituent une première façon très efficace d’apprendre. Les mots ou autres symboles interviennent alors d’une façon spécifique pour construire les contenus des cerveaux. Mais ce furent aussi et de plus en plus les grands symboles matériels qui jouèrent le rôle de machines à apprendre très performantes, d’une part pour construire des savoirs, d’autre part pour les transmettre.

Une archéologie cognitive

Colin Renfrew propose à cette égard d’élaborer une « archéologie cognitive » permettant de comprendre comment fonctionnaient les esprits des anciennes communautés et comment en interaction avec les cerveaux de ces époques et les édifices symboliques se sont construits les concepts ultérieurs plus complexes relatifs à la conscience de soi, aux pouvoirs et aux déités. L’archéologie cognitive permet également d’expliquer, toujours sur une base darwinienne, les multiples différences entre cultures, qui se sont produites à la fois au plan géographique et aux divers plans symboliques.

Il ne faut pas cependant oublier que les évolutions que nous qualifions de culturelles se sont produites bien avant les millénaires de l’ « ère tectonique ». L’auteur rappelle les travaux de scientifiques précédents, tel Merlin Donald dans « Origins of the Modern Mind » (1991, qui évoquent les phases successives d’enrichissement de la cognition des primates au sein des hominiens : phase épisodique propre aux primates (ne s’intéresser qu’à l’évènement immédiat) ; phase de l’imitation ou mimétique, indispensable à la production et à l’utilisation des outils, même en dehors de tout recours au langage symbolique ; phase mythique (depuis 500.000 ans BCE jusqu’à ce jour), caractérisée par le langage, l’élaboration d’ « histoires » (narratives) explicatrices du monde ; phase enfin des symboles matériels allant de la valeur symbolique attachée aux bijoux, à l’or et aux grandes constructions affirmant l’identité du groupe, puis le poids contraignant du pouvoir politique et des présences divines supposées.

Ces différents supports de l’apprentissage constituent des mémoires externes collectives ou « exogrammes » dont les « engrammes » ou mémoires internes présentes dans les cerveaux sont les correspondants individuels. Ils ne se sont pas développés de façon linéaire et identique dans toutes les parties du monde, comme on le sait bien puisqu’ aujourd’hui, subsistent encore, pour combien de temps, des communautés de « modernes chasseurs-cueilleurs ». Mais le schéma général peut être retenu.

Il est intéressant pour nous de noter que Colin Renfrew, quand il présente les modalités selon lesquelles l’archéologie cognitive qu’il propose peut nous permettre de définir les esprits anciens (Minds) comme d’ailleurs les esprits modernes, s’affranchit explicitement de tout préjugé dualiste. L’esprit est d’abord étroitement lié à ses supports matériels (biologiques et physiques). De plus, il ne peut se comprendre qu’en termes collectifs. Les formes individuelles prises par l’esprit collectif dans les cerveaux des humains de l’époque n’importent pas, d’autant plus qu’en général il n’en est rien resté. Il faut prendre en considération et étudier ce que nous-mêmes appellerions des superorganismes, dont les individus et leurs cerveaux ne sont que des composants, les autres composants résidants dans les outils, pratiques et autres mémoires externes du superorganisme.

Colin Renfrew présente ainsi l’esprit d’une époque, d’une société et d’un lieu donné comme ne résidant que très partiellement dans les cerveaux des individus. Il est en fait incorporé dans l’organisme social (embodied), étendu bien au-delà des neurones et des représentations individuelles (extended) et finalement réparti (distributed). Les individus et leurs activités sont les produits d’un « engagement matériel » (material engagement) qui s’exprime notamment par les savoir-faire instrumentaux imposés à ces individus par des machines et technologies de plus en plus complexes et déterminants. Ces engagements avec le monde ne peuvent s’acquérir que par la pratique corporelle elle-même guidée par l’exemple. C’est de cette façon qu’aujourd’hui, nous dit l’auteur, un skieur, ses skis et tout le système de remonte-pentes afférents constituent un seul et unique technosystème.

Mais il ne néglige pas, au contraire, le rôle déterminant des valeurs morales et croyances symboliques développées à l’occasion de l’élaboration darwinienne de ces diverses technologies et pratiques. Elles sont notamment nécessaires à la mobilisation de toutes les ressources des individus et des groupes au service de ces technologies. Il en est de même des « faits institutionnels » ou lois et coutumes impératives décrites par John Searle dans « The construction of Social Reality » (1995).

Tout ceci n’a pas attendu, souligne l’auteur, les constructions les plus visibles du néolithique récent. Dès le paléolithique supérieur, au sein de petits groupes de chasseurs-cueilleurs, l’engagement biologique et symbolique des humains avec les artefacts s’est organisé, notamment sous des formes rituelles indispensables à la fabrication des premiers outils de pierre et à l’utilisation du feu. C’est cependant avec la sédentarisation, qui a précédé contrairement à ce que l’on imagine l’agriculture et l’élevage, que les liens entre l’univers matériel et les contenus cognitifs se sont précisés et diversifiés. Cette sédentarisation n’a pas immédiatement débouché sur la construction de grandes propriétés, de royaumes et de temples, avec tous les excès de l’inégalité, du pouvoir royal et de l’appropriation des biens matériels et des esprits par les religions et leurs prêtres. L’auteur, qui a étudié de près les constructions monumentales de Stonehenge et d’Avebury dans le sud-ouest de l’Angleterre, estime que celles-ci avaient été le produit de sociétés dispersées et égalitaires cherchant à assurer une certaine cohésion à l’occasion de grandes fêtes rituelles. Celles-ci permettaient notamment de donner une dimension mythique aux observations des cycles de la Lune et du Soleil, développant ainsi une « appropriation du cosmos » qui n’avait certainement attendu ces époques pour contribuer à renforcer les pratiques de survie.

Quelques constatations

Nous renvoyons pour la suite le lecteur à l’ouvrage, qu’il n’est pas question ici de résumer davantage. Il comporte une dizaine de chapitres plus intéressants les uns que les autres. Attirons cependant pour conclure l’attention sur les similitudes évidentes entre les travaux de ce scientifique et ceux qui s’intéressent à la construction d’une humanité de demain, en interaction avec les technologies émergentes, dont nous vous faisons régulièrement l’écho. Des concepts comme ceux que nous avions nous-mêmes présentés ici, tels les supersystèmes cognitifs et les organismes bioanthropotechniques, se retrouvent manifestement là sous une forme différente.

Sans entreprendre ici une discussion documentée des propositions de Colin Renfrew, dans laquelle il ne partagerait peut-être pas notre point de vue, nous pouvons pour notre part faire quelques constatations découlant de la lecture de son livre. Celui-ci conforte, semble-t-il, notre point de vue sur les limites du rôle décisionnaire de la conscience individuelle dite volontaire et sur la puissance, à l‘opposé, des mécanismes de décision inconscients collectifs générés par l’appartenance à des superorganismes associant des hommes et des technologies matérielles dotées d’un fort pouvoir constructif.

L’étude des premières phases de l’hominisation, caractérisées dès le stade de l’homo habilis par l’usage des outils, et pleinement exprimées au début de l’ère néolithique par les grandes constructions de mégalithes dont Stonehenge est un excellent exemple, montre bien semble-t- il que les groupes sociaux ayant mené de telles révolutions ne l’ont pas fait sous la conduite d’individus particulièrement intelligents et conscients ayant compris que là était l’avenir et qu’ils devaient mobiliser le groupe dans ces voies. Certes, les cerveaux des individus, homo habilis et homo sapiens, acteurs au service de ces actions, possédaient par définition des capacités cognitives supérieures à celles des grands singes ou à celles de la moyenne de leurs congénères. Mais ce n’est pas pour autant qu’ils disposaient de ce que nous appelons une conscience volontaire individualisée. Même s’ils étaient capables de ressentir de façon plus ou moins imparfaite l’utilité pour la survie des actions auxquelles ils participaient, ils étaient en fait « agis » par des forces collectives bien supérieures à eux. Celles-ci mobilisaient leurs corps et leurs cerveaux dans le cadre de ce que nous appellerions des macroprocessus dont ils n’avaient, dans la meilleure hypothèse, que des représentations sommaires et passagères. Comme le dit très bien Colin Renfrew, l’esprit (mind) du groupe, agent moteur de l’évolution, était certes incorporé dans les corps individuels, mais aussi étendu au-delà de ceux-ci et distribué au sein de la collectivité fonctionnant en réseau.

Mais alors, quels étaient les vrais acteurs responsables de ces macroprocessus ? Pour Colin Renfrew, si nous interprétons bien sa pensée, il s’agissait des interactions s’établissant entre des agents humains et les outils, technologies et œuvres monumentales résultant du développement sur le mode darwinien des instruments, techniques et pratiques d’apprentissage associées. Ces interactions constituaient un système complexe, évolutionnaire, où l’outil et l’œuvre finissaient par se comporter en partenaires des cerveaux humains dans la cogénération de représentations et de comportements. Quand nous disons que l’outil se comportait en partenaire des cerveaux, cela ne veut pas dire qu’il était doté d’un cerveau lui-même, comme pouvaient l’être des animaux partenaires des humains. L’outil était produit par des humains mais ceux-ci, contaminés par lui, si l’on peut dire, se bornaient à lui fournir des moyens d’actions sur le monde dont à lui seul il ne disposait pas. Il s’établissait donc une véritable coopération constructive entre l’outil « humanisé » par les cerveaux « ouvriers » qu’il avait de fait recrutés et les humains restant en dehors de l’outil mais subissant son influence, bénéficiant de ses services et par conséquent obligés d’interagir avec lui. Pour bien se représenter cela, il faut évidemment disposer d’une culture systémique, développant le concept de superorganisme, dont tout le monde ne dispose pas aujourd’hui.

Nous pensons que ceci peut être aisément montré en étudiant, dans la mesure des documents disponibles, le rôle moteur des outils lithiques sur l’évolution des groupes de chasseurs-cueilleurs les ayant utilisés. Il en est de même du rôle, bien étudié, des pyrotechnologies (utilisation du feu). De multiples petites entités, associant les humains et ces outils et techniques, que nous avons qualifiées ailleurs de systèmes bioanthropotechniques, se sont constituées et se sont développées sur le mode de la compétition darwinienne pour la survie au cours d’un million d’années au moins, sur des territoires immenses et très diversifiés. . Très vraisemblablement, les cerveaux humains ayant dès l’origine une propension au dualisme, c’est-à-dire à voir des entités mythologiques à l’œuvre derrière les phénomènes matériels, ont pu commencer à raconter de grandes histoires (narratives, pour reprendre le terme de Colin Renfrew) permettant de rationaliser ces macroprocessus impliquant les individus et les dépassant. Mais ces histoires ne suffisaient certainement pas à dynamiser l’évolution de ces entités. Il fallait aussi que les outils s’adaptent par essais et erreurs, autrement dit par mutations réussies.

La mise en évidence de macroprocessus dépassant les individus tout en les impliquant peut se faire, aujourd’hui encore, quand nous nous trouvons en présence de sites comme Stonehenge, décrits par Colin Renfrew. Celui-ci, nous l’avons dit, n’y voit pas les manifestations de pouvoirs politiques et religieux comme le furent (au moins en partie) les pyramides d’Egypte ou de Teotihuacan plus récentes. Il y voit le produit de constructions symbiotiques ayant associé pendant au moins un millénaire des technologies architecturales et leurs ouvriers, d’une part, des groupes dispersés sur un vaste territoire et ressentant confusément mais avec force la nécessité de manifester une cohésion d’ensemble d’autre part. Le résultat fut si réussi qu’il nous « parle » encore. Les humains d’aujourd’hui quand ils se trouvent sur le site, notamment aux solstices, ressentent une sorte de communion s’établissant entre eux (leurs corps), l’édifice, le lieu et le cosmos. Il n’y a là rien de surnaturel. Il s’agit seulement d’une prise de conscience sur le mode empathique, c’est-à-dire non explicable aujourd’hui par la psychologie, du fait que nos corps et nos cerveaux s’impliquent dans des macroprocessus qui les dépassent et dont nous n’avons, au niveau de la conscience explicite, que des représentations vagues. Notre conscience primaire, par contre, celle que nous partageons avec la plupart des animaux, y est apparemment sensible.

Colin Renfrew explique que ce sont seulement des millénaires plus tard que les pouvoirs politiques et religieux nés du développement des pratiques agricoles et de l’appropriation des territoires et des biens ont préempté (sans doute là aussi inconsciemment aux origines), la puissance de ces systèmes anthropotechniques pour les mettre à leur service. D’où les grandes démonstrations de puissance que sont devenus les monuments royaux, militaires et religieux. Aujourd’hui, à des échelles toutes différentes, associant aux humains des technologies autrement plus puissantes, nos sociétés ont développé des macroprocesssus dont les cerveaux individuels qui sont les nôtres mesurent de moins en moins bien les effets aussi bien favorables à la survie que destructeurs. Le mouvement s’accélère en ce moment avec la révolution technologique, préfigurant une nouvelle révolution dans les processus d’hominisation. Collin Renfrew le pressent certainement. Mais on conçoit que son métier ne le pousse pas à formuler de telles généralisations, que l’archéologie d’aujourd’hui, par définition, n’est pas capable de vérifier.

(A suivre : Human, de Michael Gazzaniga)



Note
1) Voir nos articles
http://www.automatesintelligents.com/echanges/2008/mai/groscerveau.html
et
http://www.automatesintelligents.com/echanges/2008/sep/foxp2.html
2) Colin Renfrew. Voir http://www.arch.cam.ac.uk/~acr10/

Repost 0
16 septembre 2008 2 16 /09 /septembre /2008 14:28
La raison et la religion
par Jean-Paul Baquiast 16/09/2008

Qu'attendent les scientifiques et philosophes matérialistes pour réagir contre l'opération visant à mobiliser la raison au service de la foi, comme le pape Benoît 16 vient de tenter une nouvelle fois de la faire, avec la bénédiction du gouvernement français et devant un parterre de centaines d' « intellectuels de toutes provenances » apparemment muets d'admiration?

Rappelons l'argument, à peine caricaturé ici : " face aux excès de toutes sortes que provoque le matérialisme et l'oubli des valeurs chrétiennes, il faut un retour à Dieu. Dieu s'exprime par les Ecritures et par l'Eglise dont les prêtres portent la parole. Dans l'esprit du pape et donc dans celui des catholiques, c'est l'Eglise de Rome qui est la mieux placée pour incarner la parole de Dieu. Mais les autres religions peuvent également s'inscrire dans cette voie."

" Cependant, pour éviter les déviations pouvant résulter d'interprétations intégristes des Ecritures, la raison doit être utilisée. Elle seule est capable de nous montrer l'aspect rationnel de la foi et la nécessité de se fier à ses messages, plutôt que s'abandonner aux passions nées de l'oubli des prescriptions divines. "

Pour nous matérialistes, ce discours représente un véritable retour au Moyen Age, avec les dangers résultant de l'omnipotence attribuée à une Eglise qui n'est pas autre chose qu'un organisme politique comme les autres à la conquête du pouvoir sur les biens et les personnes. La question est d'abord politique. Nous ne voulons pas que des religions, des sectes ou toutes autres mythologies nous imposent leur façon de voir le monde. Nous voulons le faire avec nos propres moyens intellectuels, dont notre raison et la façon dont grâce à la science celle-ci nous permet de construire un monde conforme à nos valeurs. En bref, nous n'avons rien à faire des impératifs de l'Eglise, que ce soit le pape ou un président de la République égaré hors de ses compétences constituionnelles qui prétendent nous les imposer.

Ce premier point posé, sur lequel nul matérialiste ne devrait accepter de céder sous prétexte de tolérance, nous pouvons évidemment nous indigner de voir la façon dont le Pape et le président de la République préemptent le concept de raison. Les scientifiques savent bien qu'il n'existe pas une Raison qu'il faudrait vénérer comme une déesse, selon le vœu des révolutionnaires de 1789. Les processus rationnels ne sont qu'une façon parmi d'autres utilisées par nos cerveaux pour organiser leurs perceptions. Quand ils sont associés à la recherche de modèles scientifiques du monde universellement acceptés par la communauté scientifique, ils fournissent des bases de connaissances sur lesquelles les esprits individuels peuvent s'appuyer, non sans prudence d'ailleurs. Mais on sait qu'ils peuvent aussi justifier les pires aberrations, soit d'une façon dont les sujets pensants n'ont pas conscience (il s'agit notamment des rationalisations décrites par les psychologues) soit de façon délibérée. Quelle tyrannie ne fait elle pas appel à des arguments rationnels apparemment de bonne tenue pour se justifier ? Pour nous, la raison invoquée par le pape et par Nicolas Sarkozy s'inscrit dans l'une ou l'autre de ces catégories.

Il est triste pour les matérialistes de voir qu'aucune des multiples tribunes ouvertes par les médias pour commenter et finalement louer les propos du pape n'ait donné la parole à quelques scientifiques ou philosophes capables de rappeler avec fermeté ce qui précède. Faisons le pour notre part, mais sans illusions. Ceux qui pensent ainsi demeurent bien seuls dans un monde pour qui, c'est le cas de le dire, la raison du plus fort doit rester la meilleure. Si nous évoquons cette question sur ce site, c'est parce qu'elle intéresse tous les matérialistes européens, et non les seuls français.

Repost 0
20 août 2008 3 20 /08 /août /2008 09:19

The Black Hole War
My battle with Stephen Hawking to make the world safe for quantum mechanics

Par Leonard Susskind

Little, Brown and Company 2008

Présentation et commentaires par Jean-Paul Baquiast
01/01/2008

 

 

 Leonard Susskind est professeur de Physique théorique à l'Université de Stanford.

Il a écrit deux autres ouvrages de présentation de la cosmologie moderne et de la théorie des cordes:
- The Cosmic Lanscape
- String theory and the illusion of Intelligent Design.

Il est membre de l'académie nationale des sciences américaine

 

 

La physique théorique, quel intérêt?

Pourquoi jugeons nous utile, bien que n’étant en rien physicien théoricien ni accointé avec aucun d’entre eux, d’essayer dans cette revue de vous faire participer aux discussions agitant périodiquement la communauté des susdits et auxquelles la presse fait régulièrement écho ? Par physique théorique, nous désignons celle qui se situe (pour le moment) bien en amont des possibilités expérimentales, bien en deçà même des capacités intuitives de notre imagination courante et qui ne s’exprime que par des formules mathématiques accessibles au mieux à quelques centaines de personnes dans le monde.

Une première réponse à cette question concerne le jugement que nous pouvons porter sur le fonctionnement de notre cerveau. Ceci intéresse tous ceux qui réfléchissent à la physiologie de cet organe ainsi qu’aux images du monde élaborées par lui et dont certaines, mais pas toutes, affleurent au niveau de nos représentations conscientes puis de nos discours. Comment un appareil neurologique couplé à des organes sensoriels et moteurs ayant été sélectionnés par l’évolution pour distinguer des proies et des prédateurs dissimulés dans la brousse en arrive-t-il à imaginer des entités dont nous risquons de n’avoir jamais connaissance directe ou indirecte et que cependant nous estimons scientifiquement crédibles, au contraire de purs produits de l’imagination mythologique ?

Les physiciens théoriciens répondront, si nous comprenons bien le sens du message délivré par le livre de Susskind présenté ici, que les cerveaux ordinaires ont besoin d’être « recâblés » pour pouvoir se représenter des réalités du monde contre-intuitives mais néanmoins aussi solides que celles résultant de la perception ordinaire. C’est le cas du principe de superposition selon lequel une entité physique peut être vue de deux façons différentes, comme une onde et une particule. Mais pourquoi les cerveaux des pères de la physique quantique ou de la relativité générale ont-ils pu, sans être précédemment recâblés, concevoir de telles représentations de la réalité ? Sans doute parce qu’ils étaient câblés de naissance d’une façon leur permettant de distinguer des patterns significatifs dans la jungle des résultats expérimentaux de leur époque. Les physiciens théoriciens d’aujourd’hui sont certainement aussi câblés de la même façon, et de naissance, puisqu’ils ont pu s’intéresser à des questions que leur milieu original ne les prédestinait pas à étudier. C’est le cas de Léonard Susskind qui a commencé, sauf erreur, sa vie professionnelle comme ouvrier soudeur.

Partant de cette hypothèse, on en arrive à considérer que les modèles de la physique théorique sont importants pour notre compréhension du monde, même si nous ne rentrons pas dans le détail des formules mathématiques permettant de les élaborer. Ils obligent nos cerveaux insuffisamment câblés à se recâbler afin de comprendre un environnement qui n’est plus celui de la jungle primitive mais celui de notre monde actuel. Cet environnement, né des développements des nouvelles technologies scientifiques, nous concerne – nous pourrions presque dire nous menace – aussi directement que le faisait celui de la jungle primitive. Prenons l’exemple du futur LHC qui pourrait éventuellement produire, par collisions entre particules, des états de la matière certes fugitifs mais de masse (ou d’énergie) jusque là inconnue sinon inexistante dans le système solaire. Il sera bon pour tirer partie de ces expériences d’avoir en l’esprit le modèle encore théorique du trou noir élaboré depuis des décennies pour expliquer ce qui se passerait dans un espace-temps où la masse s’accroîtrait infiniment. Il sera bon aussi de rapprocher ce que l’on pourra observer au sein du LHC avec les évènements violents que les astronomes observent au cœur des galaxies et qu’ils ont interprété grâce au modèle du trou noir.

Ainsi, le grand public qui ignore les particularités des trous noirs et les physiciens théoriciens qui se donnent le mal d’essayer de recâbler les cerveaux afin qu’ils puissent s’y intéresser, contribuent-ils à l’élaboration d’un monde nouveau. Il sera peuplé d’entités biologiques (nos corps et nos cerveaux) capables de concevoir et utiliser les instruments de plus en plus sophistiqués apparus dans le cours d’une évolution technologique s’étant depuis quelques décennies superposée à l’évolution biologique et sociétale. Les physiciens théoriciens contribueront ainsi à l’ « émergence » progressive d’un monde ou les trous noirs et tout ce qu’ils impliquent deviendront une réalité objective. Il ne s’agira pas d’une réalité objective en soi, au regard d’un grand observateur situé au dessus des réalités subjectives. Il s’agira d’une réalité objective pour les sociétés anthropotechniques qui sont en train de se mettre en place sur Terre et qui, sait-on, dans quelques décennies ou siècles, pourront s’étendre dans un univers en partie façonné par elles, directement ou par instruments interposés.

Cette évolution des cerveaux se produisant en parallèle des évolutions technologiques et intéressant l’univers microscopique atomique et subatomique a commencé au début de notre ère, lorsque certains philosophes grecs avaient fait l’hypothèse théorique, hors de toute expérience, que la matière était constitué de briques élémentaires, les atomes. Leur cerveau était certainement câblé de façon extraordinaire pour qu’ils puissent s’arracher aux descriptions des 4 éléments de la nature en vigueur de leur temps. Ensuite, d’autres cerveaux ont imaginé, avant toute expérience concluante semble-t-il, que des particules élémentaires, identifiées ensuite comme les baryons (protons et neutrons) et les électrons, contribuaient à la constitution de l’atome. On peut considérer que le saut qualitatif consistant à supposer que toutes les particules se comportent, selon le mode d’observation, soit comme des ondes soit comme des particules, n’a pas non plus été le résultat d’une déduction à partir d’expériences dont les résultats ne s’expliquaient pas dans la physique de l’époque, mais d’une induction vérifiée ensuite seulement par un affinement des expériences.

Pour prendre une image que ne désavouerait pas, espérons-le, Léonard Susskind adepte de cette méthode, les marins de tous temps ont traité de façon différente, dans leurs navigations, les crêtes des vague (les plus dangereuses pour eux) et les ondes longues de la houle, sans imaginer le concept de la superposition onde-particule dont ils ressentaient pourtant tous les jours les effets. Aucun de leurs cerveaux ne leur avait permis d’identifier une présentation de ces phénomènes (dualité onde-particule) qui aujourd’hui s’impose systématiquement. Il a fallu attendre les hypothèses, d’abord théoriques puis ensuite vérifiées expérimentalement, de ceux qui s’étaient efforcés d’analyser les bizarres évènements produits par un rayon lumineux traversant les fentes de Young pour en arriver à conceptualiser le concept de superposition d’état et imaginer qu’il puisse décrire en profondeur bien d’autres mécanismes naturels.

Si pourtant, ce concept avait été vulgarisé et utilisé dans la vie courante, il aurait permis depuis longtemps aux décideurs politiques et à chacun d’entre nous de considérer qu’il n’existe pas de phénomènes en soi, intangibles, non plus qu’il n’existe de personnalités figées dans un comportement dominant. Dotés de l’ancien câblage, nous considérons que telle personne est pour nous soit un ennemi, soit un ami, mais pas les deux. Le comportement de la Russie lors de la crise actuelle dans le Caucase est présenté par les Américains comme ressuscitant la guerre froide, parce que cette présentation leur permet de remobiliser leur potentiel militaire en Europe. Pour les hommes politiques européens voulant ménager les possibilités d’accords commerciaux avec les Russes, il faut présenter ce pays comme devenu tout à fait proche des principes démocratiques chers à l’Europe. Mais les diplomates européens, dont le cerveau est câblé différemment de celui des hommes politiques, de quelque côté qu’ils se trouvent, savent bien que, pour trouver les bases de la nécessaire coopération euroasiatique, il faudra considérer la Russie, nouveau chat de Schrödinger, comme susceptible de se présenter sous des états différents selon les instruments avec lesquels on se propose d’interagir avec elle. Malheureusement, lorsque les diplomates proposent d’appliquer cette méthode, ils sont traités de « capitulards » au lieu d’être félicités pour les avancées conceptuelles permises par leurs cerveaux.

Un des pères de la théorie des cordes

Léonard Susskind a été, sinon le plus connu, du moins l’un des pères de la théorie des cordes, si décriée par le fait qu’elle repose sur des hypothèses paraissant hors de portée des vérifications expérimentales modernes 1)

Ces hypothèses et leur discussion ne s’expriment que par des formulations mathématiques inaccessibles aux profanes, comme nous l’avons rappelé. Mais leur traduction dans le langage courant, même approximative voire inexacte, nous oblige à regarder le monde autrement que nos cerveaux câblés à l’ancienne nous incite à le faire. Imaginer, même de façon approximative, qu’il n’existe pas de particules en soi, descriptibles par des propriétés intangibles, mais des états différents, selon les masses et énergies impliquées, d’une entité unique dite corde, imaginer que cette particule-corde, sous certaines conditions, pourraient être étendues au confins de l’univers, nous oblige à considérer notre monde macroscopique autrement que nous le faisons aujourd’hui, avec nos cerveaux n’ayant pas été convenablement recâblés. On dira la même chose des hypothèses relatives aux extra-dimensions et aux univers multiples envisagés par la théorie des cordes.

Il en est de même des trous noirs ou plus exactement, des propriétés de ceux-ci qui différent profondément selon les descriptions qu’en donnent les physiciens relativistes et les physiciens quantiques. Pourquoi ce thème des trous noirs suscite-t-il tellement d’intérêt. Pourquoi le livre de Leonard Susskind et el conflit qu’il relate, bien que récemment publié, a-t-il provoqué une telle effervescence aussi bien chez les spécialistes que chez les profanes ? Faut-il s’acharner à produire des descriptions consistantes intéressant des phénomènes que jamais personne ne verra, dans lequel jamais personne ne pourra pénétrer et qui se révéleront peut-être un jour différents de ce qu’en dit la physique contemporaine?

Le statut de l’information nous intéresse tous.

C’est que, derrière la guerre des trous noirs décrite par Léonard Susskind se pose un problème fondamental nous intéressant tous. Il s‘agit du statut de l’information. C’est sur l’hypothèse selon laquelle l’information, c’est-à-dire les données permettant de spécifier l’état de l’univers ou de quelque système que ce soit en son sein, ne se crée ni ne se détruit que s’est construite toute la physique moderne depuis Newton. L’idée est loin d’être évidente. Chacun de nous vit dans un monde où l’information semble se créer et se détruire en permanence – ce qui ajoute au désordre des idées ambiantes. Mais les physiciens ont proposé une hypothèse autrement plus rassurante. Si nous connaissons toutes les données initiales caractérisant un système, nous pouvons prédire tous les états que produira l’évolution ultérieure de ce système. Cette capacité à prédire le futur, même si l’on sait qu’elle trouve vite des limites pratiques (nul n’a le cerveau omniscient du démon dit de Laplace), présuppose l’existence d’un stock invariable d’information. Aucun nouvel apport d’information, aucune perte d’information, ne viendra contrarier les calculs que les physiciens pourront faire à partir de ce stock. Il y a là une autre version du principe de la conservation de l’énergie, dont les économistes et les climatologues en lutte contre le réchauffement climatique ont tant de mal à reconnaître la puissance. Si je remplace une centrale à charbon par une autre source d’énergie, je respirerai sans doute mieux, mais le gain total en énergie sera de toutes façons nul.

C’est Stephen Hawking, comme on le sait, qui a troublé ce consensus autour de la conservation de l’information. Les trous noirs sont des régions de l’espace où la gravité est si forte que rien ne peut en échapper. L’hypothèse des trous noirs découle directement des principes de la relativité générale. Si les masses (ou leur équivalent en énergie), courbent plus ou moins sensiblement l’espace-temps, en attirant les objets passant à proximité, on peut imaginer que des astres ayant épuisé tout leur carburant nucléaire, l’hélium, finissent par se contracter sous l’effet de la gravité s’exerçant sur les noyaux atomiques restant. L’étoile se transformera dans certaines conditions en une étoile à neutron puis en un véritable trou noir. Il s’agira non pas d’un trou, mais d’un objet si dense pour des dimensions si réduites qu’il attirera toutes les particules passant à portée, notamment les photons. Pour un observateur extérieur situé suffisamment loin, l’objet deviendra invisible. La théorie, autrement dit les équations de la relativité, permet de calculer les conditions d’occurrence d’un trou noir. L’observation vérifie ces calculs puisque, si l’on ne voit pas le trou noir, on voit l’action qu’il exerce sur les particules entrant dans son voisinage (effet d’accrétion).

Or Stephen Hawking a montré que les trous noirs ne sont pas si noirs qu’ils paraissent. Ils émettent de la radiation (Hawking’s radiation) comme le ferait tout objet doté d’une certaine température. Ce faisant, ils perdent de la masse, puisque l’énergie équivaut à la masse. Au bout d’un certain temps, ils finissent par disparaître. Personne n’a jamais constaté la disparition d’un trou noir, mais l’hypothèse a pu rassurer. Loin d’ouvrir des fenêtres, sous forme de Singularité, vers un inimaginable ailleurs, les trous noirs étaient des objets célestes comme les autres.

Cependant l’hypothèse d’Hawking soulevait un problème. Rien ne permettait d’affirmer que les radiations émises par le trou noir dépendaient en quoi que ce soit des informations absorbées par ledit trou. Le trou noir, dans cette hypothèse, ne dissiperait qu’une simple énergie thermique, qui se disperserait dans l’univers. Les informations accumulées ayant permis la constitution du trou noir semblaient définitivement perdues. Pour prendre un exemple, si un véhicule spatial avait été attiré par un trou noir et désintégré, on aurait pu espérer retrouver les informations caractérisant ce véhicule et ses passagers à la sortie. Or les radiations émises par le trou noir, dans le modèle d’Hawking, étaient thermiques, donc aléatoires. L’information concernant le véhicule était définitivement perdue.

Stephen Hawking, formé à l’école relativiste, n’avait pas voulu voir que son hypothèse sur la radiation des trous noirs contredisait les postulats de la physique quantique, pour laquelle les processus sont réversibles (time-reversal invariant), en dehors évidemment de l’observation, qui fige la connaissance que nous pouvons en avoir Pour la physique quantique, le mécanisme ayant aboutit à la destruction d’une information doit, en fonctionnant à l’envers, permettre de retrouver cette information. L’hypothèse d’Hawking a donc provoqué le déclenchement d’une guerre de trente ans que Léonard Susskind, dans son livre, nomme la guerre du Trou Noir, et dont il donne une relation détaillée.

L’enjeu n’était pas mince. Comme le montre le livre de Susskind, si Hawking avait eu raison, tout ce que l’on considère fonder les lois fondamentales de l’univers était à revoir. Non seulement les travaux de Einstein à Feynman devenaient caducs, mais la physique toute entière était à refondre.

Les armes de Susskind dans la Guerre du Trou Noir

Léonard Susskind décrit en détail les péripéties de la guerre. Mais il en profite, et c’est aussi tout l’intérêt du livre, pour proposer une description très vivante des relations entre les têtes pensantes de la physique théorique, dont les universités américaines étaient à l’époque incontestablement le cœur. Dans ce monde, très hiérarchisé en fonction des statuts et des succès universitaires, il se situait non parmi les tous premiers, mais à un rang honorable. Il a pu, grâce à son sens critique et à sa créativité, améliorer progressivement son rang.

Aujourd’hui, il est considéré comme un des pères de la théorie des cordes mais aussi, conjointement avec le physicien néerlandais et prix Nobel Gérard ‘t Hooft, le père d’hypothèses plus ésotériques, notamment le « principe holographique ». Celui-ci postule que ce qui constitue notre monde, jusqu’à nous-mêmes, compose un hologramme projeté jusqu’aux confins de l’espace. En s’appuyant sur ce principe, Susskind et ‘t Hooft ont pu démontrer la fausseté des affirmations de Hawking. Dans la Guerre du Trou Noir, la victoire des deux champions a été indiscutable puisque, en 2004, Hawking a concédé que l’information ne se perdait pas au coeur des trous noirs. Ce ne fut cependant pas Susskind qui a reçu la reddition de l’orgueilleux vaincu, mais le physicien John Preskill, de Caltech, avec qui Hawking avait conclu un pari spectaculaire, dont le prix fut une encyclopédie.
.
Il semble désormais acquis que l’information n’est jamais perdue, même si le trou noir s’évapore. En 1997, le jeune physicien argentin Juan Maldacena a montré que des questions posées par la gravitation quantique peuvent être transposées dans des questions équivalentes impliquant une théorie différente ne faisant pas appel à la gravitation, et où par conséquent l’information ne peut être perdue. On pourrait ainsi en principe prendre un trou noir, le transposer dans la nouvelle théorie, dans laquelle nous pouvons suivre l’histoire de l’information, laisser le trou noir s’évaporer et retrouver l’information. Ce ne sera sûrement pas avec des trous noirs galactiques géants que l’on pourrait ainsi procéder, mais peut-être avec des minis-trous noirs microscopiques, si les futurs accélérateurs de particules permettent d’en produire qui soient suffisamment stables.

Léonard Susskind présente pour nous un autre grand mérite. Il s’agit de sa capacité à représenter pour un public non spécialiste, d’une façon certes approchée mais suffisante, les grands débats de la physique théorique auxquels il a participé. Dans deux ouvrages précédents, The Cosmic Landscape puis String Theory and the Illusion of Intelligent Design, il avait décrit, bien plus clairement selon nous que Brian Greene, toutes les implications de la théorie des cordes, y compris l’hypothèse, encore difficilement reçue dans l’opinion, des Univers multiples. Profondément athée, Susskind avait pensé montrer dans ce dernier ouvrage l’inanité du principe anthropique fort selon lequel l’univers a été réglé par un créateur intelligent pour permettre l’apparition de l’homme et de la conscience. Nous ne l’avions pas suivi pour notre part dans cette voie, pensant que la science ne peut ni prouver ni contredire l’existence de Dieu.

Pour montrer tous les enjeux de la Guerre du Trou Noir, Léonard Susskind a du consacrer l’essentiel de son livre à décrire de la façon la plus claire possible les différents concepts à la base de la physique quantique et de la Relativité, ainsi que ceux de la théorie des cordes et du principe holographique. Il y réussit parfaitement, sauf peut-être dans les derniers chapitres, consacrés à l’anti-Espace De Sitter (ADS) aux branes, à la conjecture de Maldacena, aux trous noirs extrêmes (extreme black holes) et finalement à ce qu’il considère comme la confirmation du principe holographique. Là, l’attention faiblit et le plus consciencieux des lecteurs a tendance à tourner les pages. L’attention se réveille cependant au dernier chapitre. L’auteur nous rapproche enfin de ce que l’on attendait : la perspective que des collisions entre noyaux atomiques puisse créer des trous noirs. Il mentionne à cette fin le Relavistic Heavy Ion Collider de Brookhaven. Mais la même chose pourrait sans doute se produire au Cern lorsque le LHC entrera en opération. Il faut espérer que Léonard Susskind puisse être associé à ces futures expériences, pour nous en expliquer le sens dans un nouvel ouvrage.

Conclusion

Mais nous voudrions pour conclure revenir à la question initialement posée : quel enseignement tirer de tout ceci quand on se trouve confronté aux grandes interrogations de l’existence : que sont l’homme, son esprit, la connaissance scientifique au regard du monde tel que perçu par nos sens ? La physique théorique ne permet évidemment pas de répondre à ces questions. Elle ouvre cependant des fenêtres qu’il nous appartient d’utiliser pour essayer de voir un peu plus loin que dans notre cour. Prenons l’exemple des dimensions de l’univers microscopique. Si comme nos grands-parents le faisaient nous pensions que les objets les plus petits étaient les microbes que venait de découvrir Pasteur, notre imagination ne serait guère sollicitée à voir au-delà et notre curiosité s’éteindrait vite. On se bornerait à bien se laver les mains pour en éliminer les microbes, même si nous admettions qu’ils nous étaient invisibles. . Aujourd’hui, nous apprenons que les forces qui comptent vraiment pour définir notre monde se mesurent en échelles dites de Planck : longueur (10-32 centimètres), masse (10-8 kilogrammes) et temps (10-42 secondes), toutes longueurs, masses et durées que nous n’aurons jamais aucune chance de percevoir directement, même avec les plus forts microscopes. Ces structures qui pourtant sont celles autour desquelles s’organise notre corps sont aussi éloignées de nous que le sont les montagnes couvrant une planète située dans une galaxie à 10 milliards d’années-lumières de la nôtre.

Au plan cosmologique, comme le rappelle Léonard Susskind dans sa conclusion (elle même rappel de son livre précité The cosmic landcape), nous sommes confrontés à des situations aussi étonnantes. Dans un univers en expansion exponentielle, sous l’influence de la constante cosmologique, quelle que soit la valeur de cette dernière, en tout point de l’espace que regarde n’importe quel observateur dans le cosmos, il ne verra pas au-delà d’un horizon dit cosmologique d’environ 15 milliards d’années lumière. Au-delà, les galaxies ont atteint des vitesses d’éloignement supérieures à la vitesse de la lumière si bien que cet observateur ne pourra plus jamais les revoir, et ceci éternellement. De cette constatation, Léonard Susskind tire une étonnante conclusion, que nous vous laisserons découvrir, relative à la similitude entre le rayonnement d’un trou noir vers l’extérieur et le rayonnement de l’horizon cosmique vers l’intérieur.

Si bien dit-il, que si la confusion et la perte de repère règnent dans la physique moderne, cependant quelques nouveaux patterns semblent émerger. Ils semblent ne pas comporter de significations. Mais comme ce sont des patterns, ils en ont sûrement. Ces significations se découvriront un jour ou l’autre, entraînant l’apparition de nouvelles mathématiques et de nouvelles logiques.

Comme quoi la lecture d’un ouvrage sur la physique théorique est dix fois plus excitantepour l’esprit que le mieux construit des romans d’aventures. Il s’agit en fait de la vraie Fontaine de Jouvence.

Note
1)  En vous présentant il y a quelques mois le livre remarquable de Lee Smolin « The Trouble with Physics »
(http://www.automatesintelligents.com/biblionet/2007/juil/troublewithphysicshtml.htm)
nous nous disions convaincus par son argumentation, selon laquelle étudier la théorie des cordes est une perte de temps et détourne de l’étude des vrais problèmes de la physique. Mais depuis, nous avons changé d’avis, en fréquentant notamment les écrits de Michel Cassé et de Aurélien Barrau.

Repost 0
14 juin 2008 6 14 /06 /juin /2008 21:59
Le cerveau bayésien
par Jean-Pa Baquiast 14/06/2008

Deux articles de grande portée épistémologique ont été publiés à un mois d’intervalle par le NewScientist, dont la fécondité ne cesse de nous étonner. Ces articles s'articulent logiquement. En voici une présentation commentée rapide.

Some swans are grey

Le premier article, « Some swans are grey » de Robert Matthews (10 mai 2008, p. 44) relativise l’intérêt de la falsifiabilité proposée par Carl Popper dans « La logique de la découverte scientifique, 1934 » afin de distinguer les « vraies » hypothèses scientifiques des hypothèses présentées par les « fausses sciences » 1). Selon Popper, une théorie scientifique ne tire pas sa valeur du fait qu’elle est justifiée par un certain nombre d’observations. Elle n’a de portée que si elle laisse ouverte la possibilité qu’une expérience puisse la falsifier, autrement dit la contredire. Une théorie affirmant que pour telle ou telle raison toutes les planètes sont sphériques n’est pas démontrée par l’accumulation d’observations montrant des planètes sphériques. Elle peut par contre prétendre à la rigueur scientifique car elle laisse ouverte l’hypothèse qu’une planète puisse être cubique. Tant qu’une telle planète cubique ne sera pas observée, la théorie demeurera valide. Si on observait une planète cubique, la théorie devrait par contre être modifiée. On sait que les poppériens avaient reproché aux freudiens de se placer en dehors de la science expérimentale. « Vous nous expliquez que tous ces symptômes révèlent l’existence de l’inconscient, mais votre conception de l’inconscient est si extensive qu’elle ne permet pas d’affirmer que tel symptôme ne relève pas de l’inconscient ».

Ajoutons que les expériences destinées à prouver telle théorie ou hypothèse dépendent de l’état de l’instrumentation scientifique, lequel se perfectionne sans cesse. Il faut donc distinguer l’infalsifiabilité de principe et l’infalsifiabilité de fait. On ne dira pas qu’une théorie affirmant la sphéricité des planètes n’est pas falsifiable au prétexte que l’on ne dispose pas d’instruments astronomique permettant d’observer toutes les planètes de l’univers (infalsifiabilité de fait). Elle est falsifiable parce qu’il suffirait d’observer une planète cubique – ce que rien n’interdit en principe de faire – pour l’invalider. Si au contraire j’affirmais que les planètes ont une âme, ce qu’aucun instrument astronomique ne pourra jamais vérifier, j’énoncerais une hypothèse infalsifiable en principe.

La critique poppérienne est aujourd’hui largement utilisée par les scientifiques voulant montrer que la cosmologie n’est pas une « vraie science » 2) Selon eux, ni la théorie des cordes ni des hypothèses telles que celle des multivers ne peuvent être falsifiées, car elles ne comportent pas de prédictions pouvant être contredites par l’expérience. Ce n’est le cas ni de relativité ni de la physique quantique ni même d’hypothèses apparemment très contre intuitives comme celles relatives aux trous noirs. D’autres cosmologistes rappellent au contraire avec pertinence qu’il ne faut pas confondre infalsifiabilité de principe et infalsifiabilité de droit, comme indiqué ci-dessus. Il est n’est pas possible en effet d’affirmer qu’aucune expérience ne permettra jamais de tester les hypothèses de la théorie des cordes ou du multivers. Les astrophysiciens s’efforcent au contraire en permanence d’en imaginer.3) Quoiqu’il en soit, quel que soit le mérite du travail d’épistémologie critique fait par Popper, permettant de distinguer les « vraies sciences » des fausses sciences ou superstitions, ce travail fait actuellement l’objet, non d’une remise en question radicale, mais de tentatives d’approfondissement voire de dépassement. Aujourd’hui, beaucoup de jeunes scientifiques se plaignent de ne pas oser formuler d’hypothèses audacieuses au prétexte que selon Popper ces hypothèses ne seraient pas falsifiables. Pour eux, le développement des connaissances scientifiques ne peut se faire que sur un très large soubassement d’hypothèses faisant parfois appel à une imagination non immédiatement vérifiable. C’est un peu ce que rappelait le regretté Paul Feyerabend dans son ouvrage « Pour l’anarchisme méthodologique ». Il ne faut pas brider l’imagination. Ces chercheurs constatent en effet avec dépit qu’après quelques années, leurs hypothèses, si elles avaient été publiées, auraient été vérifiées grâce aux progrès de l’instrumentation.

Dans le même temps, les conditions dans lesquelles sont menées les vérifications expérimentales méritent de plus en plus l’examen critique. La preuve empirique n’existe pas en soi. Elle est toujours construite, notamment à partir d’une théorie implicite, sinon de véritables préjugés non scientifiques. Dans d’autres cas, on constate que des preuves expérimentales utilisées pour démontre la fausseté d’une théorie ne portent pas sur la théorie elle-même mais sur des conséquences attribuées par erreur à celle-ci. Par ailleurs, même des théories reconnues comme fausses, telle la gravitation newtonienne, peuvent encore servir de cadres de prédiction valables dans toute une série de phénomènes de la physique courante. Les scientifiques cherchent donc à trouver autre chose que le test de Popper pour garantir le caractère scientifique d’une hypothèse ou théorie intéressant un domaine nouveau. Sans le rejeter par principe, ils cherchent au moins à l’affiner.

Mais comment ? C’est là qu’intervient un raisonnement faisant appel aux probabilités, dit bayésien en l’honneur du mathématicien et statisticien britannique du 18e siècle Thomas Bayes. Dans cette approche, la « vérité » ou « plausabilité » d’une hypothèse est fonction du nombre de preuves qui jouent en sa faveur. Il ne s’agit pas nécessairement de preuves expérimentales déjà obtenues en fonction de l’état actuel des instruments, mais de probabilités de preuves, preuves susceptibles d’être obtenues dans un avenir pas trop éloigné. Le chercheur en ce cas ne cherche pas la falsifiabilité mais la plausibilité d’une hypothèse, en accumulant le plus de preuves ou probabilités de preuves en sa faveur. Plus l’hypothèse est prouvée, plus elle sera considérée comme plausible. Mais elle ne sera pas rejetée si un certain nombre d’expériences la contredisent. On pourrait dire, en forçant un peu les termes, qu’une hypothèse devient crédible dès lors qu’elle repose sur plus de 50% de preuves favorables. Pour choisir entre des théories rivales, c’est la théorie qui présente le plus fort pourcentage de résultats favorables actuels, ou la plus forte probabilité de résultats favorables futures, qui devra être élue. Il faudra donc faire un véritable pari sur elle

Pour en revenir à l’hypothèse des multivers, celle-ci peut être considérée comme scientifique en termes bayésiens, car c’est elle qui est aujourd’hui compatible avec le plus grand nombre d’observations expérimentales conduites, non à son propos, mais à partir des théories sous-jacentes, gravitation et mécanique quantique. Il s’agit donc, en l’état actuel de celles-ci, du « meilleur pari » à conseiller aux bookmakers de la cosmologie.

Essence of thought

Le second article que nous présentons et discutons dans ce texte, Essence of thought, est de Gregory T. Huang (31 mai 2008, p. 30). Il relate une direction de recherche visant à formuler par l’intermédiaire d’une équation unique simple toutes les opérations réalisées par le cerveau.

Revenons en arrière. Nous venons de voir comment les scientifiques s’efforcent actuellement de réintroduire l’imagination scientifique dans la pratique quotidienne d’élaboration des connaissances. Certes, la sanction suprême que représente l’expérience ne peut pas être refusée. Mais la capacité de formuler des hypothèses sur le monde ne doit pas être inhibée par la peur de ne pas pouvoir proposer d’expériences falsificatrices. La formulation de ces hypothèses ouvrira obligatoirement un large éventail de vérifications expérimentales, les unes susceptibles de confirmer les hypothèses, les autres de les infirmer. Le retour d’expérience permettra d’identifier celles des hypothèses disposant du plus grand nombre de preuves expérimentales favorables, voire de la plus grande probabilité d’être ultérieurement vérifiées par les expériences à venir. Ces hypothèses seront donc considérées comme présentant le modèle du monde le plus apte à comprendre le milieu dans lequel est plongé le scientifique.

Or c’est précisément de cette façon que les systèmes nerveux des animaux procèdent pour construire les représentations du monde dont ils ont besoin. Leur cerveau, ainsi que l’a bien montré Christopher Frith 4) , est bombardé en permanence de messages venant des sens. Pour les interpréter, le cerveau élabore des hypothèses relatives à la signification de ces messages, en s’appuyant sur le vaste catalogue des expériences déjà vécues par le sujet et mémorisées dans les aires adéquates du cerveau. Les humains ne se distinguent pas fondamentalement en cela des autres animaux. Si mes sens reçoivent des informations sonores et visuelles émises par un insecte se rapprochant de moi, mon cerveau compare ces informations avec celles correspondant aux « signatures » qu’il a conservées en mémoire à la suite des interactions précédentes avec des insectes. Ceci afin d’en tirer les ordres permettant d’éviter des situations désagréables ou dangereuses. Le cerveau fera une première hypothèse, en « supposant » que l’insecte est un hyménoptère piqueur et non une mouche. Il vérifiera immédiatement cette hypothèse en commandant aux organes sensoriels d’affiner leurs observations. Si l’hypothèse de l’hyménoptère est confirmé (renforcée), restera à la préciser : guêpe, abeille ou frelon ? Le cerveau procédera à des observations complémentaires. Il faudra ensuite faire des hypothèses sur la direction et la vitesse de l’objet ciblé ainsi que sur la meilleure façon d’éviter un choc frontal. Le tout en quelques centièmes de seconde. Les sous-mariniers reconnaîtront sans peine le travail que fait un asdic moderne couplé avec un ordinateur pour identifier un écho susceptible de révéler la présence d’un ennemi.

Le schéma que nous venons de décrire présente cependant un défaut. Il laisse supposer au lecteur que le cerveau se comporte en véritable chef d’orchestre capable de déclencher au choix les meilleures actions et réactions nécessaires à la survie, comme le ferait l’humain chef de quart à bord du sous-marin évoqué ci-dessus. En réalité, toutes les opérations évoquées ici se déroulent sur un mode automatique, par mise en œuvres d’algorithmes simples. Ces algorithmes eux-mêmes ne tombent pas du ciel, ils ont nécessairement résulté de millions d’années d’évolution. Mais peut-on les identifier?

La réponse n’était pas claire, jusqu’à ces derniers temps. On a certes proposé depuis longtemps l’hypothèse que le cerveau se comporte comme un système automatique de reconnaissance de formes. Il construit une première forme hypothétique à partir des signaux initialement reçus, il la compare à des formes voisines conservées en mémoire, affine si nécessaire l’analyse, puis finalement propose un diagnostic permettant ou bien de reconnaître et nommer la forme perçue ou bien de la classer comme inconnue. Le tout utilise des empilements de réseaux neuronaux du type des neurones formels s’échangeant de l’information 5) .Cependant, la complexité du cerveau est telle que, si l’on peut identifier à peu près bien les mécanismes élémentaires correspondant à ces diverses phases, une grande obscurité demeure concernant les processus neuronaux profonds intéressant notamment l’apprentissage et la prise de décision. Le cerveau accomplit de nombreuses fonctions complexes, souvent en parallèle, perception, attention, émotion, raisonnement, mémorisation, apprentissage. Il utilise un nombre considérable de cellules différentes, réparties dans de multiples aires de compétences elles-mêmes reliées par un tissu apparemment inextricable de fibres associatives. Les échanges entre tous ces acteurs obéissent-ils à des logiques chaque fois différentes ou font-elles appel à une logique commune ?

La bonne nouvelle est qu’une réponse à ces questions difficiles semble s’esquisser. Gregory T. Huang rapporte en effet, dans l’article précité du NewScientist, qu’une équipe de l’University College London (UCL), dirigée par Karl Friston 6)  a proposé une loi mathématique qui pourrait selon certains constituer la « grande théorie unifiée » du cerveau. Le neurologue français Stanislas Dehaene, professeur au Collège de France, aurait marqué son intérêt pour ce travail, qui devrait selon lui apporter des idées neuves très profondes dans les sciences cognitives 7). Les hypothèses de Karl Friston reposent sur la théorie du cerveau bayésien inspirée des idées que nous venons de résumer dans la première partie de notre article, relativement à la plausibilité des hypothèses au regard des vérifications expérimentales. Le cerveau bayésien est conçu comme une machine probabiliste qui fait constamment des prédictions sur le monde et les actualise en fonction de ce qu’il perçoit.

En 1983, le chercheur canadien Geoffrey Hinton avait suggéré que le cerveau prenait des décisions basées sur les incertitudes du monde extérieur. Ultérieurement d’autres chercheurs avaient envisagé la possibilité que le cerveau puisse représenter ses connaissances sur le monde en terme de probabilités. Une distance dans l’espace, ainsi, ne serait pas estimée par un nombre unique mais par une série de valeurs dont certaines apparaissent plus probables que les autres. L’expérimentation, c’est-à-dire les nouveaux messages reçus des sens, obligerait à modifier (actualiser) ces valeurs en temps réel. On emploie le terme de cerveau bayésien parce que Thomas Bayes avait réalisé une méthode permettant de calculer comment évolue la probabilité d’un évènement au reçu de nouvelles informations le concernant.

Le fait que le cerveau fasse en permanence des prédictions sur le mode bayésien concernant aussi bien les évènements extérieurs que les modifications de ses propres états internes n’est plus discuté aujourd’hui. Mais cela n’explique pas pourquoi le cerveau fonctionne de cette façon, ceci avec semble-t-il une très grande uniformité quelles que soient les zones cérébrales concernées. Pour expliquer cette convergence, Friston a repris l’hypothèse du cerveau bayésien en l’appliquant non seulement à la perception mais à toutes les autres fonctions du cerveau. Il montre que tout ce que fait le cerveau est conçu pour minimiser l’erreur de perception (assimilée au concept d’ « énergie libre » pour des raisons que nous ne développerons pas ici, découlant de la modélisation sur les réseaux de neurones formels). Le corps considéré comme une machine thermodynamique obligée pour survivre d’économiser son énergie a en effet intérêt à minimiser l’erreur de perception afin de réduire le nombre d’opérations nécessaires à l’affinement des messages reçus des sens et minimiser par ailleurs l’effet de surprise, toujours coûteux, lorsque l’erreur de perception est élevée. « Tout ce qui peut changer et s’adapter dans le cerveau le fera pour réduire l’erreur de perception, depuis la décharge du neurone individuel, le câblage entre ces neurones, les mouvements des yeux et les choix de la vie quotidienne ».

L’incitation à la plasticité cérébrale, grâce à laquelle le cerveau modifie ses câblages en fonction de l’expérience, en découle. Il s’agit du mécanisme de base permettant la mémorisation et l’apprentissage. Mais plus généralement, c’est l’ensemble des échanges entre les niveaux d’entrée des informations sensorielles et les différents niveaux de réponse et d’intégration des couches corticales supérieures qui obéirait à cette exigence d’économie 8). Selon Friston, l’hypothèse pourrait expliquer également la façon dont s’organisent et travaillent les neurones en charge des fonctions les plus nobles du cerveau : l’élaboration de la pensée et sans doute même celle de la conscience de soi. Les neurones miroirs qui s’activent lorsque l’on regarde un tiers exécuter un mouvement, et qui s’activent de la même façon lorsque l’on fait soi-même ce mouvement, sont en effet considérés comme jouant un rôle important dans la production de la conscience. Il serait intéressant de montrer qu’ils fonctionnent eux-aussi sur la base de processus simples visant à minimiser l’erreur de perception (perception externe et perception interne). Beaucoup des prétendus « mystères de la conscience » pourraient s’éclaircir. La conscience peut en effet être considérée comme la perception par certains neurones spécialisés des états internes du cerveau, perception organisée autour d’un modèle du Moi développé dans le cadre des interactions sociales. Nous reviendrons sur cette propriété possible du cerveau Bayésien « conscient » ultérieurement.

Si ces hypothèses étaient vérifiées par les diverses expériences en cours faisant à la fois appel à des modèles informatiques et à l’utilisation de l’imagerie cérébrale, nous disposerions d’une explication simple permettant de comprendre l’apparition et le développement progressifs des réseaux neuronaux dans la suite des espèces vivantes et ce jusqu’à l’homme. On retrouverait en effet à la base de ces constructions des principes universels d’organisation visant à économiser l’énergie. On peut identifier ces principes aussi bien dans l’anatomie et la physiologie des cellules et organes que dans les systèmes thermomécaniques du monde non biologique. Par ailleurs, de nombreuses applications, en sciences cognitives, en thérapeutique humaine et, bien sûr, en robotique autonome, pourraient être envisagées.

Notes
1) Il faudrait distinguer théorie et hypothèse. La plupart des articles destinés au grand public ne le font pas, notamment ceux du NewScientist analysés ici. Nous ne le ferons donc pas non plus. Admettons seulement que la théorie désigne le cadre général dans lequel s’inscrivent de nombreuses hypothèses et aussi de nombreuses vérifications expérimentales, dites empiriques. L’hypothèse est généralement de portée plus limité et ne s’accompagne pas toujours d’une formulation théorique développée. Ainsi, au sein de la théorie de la relativité, certains chercheurs émettent l’hypothèse que la gravité pourrait ne pas s’exercer de la même façon dans tous les points de l’espace-temps. Si cette hypothèse était démontrée expérimentalement, elle n’obligerait pas à abandonner le cadre théorique tout entier de la relativité, mais à le modifier sur certains points. Rappelons par ailleurs qu’aucune théorie scientifique ne pouvant se prétendre définitive, il est légitime de la présenter comme hypothétique. Mais les théories confirmées par toutes les expérimentations inspirées par elles présentent plus de solidité que les hypothèses théoriques reposant sur un petit nombre d’observations, elles-mêmes parfois conduites dans des conditions discutables.
2) Peter Woit, Not even wrong, traduit par Michel Cassé, Même pas fausse, Dunod 2007
3) Voir notre entretien avec Michel Cassé. http://www.automatesintelligents.com/interviews/2007/oct/casse.html
4) Professeur Chris Frith. Voir notre recension de son livre Making up the mind
How the Brain Creates our Mental World
http://www.automatesintelligents.com/biblionet/2007/juil/frith.html
5) Sur les neurones formels, voir
http ://www.chimique.usherbrooke.ca/cours/gch445/neurones-intro.html
6) Professeur Karl Friston http://www.fil.ion.ucl.ac.uk/Friston/
NB: Le Wellcome Trust Centre for Neuroimaging compte le professeur Chris Frith comme chercheur émérite.
7) Voir notre entretien avec Stanislas Dehaene http://www.automatesintelligents.com/interviews/2008/dehaene.html
8) Rappelons que dans ce schéma, un double circuit d'information s'organise: celui des informations reçues par les sens, informations entrantes ou bottom up, et celui des informations émises par le cortex qui constituent les hypothèses auquel celui-ci procède pour essayer d'identifier les données entrées en les comparant à des données précédemment mémorisées. Elles peuvent être dites descendantes ou top down. Ces données commandent en général des mouvements du corps permettant d'affiner les perceptions sensorielles. L'erreur de perception résulte de l'écart entre les résultats produits par ces deux types de circuit. C'est elle que, pour des raisons d'économie, le système global s'efforce de minimiser. Les organismes y réussissant le mieux ont le plus de chances de survie.

Repost 0
26 avril 2008 6 26 /04 /avril /2008 18:19

La révolution du zootechnocène
par Jean-Paul Baquiast 24/04/2008
( en discussion )

Appelons Ere du zootechnocène la période d’évolution de la Terre qui s’est ouverte avec l’apparition des premiers outils techniques au sein de certaines espèces de primates, voici environ 1,5 million d’années avant le temps présent. Cette ère évolutive, qui se poursuit encore, est caractérisée par la prolifération sur le mode darwinien d’organismes zootechniques qui ont changé et continuent à changer profondément les équilibres géologiques et biologiques précédents.

On sait que certains scientifiques ont proposé d’appeler cette même période l’« anthropocène », compte tenu des bouleversement apportés par l’homme (anthropos) aux milieux géologiques et biologiques antérieurs. Nous voudrions ici introduire un changement important de point de vue. Ce n’est pas l’ « homme », concept dont les définitions sont multiples et dont les correspondances dans la nature n’ont cessé de changer au cours des temps, qui serait le facteur causal de ces bouleversements. Nous estimons que le regard contemporain, inspiré par l’anthropocentrisme traditionnel, s’attache à l’homme comme le regard de l’imbécile, selon le dicton chinois, s’attache au doigt du sage qui montre la lune.

De ce fait, il ne voit pas l’essentiel, l’évolution induite par la prolifération des techniques instrumentales dont les lois de développement obéissent à d’autres logiques que celles mises en œuvre par les organismes vivants. Certes, ces techniques instrumentales ont pris naissance (pour l’essentiel) au sein des sociétés humaines, à l’intérieur desquelles elles ont trouvé les « aliments » nécessaires à leur croissance. Mais les sociétés humaines ne les ont pas plus créées qu’elles n’ont créé les maladies contagieuses qu’elles hébergent également. Elles n’en sont pas davantage « responsables ». Il s’agit de développements parallèles co-induits (s’influençant respectivement) mais répondant à des logiques différentes. Ces différences vont peut-être apparaître plus clairement dans les prochaines années. Le temps parait venu en effet où, sans couper tous liens avec les sociétés humaines, les techniques instrumentales prendront un essor propre, de type auto-évolutionnaire ou auto-référent, grâce auquel elles construiront des mondes où le biologique « traditionnel » jouera un rôle de moins en moins grand au regard de ce que l’on nomme l’ « artificiel. »

Les enseignements de la mémétique

Mais comment, dira-t-on, prêter aux techniques instrumentales, objets inobservables par les moyens de la science traditionnelle, des propriétés leur donnant la capacité d’agir de façon proactive sur le monde matériel ? Nous voudrions pour répondre à cette question inscrire l’approche proposée ici dans une tradition déjà vieille de quelques décennies, celle de la mémétique. On sait que la mémétique, à la suite de Richard Dawkins et de quelques autres chercheurs tels que Suzan Blackmore, pense possible d’expliquer de façon scientifique l’évolution de l’espèce humaine par le développement en son sein d’entités informationnelles réplicatrices sur le mode darwinien, qui ont été nommés les mèmes. Pour la mémétique, l’homme n’existe pas en tant que tel. Certes, l’espèce humaine (sapiens sapiens) parait définie au plan génétique par la possession d’un génome qui n’aurait pas varié depuis quelques dizaines de milliers d’années. Mais ce ne sont pas les mutations survenues au sein de ce génome qui auraient été la cause première de son évolution récente. Ces mutations, ayant par exemple permis l’acquisition d’un « gros cerveau », ont été induites par la prolifération au sein des groupes humains d’innombrables entités de type culturel, se reproduisant par imitation, les mèmes.

Pour Suzan Blackmore, par exemple, des mèmes ayant pris la forme des « mots » échangés lors des premiers échanges langagiers, imités et transformés sans cesse au sein des sociétés primitives, ont provoqué l’expansion des aires cognitives du cerveau. A côté des mots, de nombreux autres mèmes, prenant la forme de modules comportementaux reproductibles par l’imitation, tels des gestes ou attitudes, ont construit et continuent à construire des édifices sociaux transcendant les individus humains. Les méméticiens n’aiment pas beaucoup que l’on compare les mèmes à des virus ou à des bactéries. Cependant, les mèmes se reproduisent et colonisent les humains sur un mode très ressemblant à celui des virus ou des bactéries. Leur comportement est « égoïste », en ce sens qu’ils se développent là où le terrain leur est favorable. Parfois, ce développement peut bénéficier à la survie adaptative de leurs hôtes, donnant naissance à des symbioses dont chaque partenaire profite (c’est ce que font certaines bactéries qui peuplent les viscères des animaux en permettant à ceux-ci l’assimilation des aliments). Mais dans d’autres circonstances, le développement du mème entraîne la destruction de l’hôte. Cette destruction ne provoquera pas nécessairement celle du mème, qui ne s’en répandra que mieux 1)

En simplifiant, nous retiendrons que pour la mémétique, les contenus de la culture humaine d’une part, ceux du cerveau des individus humains d’autre part, sont les produits de la compétition ou de la coopération d’un ensemble très riche de mèmes. Suzan Blackmore pousse le paradoxe en affirmant que le Moi, revendiqué par l’individu conscient comme l’expression la plus haute de sa personnalité, n’est pas autre chose qu’un « mèmeplexe », exprimant la présence de mèmes dominants ayant pris possession de son cerveau. Pour Richard Dawkins, ce serait la compétition-coopération darwinienne entre gènes « égoïstes » qui permettrait de comprendre l’histoire génétique des espèces vivantes à travers les âges. Parallèlement, ce serait la compétition-coopération darwinienne entre mèmes « égoïstes » qui permettrait de comprendre l’histoire des cultures animales et humaines à travers les âges. Il existe évidemment des interactions permanentes (dites parfois épigénétiques) entre ces deux évolutions, nature et culture, dont tous les phénomènes du monde vivant actuel sont les résultats.

On voit donc que dans l’esprit de la mémétique, des agents informationnels invisibles pour le regard non averti jouent un rôle éminent dans la transformation d’un monde physique dont les composants chimiques et biochimiques sont, eux, facilement observables. Cela n’a rien d’étonnant pour les théoriciens de l’information. Plutôt qu’étudier des objets physiques immédiatement observables (par exemple une mélodie, prenant la forme matérielle d’une suite de notes jouées par un instrument ou transcrite sur un document papier), ils attachent de l’importance aux relations en réseaux qui s’établissent entre ces objets physiques, par l’intermédiaire des corps et cerveaux momentanément en relation avec eux ou occupés par eux. Ce sont ces relations qui provoquent les changements du monde matériel que nous pouvons constater.

Pour reprendre l’exemple de la Marseillaise, ce ne sera pas la texture de la mélodie qui intéressera les méméticiens, mais le fait que cette mélodie, reprise par des centaines d’humains, puisse constituer un signal politique déclencheur d’un assaut victorieux. Le mème, qui est un agent informationnel, agit sur le monde matériel par l’intermédiaire du ou des corps qu’il mobilise. Pour expliquer le pourquoi de l’action matérielle visible induite par tel ou tel mème, il faut retracer l’histoire évolutive de ce mème au travers des milieux corporels ou immatériels qu’il a traversé. On n’étudiera pas le mème d’un côté et les milieux d’un autre, mais l’évolution de leurs relations respectives.

Ceci posé, les méméticiens accepteront-ils de considérer comme des mèmes les techniques instrumentales et les usages qu’elles véhiculent. Qui dit technique instrumentale dit instrument. Or un instrument, par exemple une arme à feu, est un objet du monde matériel. Il ne s’agit pas d’idées ou d’images. Mais à nouveau, ce ne sera pas l’instrument lui-même qui nous intéressera en premier lieu. Ce seront les comportements que sa manipulation provoquera chez ses utilisateurs, autrement dit les conséquences des relations entre l’instrument et les hommes.

Le lecteur de cet article ne devra donc pas s’étonner de nous voir élargir l’approche mémétique, dont la fécondité est indiscutable, en proposant de prendre comme objet d’étude scientifique les relations qui s’établissent entre les instruments techniques et leurs utilisateurs humains, plutôt qu’en attachant le regard soit sur les instruments seuls, soit sur les utilisateurs seuls. Ajoutons qu’enraciner l’approche mémétique dans le monde relativement concret des techniques instrumentales et des comportements qu’elles génèrent au sein des sociétés humaines lui donnera un terrain solide qui, selon nous, manque encore à beaucoup des développements de cette science. En effet, un des points faibles de la mémétique « grand public », celle qui fait l’objet de milliers d’échanges dans les listes de diffusion mémétiques, est de ne pouvoir définir avec précision ce qu’elle entend par mème. Tout peut jouer ce rôle, un comportement que l’on imite, un refrain que l’on colporte, une image du type de celles que distribuent désormais à profusion les réseaux multimedia modernes, mais aussi un outil qui passe de mains en mains en générant des comportements stéréotypés. Pour nous, ce devrait être dorénavant autour de l’évolution de l’outil et de sa technologie, points forts indiscutables, que la mémétique devrait concentrer ses efforts.

Quoiqu’il en soit, notre propos ici n’est pas de réformer la mémétique, mais seulement de profiter du regard nouveau qu’elle propose pour rajeunir et compléter les études consacrées par la sociologie traditionnelle aux relations entre l’homme, ses outils et plus généralement les machines (voir par exemple les travaux de Simondon ou de Foucault). Ces études vont d’un extrême à l’autre. Ou bien elles mettent l’accent sur l’homme considéré comme responsable de l’évolution des techniques, ou bien elles considèrent les techniques comme responsables de l’évolution de l’homme (notamment dans l’esprit, très oublié aujourd’hui, du matérialisme d’inspiration marxiste). Ce faisant, elles n’aboutissent à rien de constructif car elles passent à côté de ce qui devrait être l’objet de leurs études, l’organisme ou le superorganisme né de la relation permanente et co-évoluante (co-développement) associant les techniques et leurs utilisateurs du monde vivant. 2)

Nous proposons donc ici ce que l’on pourrait nommer une version zootechnocentrée de la mémétique. A cette fin, nous ferons l’hypothèse que l’évolution du monde terrestre résulte des compétitions darwiniennes s’établissant au sein d’une faune proliférante d’organismes encore mal identifiés, véritables acteurs dont il est temps de faire sérieusement l’étude, et que nous nommerons des organismes zootechniques. Ces compétitions ne se substituent pas aux compétitions existant entre les gènes et entre les mèmes, mais elles élargissent leur territoire. Elles obligent à prendre en compte, comme on le verra, l’ensemble des sphères où se joue l’avenir de la vie sur la Terre : géosphère, biosphère et infosphère. Mais elles obligent aussi à revoir toutes les idées reçues relatives à l’homme, à la conscience, à son libre-arbitre...

Exemples d’organismes zootechniques

Appelons organisme zootechnique un ensemble symbiotique constitué d’un certain nombre d’organismes biologiques (parlons d’humains pour simplifier cette première présentation) réunis par l’utilisation d’un objet ou d’un processus physique qui n’est pas un organisme biologique mais qui évolue cependant sur un mode darwinien (mutation/sélection) selon des lois qui lui sont spécifiques. L’objet sert d’outil aux humains. Ceci signifie qu’il leur fournit énergie et subsistances. Les humains, en échange, apportent à l’objet les soins qui lui permettent de survivre et de muter en fonction de ses lois évolutives. Il s’agit d’une évolution que l’on dira artificielle parce qu’elle n’obéit pas aux processus de l’évolution darwinienne biologique, mais elle s’inscrit cependant dans les règles de l’évolution darwinienne par mutation-sélection.

Les organismes zootechniques sont de plus en plus nombreux et de plus en plus performants, leur nombre se multipliant selon une loi exponentielle. Comme cependant ils se développent dans un monde naturel dont les ressources ne sont pas illimitées, ils entrent en compétition pour l’accès aux ressources, détruisant les équilibres du milieu terrestre acquis depuis des millénaires. Nul ne peut évidemment prédire l’avenir des conflits ainsi engagés, ni le visage du monde de demain.

Prenons pour illustrer un propos qui pourrait demeurer trop abstrait, parmi des centaines d’autres possibles, l’exemple de trois grands organismes zootechniques qui influencent en profondeur l’évolution des écosystèmes contemporains. Il s’agit du système [homme-arme individuelle], du système [homme-automobile] et du système [homme-robot autonome]. Le premier remonte à l’histoire des civilisations, le second a pris un grand essor à partir du début du 20e siècle au sein des sociétés industrielles, le troisième commence à se mettre en place dans certaines sociétés technologiquement avancées.

Pour lire la suite (l'article est trop long pour ce blog) faire svp
http://www.admiroutes.asso.fr/larevue/2008/88/zootechnocene.htm
Merci de votre intérêt

 

 

Repost 0
5 mars 2008 3 05 /03 /mars /2008 21:24

Philosophie des sciences
De l'évolution et de l'émergence II
par Jean-Paul Baquiast 03/03/2008



II. Une histoire scientifique consensuelle de l'univers

Nous pensons que la science moderne peut proposer aujourd'hui, si elle sait s'affranchir des préjugés métaphysiques et religieux hérités du passé, une histoire consensuelle de l'évolution de l'univers. Cette histoire fera place à la reconnaissance de phénomènes émergents (au sens fort) lorsque la science reconnaîtra qu'elle ne peut leur trouver – au moins momentanément - des explications réductionnistes. Mais face à ces phénomènes, elle ne fera pas appel à des explications spiritualistes qui ne pourraient que l'égarer dans des voies qui ne sont et ne doivent pas être les siennes. Elle admettra par contre que confrontée à l'inexplicable, elle pourra formuler des hypothèses théoriques non immédiatement vérifiables par l'expérience. Les épistémologues pourraient à juste titre les ranger dans le domaine de la métaphysique matérialiste (JP.Baquiast, op.cit.).

Selon les hypothèses les plus courantes, l'univers est le fruit d'une évolution, au cours de laquelle ont émergé des structures de plus en plus complexes. Cette évolution se poursuit indiscutablement aujourd'hui, dans des directions partiellement identifiables mais sont les résultats proches ou lointaines ne peuvent absolument pas être prédits, sauf en termes de probabilités elles-mêmes peu fiables. Nous devrons cependant envisager ici certaines de ses directions.

Si l'on admet les grandes lignes de l'histoire du monde que nous évoquons ici, on dira qu'elle a donné naissance à plusieurs substrats ou couches superposés, qui s'additionnent et se modifient réciproquement sans cesse.

Le monde quantique.

Pour simplifier ; on désignera par ce terme ce que l'on nomme aussi le vide quantique, empli d'énergie fluctuante sur le mode aléatoire. Le monde quantique ne peut pas être décrit dans les termes de temps et d'espace de la physique macroscopique. Il faut lui appliquer les interprétations que la physique quantique utilise pour décrire les observables quantiques, qui peuvent être considérées comme des fenêtres ouvertes sur quelque chose dont on ne peut rien dire en termes littéraires : principe de superposition, de non-localité, d'incertitude. On ne parlera donc pas d'évolution à son sujet puisqu'il exclu le temps. Le monde quantique est, a été et sera toujours. Certains matérialistes sont un peu gênés d'accepter cette description, qui ressemble beaucoup à la façon dont les croyants se représentent la divinité. Mais nous pensons que l'argument n'est pas suffisant pour la refuser.

Le monde quantique est par ailleurs non déterministe ou aléatoire. Ce n'est sans doute pas lui qui est non déterministe, mais la façon dont il se présente à nos observations macroscopiques, ancrées dans un espace-temps bien déterminé. Ce serait le seul domaine de la physique où l'on pourrait dire que l'on observe du hasard vrai, une sorte de hasard ontologique. Certains physiciens se demandent cependant, nous y avons fait allusion, si n'existeraient pas des lois infra-quantiques permettant de le décrire, au moins à certains niveaux, et donc de prédire certaines de ses manifestations. Si ceci se vérifiait, il faudrait sans doute réintroduire l'idée que le substrat quantique du monde matériel.

Les univers (le multivers)

On admet généralement que les fluctuations aléatoires du vide quantique, si elles ne s'effondrent pas sur elles-mêmes, peuvent donner naissance à des bébés-univers analogues à ce qu'était le nôtre au moment du Big Bang. Il s'agit alors d'une émergence de matière-énergie aux propriétés bien définies au sein d'un espace temps bien défini. Mais chaque bébé univers devrait relever de lois fondamentales toutes différentes. Ceci s'expliquerait par le fait que née de la décohérence d'une particule quantique, la particule à la source de la naissance du bébé-univers pourrait se trouver placée, de façon aléatoire, n'importe où dans l'espace illimité des possibles caractérisant le vide quantique. Chaque bébé-univers, dès son émergence, évoluerait dans son espace-temps en fonction des lois fondamentales ayant émergé à sa naissance. Il ne pourrait en principe conserver de relations avec les autres. Le concept de multivers admet cependant que, dans certaines conditions, des échanges d'information puissent se faire entre univers différents.

Par extension du caractère aléatoire du monde quantique, l'émergence de bébés univers n'obéirait dans cette approche à aucune loi. Elle serait elle aussi aléatoire, de même que le serait les propriétés ou lois fondamentales définissant ces bébés univers. Elles proviendraient de l'espace illimité des possibles, comme indiqué ci-dessus. Ce serait là le seul cas où l'on pourrait parler d'une émergence véritablement soumise au hasard.

Les univers une fois crées seraient tous évolutionnaires. Mais leurs cycles évolutifs dépendraient beaucoup de la répartition interne de leurs masses et énergies. Chacun d'eux générerait en principe des espaces-temps spécifiques.

Notre univers

On entre là dans un domaine scientifique plus familier. Selon l'hypothèse de l'inflation, qui n'est pas admise par tous, notre univers, dans un très court temps après son émergence, aurait acquis des dimensions considérables et se serait peuplé des grandes structures de matière/énergie que nous observons : galaxies, nuages de poussière, matière noire et sans doute, énergie noire. Sous l'influence de cette dernière, il subirait une expansion qui devrait s'accélérer, jusqu'au refroidissement et à la dispersion des éléments le composant.

Selon les scientifiques dont l'opinion diffère, les modalités selon lesquelles évolue notre univers peuvent être considérées, soit comme déterminées dans le moindre détail, soit au contraire fortement soumises à l'aléatoire. Pour notre part, nous voudrions faire l'hypothèse qu'elles sont déterminées. Les lois fondamentales arrêtées de façon aléatoire lors de la décohérence de l'entité quantique initiale à l'origine du Big Bang fixent, une fois qu'elles ont émergé, un cadre contraignant s'imposant à l'apparition et à l'évolution de tous les objets matériels et formes d'énergie peuplant l'univers. Leurs effets sont calculables avec précision. Mais il est évident qu'un observateur humain n'ayant pratiquement aucun des instruments permettant d'analyser dans le détail l'ensemble des forces s'étant exercées ou s'exerçant sur chacun des atomes composant l'univers sera obligé de décrire ces effets en termes statistiques ou probabilistes qui suffisent généralement à la prévision scientifique mais qui ne donnent pas toujours d'explication fine du pourquoi des phénomènes. Nous retrouvons là le raisonnement proposé par Laplace.

Observons cependant que dans des cas relativement simples faisant intervenir des forces facilement mesurables, les cosmologistes et les astronomes pourraient apporter des réponses précises, sur le mode de l'analyse réductionniste. Exemple : « pourquoi notre galaxie se trouve-t-elle à telle distance précise de sa voisine Andromède et non à une distance différente ? » Encore faudrait-il qu'ils disposent des instruments et du temps nécessaires – tous éléments que les institutions finançant la recherche leur refuseront, vu le peu d'intérêt au regard d'autres priorités, tant de la question que de la réponse

Malheureusement, si l'on peut dire, tout ne relève pas de la mécanique macroscopique ou forces calculables dans l'évolution de l'univers. La plupart des questions posées par la cosmologie observationnelle obligent à prendre en compte des hypothèses faisant appel aux interventions du monde quantique et se heurtant donc aux barrières de connaissances inhérentes à celui-ci. C'est le cas concernant les questions souvent posées relatives à l'avant Big Bang, à l'intérieur des trous noirs et à d'autres problèmes de cette nature.

Il n'est pas exclu par ailleurs que l'ensemble des objets peuplant notre univers, et plus particulièrement les planètes du type terrestre qui s'y trouvent par milliards, soient affectés par des émissions de particules quantiques qui introduiraient de l'aléatoire dans l'évolution de leurs organisations, physiques ou biologiques (dans la mesure où certaines de ces planètes hébergeraient des formes de vie). Dans ce cas, une particule quantique ayant émergé du substrat quantique de façon aléatoire verrait sa fonction d'onde réduite (décohérence) par interaction avec des atomes et molécules macroscopiques propres à la planète considérée. Le même phénomène pourrait en principe se produire au sein des molécules de la matière vivante impactées par une particule quantique, si la planète en est dotée. Il en résulterait notamment des mutations pouvant avoir des conséquences importantes sur l'évolution du vivant. Les interactions de ce type se produisant entre cet univers et le monde quantique ne réintroduiraient pas cependant un hasard vrai au niveau du premier. Il faudrait parler d'un hasard contraint. Le hasard serait contraint car soumis aux lois fondamentales qui auraient émergé en même temps qu'émergeait l'univers considéré et détermineraient son évolution en tous points et tous instants.

Il n'est pas besoin de préciser ici que notre univers est évolutionnaire. Il se trouve encore quelques esprits pour supposer qu'il pourrait être fixe. Cependant son évolution pourrait s'organiser sur le mode cyclique. Les modèles actuels, tenant compte de la force d'expansion attribuée à la matière noire, prédisent une évolution de durée infinie, accompagnée, comme rappelée ci-dessus, d'une expansion de l'espace temps et d'une dispersion consécutive des éléments inclus dans celui-ci. L'entropie absolue se trouverait au bout du chemin.

La vie sur notre Terre

La vie n'est possible, au regard de ses propriétés constatées aujourd'hui, que dans des conditions d'environnement assez strictes. On considère donc qu'elle ne peut apparaître que sur un petit pourcentage seulement de tous les types d'astres peuplant l'univers. En fait, elle n'a jusqu'à ce jour été observée que sur la Terre. A priori, rien n'interdit de penser qu'elle soit possible, sous des formes plus ou moins différentes, dans d'autres environnements planétaires. Mais il ne s'agit encore que d'une hypothèse.

Nous n'évoquerons donc ici que l'évolution de la vie biologique terrestre. Cependant, comme nous le verrons plus loin, il existera de plus en plus sur Terre des vies dites artificielles, c'est-à-dire composées d'éléments relevant de la matière minérale et non de la chimie organique à base de carbone.

L'apparition de la vie est considérée par le grand public comme une émergence. Les croyants en font même une création ab nihilo, due à l'intervention d'un créateur extérieur. Mais la plupart des biologistes, comme l'a rappelé Mme Maurel lors de l'émission de France Culture, estiment que ce terme d'émergence est un cache-misère. Il cache le fait que nous ne connaissons pas encore les raisons précises ayant permis, à un certain moment de l'histoire de la Terre, la formation de réplicants biologiques à partir des composés organiques déjà complexes existant dans les océans. Les biologistes ne peuvent toujours pas modéliser, ni par conséquent reproduire, la façon dont la vie est apparue aux origines, à partir d'une matière non encore capable des processus réplicatifs caractérisant le vivant. Ils n'ont sans doute pas tous les outils conceptuels permettant de l'expliquer. Deux hypothèses s'opposent : celle de l'océan primitif ou théorie des surfaces, selon laquelle les premières molécules réplicatives se seraient formées sur des argiles ou des laves, et celle dite de l'impact, selon laquelle la vie serait venue de l'espace. Mais cette dernière théorie se borne à repousser la difficulté en amont. Elle ne résout rien.

Comme ceux de complexité ou de holisme, le concept d'émergence utilisé en biologie participe, selon le terme de Mme Maurel, d'une « soupe préconceptuelle » destinée à masquer le fait que la biologie n'a pas encore de modèle pour expliquer la vie 1). Faute d'un tel modèle, elle ne peut pas non plus expliquer son apparition. Cela ne veut pas dire que cette impuissance ne sera jamais résolue. Il n'y a donc pas lieu de parler d'émergence.

Il n'existe pas non plus de raisons permettant de parler d'émergence lorsque des niveaux d'organisation simples font en se conjuguant apparaître des niveaux d'organisation plus complexe. On dit généralement, nous l'avons vu, que le tout est plus que les parties et que cette propriété caractérise l'émergence en biologie. Mais les parties ne deviennent pas un tout sans des raisons que la science pourrait expliquer, si elle disposait des outils conceptuels et des instruments adéquats. Sans cela, il faudrait, comme le font les créationnistes, appeler à l'aide la divinité pour justifier l'apparition de la complexité dans les organisations biologiques. Nous nous limiterons ici à évoquer l'émergence faible face aux surprises que nous révèle l'évolution et à notre impossibilité pratique d'en comprendre ou prévoir les causes.

Si l'histoire de la vie ne nécessite pas de f aire appel à l'émergence forte, elle constitue au contraire une illustration admirable du concept d'évolution. Les raisons de cette évolution, depuis Darwin, ont été clairement élucidées. L'évolution de la vie, comme sans doute celle des premiers composants dits pré-biotiques, se sont déroulées selon le principe, qui n'a jamais été mis en défaut, du hasard et de la nécessité. La logique en est bien connue, c'est celle de la mutation, sélection et ampliation. Cette logique est illustrée par les travaux des néo-darwiniens qui l'appliquent à l'évolution du génome. Mais on peut la retrouver, sous des formes différentes, dans de nombreux domaines, sinon dans tous les domaines, où se produisent des évolutions : phénomènes physiques, mémétique, programmation génétique…Il ne peut y avoir d'évolution si l'existant ne manifeste aucun changement. Dès qu'un changement se produit, il est en butte à une pression de sélection. Si le changement l'emporte sur l'existant, l'entité changée supplante l'entité précédemment existante – ceci jusqu'à renouvellement du cycle.

Les mutations génératrices du changement se produisent-elles de façon aléatoire ? Concernant le génome, la réponse est généralement affirmative. Dans la pratique, en effet, nul, sauf cas particuliers (dans le domaine du génie génétique, notamment) ne peut prévoir les mutations l'affectant. Mais cela ne veut pas dire, comme indiqué ci-dessus, que ces mutations procèdent de causes mystérieuses. Lorsque la science disposera de moyens suffisants, elle pourra – en principe - élucider les causes de la plupart des mutations. Il restera cependant en pratique difficile sinon impossible de les prévoir avec précision, même dans le domaine du génie génétique.

Ceci admis, certaines mutations, exceptionnelles, ne surviennent-elles pas de façon véritablement aléatoire, c'est-à-dire selon des causes inélucidables révélant l'émergence forte évoquée ci-dessus. Comme nous l'avons indiqué, une mutation véritablement aléatoire ne serait concevable que si elle résultait de l'interaction d'un élément de notre monde macroscopique avec le monde quantique. De telles interactions se produisent en permanence. Mais il est très difficile d'apprécier les changements qu'elles apportent dans les organisations macroscopiques, inertes ou vivantes..

Il n'y a donc rien à redire ou ajouter au darwinisme au regard du principe de l'évolution non dirigée ou "au hasard". La vie s'est développée sur le mode de ce que l'on nomme parfois, avec Jean-Pierre Dupuy l' « immaîtrise » . Ce terme exclut tout recours à un « divin horloger » et toute téléologie. Nous ne connaîtrons jamais les multiples formes de vie qui se sont développées au cours de l'évolution et dont la plupart ont été éliminées par la sélection naturelle. Comme pour tout récit historique, les détails en sont à tout jamais perdus. Mais cela n'a pas beaucoup d'importance. La biologie en a reconstitué les grandes lignes, à partir de la formation de la Terre. Les principales étapes sont connues: apparition des organismes monocellulaires (eucaryotes) 1 milliard d'années environ après la naissance de la Terre, apparition des pluricellulaires (procaryotes) après 2 milliards d'années, apparition des premiers animaux vers 600 millions d'années BP, apparition des premiers préhominiens par divergence d'avec le chimpanzé 7 millions d'années BP (comme ceci vient d'être confirmé par une datation précise du fossile Toumaï due au paléontologue Michel Brunet).

On sait que l'apparition des hominiens et plus particulièrement celle de l'espèce sapiens sapiens posent dans des termes différents, les mêmes problèmes que ceux posés par l'apparition de la vie. Pour quelle raison et comment se sont-ils séparés d'avec les primates qui les précédaient ? La encore, les spiritualistes parlent d'émergence ou de création vraies. Ils voient en l'homme une espèce qui se distingue des autres espèces biologiques parce qu'une divinité lui aurait conféré une âme à son image. Mais cette affirmation n'a aucun fondement scientifique. Si nous nous trouvions reportés au temps où les hominiens sont apparus, nous pourrions en principe analyser les modifications anatomiques, neurologiques ou comportementales expliquant cet évènement (ou plutôt ces séries d'évènements). Ceci d'autant plus que les progrès rapides de la biologie artificielle et de l'intelligence artificielle apportent aujourd'hui de nombreuses pistes pour comprendre un passé jusque là opaque.

Apparition sur la Terre de vie et de conscience artificielles

Depuis quelques années, d'importantes dépenses militaires sont consacrées aux Etats-Unis à des recherches sur la vie artificielle et les cerveaux artificiels. Des industriels privés, aux Etats-Unis comme au Japon, s'intéressent aussi beaucoup à ces questions. Il s'agit d'une direction évolutive très caractéristique de certaines sociétés actuelles. Elle éclaire certains aspects de l'évolution des systèmes biologiques, mais pour le moment elle n'apporte pas d'arguments à l'hypothèse de l'émergence, car les processus utilisés par les chercheurs ne présentent pas d'obscurités théoriques. Leurs recherches s'inspirent d'une démarche dite descendante (top down) supposant que des organismes vivants soient déjà là pour entreprendre la démarche consistant à reproduire des parties d'eux-mêmes. Ainsi Craig Venter qui vient de faire breveter une bactérie artificielle, le mycoplasma laboratorium, a retiré progressivement l'essentiel de ses gènes à l'Adn du mycoplasma genitalium pour n'en conserver que le strict minimum. Malgré son génome simplifié, l'organisme obtenu parait viable et capable de se reproduire dans le milieu naturel. En extrapolant à partir de cette démarche, rien n'interdit de penser que l'on puisse fabriquer des animaux nouveaux, qui pourraient se révéler plus adaptés à la survie que les animaux actuels. Certains chercheurs en intelligence artificielle utilisent la même démarche descendante en introduisant au cœur de systèmes informatiques des architectures imitées de ce que l'on connaît des réseaux neuronaux vivants.

Cependant les perspectives sont en train de changer. Les méthodes permettant de créer des entités vivantes artificielles évoluent rapidement. Les chercheurs abandonnent progressivement la démarche descendante évoquée plus haut. S'ils ne l'abandonnent pas entièrement, ils la doublent d'une démarche ascendante ou bottom-up déjà largement utilisée en robotique dite évolutionnaire. Pour obtenir des robots dotés de corps et de cerveaux aussi proches que possible de ceux des humains, on assemble des composants élémentaires et on les laisse interagir avec leur environnement, sous des pressions de sélection analogues à celles ayant accueilli sur Terre les premières briques des organisations biologiques ou neurologiques. Les résultats obtenus sont évidemment bien plus surprenants que ceux découlant d'un assemblage ou d'une programmation descendante, s'inspirant étroitement de modèle déjà analysés. Un robot entièrement programmé, comme l'était à ses débuts le chien Aibo de Sony, ne peut pas manifester la moindre créativité. Seules les pannes qui l'affecteront auront le pouvoir de surprendre son interlocuteur humain. Il s'agira d' « émergences » très mal vécues par les utilisateurs.

La démarche ascendante reproduit au contraire la logique de l'émergence faible ou plus exactement de l'évolution sur le mode darwinien classique : mutation, sélection, adaptation, extension. Elle présente un avantage mais aussi un risque, tous deux considérables et que les scientifiques n'ont pas manqué de souligner. L'avantage est proprement vertigineux. Il faut se représenter aujourd'hui l'immense champ des technologies émergentes et convergentes aujourd'hui disponibles (Nano-Bio-Info et Cogno-technologies) susceptibles de fournir des briques pour la construction d'êtres artificiels, depuis la molécule réplicative élémentaire jusqu'à des populations de robots autonomes capables de peupler l'espace galactique. Ces êtres pourront se retrouver dotés, dans le cadre de mécanismes d'évolution artificielle maîtrisés organisés par les humains, des propriétés dont disposent aujourd'hui les systèmes vivants et leurs composants générateurs de pensée et de conscience. Mais ils pourront aussi acquérir, dans le cadre d'une évolution darwinienne volontairement « immaîtrisée », des formes et des propriétés absolument inattendues et d'une grande puissance compétitive et conquérante.

Le risque serait alors également vertigineux. De quoi s'agirait-il ? Il serait que ces entités entrent en conflit darwinien avec les entités biologiques et humaines actuelles. Dans la logique darwinienne, ces conflits n'aboutiraient pas nécessairement à des extinctions massives. Ils pourraient donner lieu à des symbioses ou hybridations, analogues peut-être à celles ayant rapproché néanderthaliens et sapiens dans l'hypothèse où ces deux espèces auraient fusionné.

Ceci nous conduit à la perspective, que nous avons souvent envisagé dans cette revue, de la transition de l'humain vers le posthumain et de l'animal vers le post animal. Mais nous n'aborderons pas ces questions dans le présent article, déjà trop long pour un lecteur pressé.

Note
(1) Observons que notre ami le professeur Gilbert Chauvet [www.gilbert-chauvet.com] estimait au contraire avoir développé un tel modèle. Malheureusement ses travaux ont été interrompus par sa mort au moment où il aurait sans doute pu convaincre de la justesse de ses hypothèses ceux qui mésestimaient leur portée.

Repost 0
5 mars 2008 3 05 /03 /mars /2008 21:17

Philosophie des sciences
De l'évolution et de l'émergence I
par Jean-Paul Baquiast 03/03/2008

L'article est publié en deux morceaux compte tenu de sa longueur

Le journaliste scientifique Philippe Petit a consacré quatre séances de sa série Science et conscience, en février 2008 sur France Culture, au thème de l;&’eacute;mergence. Celui de l'évolution lui est indissociablement lié. Les contributions des scientifiques et philosophes interrogés nous donnent l'occasion, pour notre part, de tenter une synthèse non seulement des différentes acceptions données à ces deux concept aujourd'hui, mais de la façon dont, au regard de ces acceptions, nous pourrions nous représenter l'évolution du monde tel que ce monde nous apparaît, depuis les premiers évènements décrits par le Big Bang jusqu'au développement contemporain, sur Terre, de systèmes dits artificiels capables de performances jusque là considérées comme spécifiques de la vie et du cerveau humain dit conscient.

Nous pouvons faire l'hypothèse que la prolifération de ces systèmes artificiels, capables d'entrer en symbiose ou en conflit avec les organismes vivants actuels, constituera un évènement majeur du 21e siècle - si d'ici là nos civilisations ne s'effondrent pas. En fonction de la définition que nous nous donnerons de l'évolution et de l'émergence, nous pourrons considérer les systèmes artificiels comme une suite logique de l'évolution multi-millénaire des systèmes physiques et biologiques terrestres ou au contraire comme marquant une rupture aux conséquences susceptibles d'affecter éventuellement notre environnement cosmologique tout entier.

Introduction

Rappelons d'abord comment le cerveau du sujet construit des modèles du monde permettant à celui-ci de s'adapter au milieu dans lequel il vit (cf. par exemple : « Making up the Mind », de Christopher Frith et notre chronique http://www.automatesintelligents.com/biblionet/2007/juil/frith.html). Il faut se représenter le sujet comme un organisme vivant (on ne définira pas la vie à ce stade) doté d'une membrane ou frontière le séparant du monde extérieur et communiquant avec ce dernier par des périphériques : organes sensoriels et organes effecteurs. Ces organes sont reliés par un système nerveux lui-même doté, dans les organismes évolués, d'une centrale d'interconnexion, de mémorisation et de traitement des données provenant des périphériques. Nous l'appellerons le cerveau.

L'organisme vivant « néguentropique » est plongé dans un milieu non vivant qui exerce sur lui une pression « entropique » tendant en permanence à le dissoudre. Pour survivre, il doit donc trouver dans ce milieu les éléments lui permettant de se développer et éviter ceux susceptibles de le détruire. Mais le milieu renferme une quantité illimitée de ressources potentiellement utiles ou nuisibles. L'organisme ne connaît que celles du milieu local avec lequel il est en contact immédiat. Il doit donc se construire un modèle dynamique de ce milieu local. Il élaborera par essais et erreurs, à partir de ce modèle, des stratégies de survie exploitant au mieux les ressources locales.

Ce processus commence dès les origines de la vie. On peut considérer qu'une bactérie est du fait de son existence un modèle du milieu dans lequel elle cherche à survivre. Ses différentes propriétés sont en effet adaptées aux caractères du milieu dont elles représentent si l'on peut dire une image en creux. On peut aller plus loin et dire que la bactérie représente un concept global, fait de concepts de détail, par lequel elle-même et le réseau bactérien auquel elle appartient modélisent le milieu afin de l'exploiter.

Dans le langage courant, un concept est défini comme « une idée ou représentation de l'esprit qui abrège et résume une multiplicité d'objets empiriques ou mentaux par abstraction et généralisation de traits communs identifiables par les sens ». (Wikipedia). Nous ajouterions à cette définition une précision importante. Un concept ne se crée pas dans l'esprit (plus exactement dans le cerveau) sans que ceci réponde à une utilité. Le concept se crée dans le cerveau parce que celui-ci est capable d'abstraire à partir de perceptions différentes les traits communs qui peuvent faire soupçonner une permanence intéressante pour la survie. Le concept permet donc de réagir rapidement à une perception nouvelle. Ou bien celle-ci signale un élément du monde extérieur déjà connu et ne nécessitant pas un effort d'adaptation, ou bien elle signale un élément nouveau, avantageux ou dangereux, non prévu par le concept et auquel il faudra s'adapter. Dans ce cas, en cas de succès des conduites d'adaptation, après un temps de latence suffisant pour éliminer les perceptions parasites, le concept sera enrichi ou modifié en profondeur.

Tout ceci se modélise aujourd'hui très facilement avec des robots dotés de corps comprenant des organes sensoriels, des organes effecteurs et une unité centrale. Les informations reçues directement en entrée ou indirectement en retour de celles émises en sortie construisent dans l'unité centrale du robot une représentation du milieu dans lequel le robot opère. A cette fin, l'unité centrale est équipée de dispositifs capables d'apprentissage, tels des réseaux de neurones formels. En interagissant avec le milieu, le robot se dote progressivement d'un modèle symbolique du monde tel qu'il le perçoit par ses organes d'entrée-sortie. Ce modèle est construit à partir des expériences passées du robot et sert de référence pour les décisions futures.

Si le robot avait précédemment constaté qu'un pied de table l'empêchait de progresser, il évitera dorénavant tout ce qui sera perçu comme équivalent à un pied de table, par exemple un pied de chaise ou la jambe d'un opérateur. Son cerveau se sera donc enrichi d'une représentation générique ou concept désignant non pas un pied de meuble mais un obstacle à la progression. Lorsqu'il identifiera dans son environnement un nouvel obstacle, il se référera à ce concept pour choisir entre deux « comportements de survie » différents, éviter l'obstacle ou, s'il est léger, continuer à progresser en le bousculant. Ajoutons (nous simplifions) que lorsque plusieurs robots opèrent en groupe, ils apprennent à échanger leurs représentations individuelles ou concepts par l'intermédiaire d'un langage symbolique commun élaboré spontanément. Le langage fait correspondre à chaque concept un signal permanent grâce auxquels les contenus de mémoires peuvent être échangés. Les robots se dotent ainsi d'une représentation collective du monde cumulant les expériences individuelles de chacun d'entre eux et augmentant leur réactivité. Si un robot identifie un obstacle infranchissable, il le signalera aux autres, ce qui leur évitera de gaspiller de l'énergie en s'en approchant pour l'identifier eux-mêmes.

Cette définition correspond à la façon dont un humain doté d'un cerveau associatif et capable de verbalisation langagière se représente le monde afin de s'y adapter. Mais elle peut être « dégradée » pour s'appliquer à des organismes dotés d'un cerveau plus rudimentaire, dont les capacités de création de concept et d'échange sont moindres. Au plus bas de l'échelle, nous avons mentionné les bactéries, qui sont handicapées par le manque de système nerveux. Leurs capacités de représentation symbolique sont très réduites, même lorsqu'elles opèrent en groupe (web bactériens). Les échanges qu'elles entretiennent sont également très réduits. Mais ils existent néanmoins, sous forme de messages chimiques. On connaît le désormais célèbre « quorum sensing », processus par lequel des bactéries évaluent leur population au sein d'un organisme infecté, afin de ne devenir virulentes que si elles sont en nombre suffisant pour submerger les défenses immunitaires de l'hôte.

Mais prenons un primate arboricole, dont les organes sensoriels et de traitement de l'information sont très proches de ceux de l'homme. Le « système primate » peut plus facilement que le « système bactérie » être simulé par un robot du type de celui que nous venons de décrire. Plaçons en esprit ce primate dans une forêt parcourue de prédateurs. A la suite de millions d'années de lutte pour la survie, le cerveau de ce primate a construit sous forme d'associations permanentes entre neurones des représentations du monde forestier dangereux dans lequel l'espèce s'est développée. Jean-Pierre Changeux appelait ces représentations des objets mentaux. Nous les appellerons conformément à la terminologie utilisée ici des concepts non verbalisés. Ces associations entre neurones ou objets mentaux ou concepts peuvent être dits épigénétiques, car une grande partie correspond à des acquis de l'espèce transmis par héritage et une autre, sans doute moins importante, à des apprentissages individuels dits aussi culturels. Les concepts dont disposent ces primates sont en nombre réduits et d'ampleur elle-même strictement limitée aux besoins de survie. L'animal ne s'intéresse qu'à son milieu. Ceci parce que l'organisme, spontanément, fonctionne à l'économie, comme d'ailleurs toutes les structures naturelles. Recueillir des données, les mémoriser et les traiter consomme beaucoup d'énergie.

Les cerveaux de nos ancêtres primates, ceux qui ont survécu aux pressions de sélection, ont supposé (fait l'hypothèse), par essais aléatoires et erreurs, que certaines lignes horizontales et verticales correspondaient aux excroissances de « quelque chose » dans lequel il était possible de se réfugier pour échapper à un danger. De même leurs cerveaux ont fait l'hypothèse que des images identiques se succédant rapidement et conforme à un certain modèle (couleur noire, être pourvu de griffes et de dents…je simplifie) correspondaient à l'approche d'une entité déjà enregistrée en mémoire comme capable de faire des blessures douloureuses à laquelle il fallait échapper. Bien évidemment, les constructions que des millions d'années après, ayant hérité génétiquement de l'expérience de ces primates, nous percevons avec un grand luxe de détails utiles n'étaient aux origines ni nommées ni détaillées. Nos ancêtres animaux ne percevaient aux origines ni un arbre ni une panthère, mais un ensemble de stimulus cohérents comparables à ceux que le modèle du monde acquis par apprentissage pouvait produire dans des circonstances identiques. Si les perceptions nouvelles étaient suffisamment proches de celles provenant du « concept » mémorisé comme représentant une entité dangereuse, le cerveau déclenchait les comportements d'évitement adéquats

A l'inverse, tous les primates ayant fait, toujours sur le mode exploratoire par essais et erreurs, des hypothèses différentes relativement à ce que désignaient les messages sensoriels provenant de ce que nous appelons aujourd'hui un arbre et une panthère, n'ont pas vécu assez longtemps pour que leur cerveau construise le modèle d'un monde différent – un monde comportant par exemple un arbre mou dans lequel il serait impossible de trouver un abri ou une panthère conviviale s'approchant pour se faire caresser.

Aujourd'hui encore, les primates humains que nous sommes ne peuvent pas affirmer avec une certitude absolue que l'entité arbre puisse nous servir d'abri ou que l'entité animal sauvage que nous voyons s'approcher puisse être dangereux. Si par extraordinaire, nous découvrions que certaines de ces entités se comportaient d'une autre façon que celle mémorisée après des millénaires d'expérience, nous serions conduits à modifier notre jugement sur elles en particulier et sur le monde en général. Nous dirions que, dans certaines circonstances, le monde comporte des arbres flexibles comme des roseaux et des panthères caressantes comme des chats.

Il est important de bien comprendre l'exemple qui précède pour comprendre le jugement que nous pouvons porter sur un monde dont nous constatons tous les jours les changements et au sein duquel nous constatons tous les jours l'apparition de caractères nouveaux. Si nous constatons que le monde se transforme au lieu de rester fixe, nous pourrons nommer évolution les changements qu'il subit. Si nous constatons par ailleurs que, dans le cadre de cette évolution, il fait apparaître des propriétés jamais vues jusqu'alors et inexplicables, nous pourrons qualifier d'émergentes ces apparitions. Des animaux ne disposant pas d'un vaste cortex associatif capables de projections étendues perçoivent sans les nommer les phénomènes traduisant ce que nous appelons l'évolution et l'émergence. Il faut voir avec quelle circonspection ils considèrent tout phénomène évolutif qu'ils ne connaissent pas ou dont ils ne peuvent prédire l'évolution, comme le feu. Leur cerveau perçoit clairement, même s'il ne peut le verbaliser, ce que signifie « évoluer » et l' « émergence » potentielle de situations nouvelles pouvant résulter de cette évolution.

Nous pourrions faire comme les animaux, nous limiter à n'utiliser les concepts d'évolution et d'émergence que dans la limite des cas où nous pouvons constater leur adéquation aux perceptions de nos sens, éventuellement complétés des instruments de la science moderne. Nous pourrions éviter d'imaginer qu'il existe une Evolution ou une Emergence indépendantes de nos observations actuelles, dont nous pourrions à force d'hypothèses et d'expériences futures, découvrir progressivement les raisons d'être intrinsèques. Nous pourrions, mieux encore, éviter de faire le postulat qu'il existe une Evolution et une Emergence en soi, dotées de propriétés que ni nos sens ni nos cerveaux ne pourront jamais faire l'expérience, compte tenu de leurs limites indépassables.

Mais les cerveaux humains, même réunis en réseau dans la société scientifique, ne fonctionnent pas ainsi. Ils ont appris que l'audace des hypothèses faisait avancer les connaissances. Certes, les hypothèses métaphysiques ne vont pas très loin en ce sens, car elles ne sont pas relayées par l'expérience. Mais l'induction et l'abduction scientifiques permettent au contraire, à partir de faits nouveaux suscités par l'évolution propre des technologies d'expérimentation, de formuler des modèles du monde allant au delà des possibilités instrumentales du moment, dans l'espoir qu'elles pourront être vérifiées ultérieurement par la voie expérimentale.

L'inconvénient de ces hypothèses, quand elles sont connues du grand public sans expérience scientifique, ou quand elles sont exploitées par des croyances religieuses voulant s'en servir comme argument en faveur des affirmations de leurs écritures, est d'alimenter des débats qui obscurcissent dangereusement le regard que nous pouvons porter sur les phénomènes susceptibles d'être interprétés en termes d'évolution et d'émergence. L'évolution pose directement la question du temps, des origines et du devenir. L'émergence pose celle des raisons par lesquelles le nouveau apparaît à partir de l'ancien. Il s'agit de questions que les philosophes et les religions, depuis qu'elles existent, ont cherché à résoudre avec les concepts à leur portée. Aussi respectables que soient les réponses proposées, elles ne peuvent être considérées comme scientifiques. Malheureusement, elles interfèrent en permanence avec les efforts de modélisation scientifique et retentissent sur la façon dont chacun d'entre nous considère le monde en général, l'évolution et l'émergence en particulier. Les scientifiques, malgré l'audace de leurs hypothèses, qui rejoint et dépasse souvent celle des philosophes et des mystiques, sont obligés de rappeler qu'il ne s ‘agit que d'hypothèses. Nous sommes alors tentés de ne pas tenir compte de leur prudence, que nous trouvons bien décevantes au regard des promesses de l'imaginaire et de la foi du charbonnier.

Nous voudrions montrer ici que, malgré les difficultés, il devrait être possible de se donner une représentation prudente de l'évolution de l'univers et des émergences multiples qui l'ont marqué. Nous n'aurons pas l'outrecuidance de prétendre que cette représentation serait à proprement parler scientifique. Elle évitera par contre les extrapolations hasardeuses, qui ne peuvent faire que le lit des fausses sciences et de ceux qui vivent de leur commerce.

On rappellera que les concepts d'évolution et d'émergence, tout relatifs qu'ils soient, n'ont pas été construits dans notre cerveau individuel au reçu des informations provenant de nos seuls sens personnels. Ils résument, dans la société scientifique qui est la nôtre, l'expérience acquise par des millions d'observateurs à travers les âges, ayant utilisé des millions d'instruments d'observation différents et ayant consignés et critiqués le résultat de leurs observations dans des millions de pages accessibles facilement. C'est là le propre des comportements humains dits scientifiques. Si, globalement, toutes ces observations confirment l'hypothèse selon laquelle les concepts d'évolution et d'émergence permettent de représenter de façon à peu près adéquate un très grand nombre de situations observées et vécues en dehors de nous, la confiance que nous pouvons apporter à leur validité pour décrire le monde auquel nous devons, aujourd'hui comme jadis, nous adapter pour survivre, sera confortée. Nous pourrons aller jusqu'à dire que nous « croyons » à leur validité. Mais nous n'y croyons pas d'une façon aveugle, comme les adeptes d'une religion croient en leur dieu. Nous n'y croyons que sous réserve des résultats de nouvelles expériences.

I. L'univers, l'évolution, l'émergence et la démarche de la science.

Ces deux concepts d'évolution et d'émergence sont dorénavant constamment utilisés, comme l'ont rappelé les intervenants invités par Philippe Petit, en cosmologie, en physique, en biologie et dans les sciences humaines. Mais on leur donne généralement des acceptions différentes. Ceci peut poser un problème méthodologique. Est-ce que l'unité des connaissances n'en souffre pas ? On pourrait souhaiter pour éviter ce risque réunir les diverses disciplines, malgré leurs nécessaires différences d'approche, par une vision commune de la façon dont elles utilisent les concepts d'évolution et d'émergence. Même si les observables étudiées par chacune d'entre elles ne sont pas identiques, notamment en terme de complexité, ces diverses disciplines ne s'inscrivent-elles pas dans une « vision » commune de l'univers, fonction de nos outils conceptuels (notamment de l'usage que nous faisons des mathématiques), des potentialités de nos instruments et finalement d'un certain nombre de paradigmes voire d'effets de mode structurant en profondeur et de façon généralement mal perçue, la société scientifique de chaque époque.

L'évolution

Le concept d'évolution n'est généralement pas discuté, tout au moins quand il s'agit de décrire le monde macroscopique dit quotidien. Tout au plus pose-t-il, nous l'avons évoqué, la question encore non résolue de la consistance du temps : celui-ci est-il lié ou non aux évènements qui s'y enchaînent ? Mais on peut traiter l'évolution du monde macroscopique, dans la tradition newtonienne, en considérant qu'elle se déroule dans un cadre d'espace temps indépendant de son contenu. La physique quantique le permet également. Les difficultés ne surgissent que dans le cadre de la relativité générale poussée à ses extrêmes, si l'on admet l'hypothèse qu'aux origines d'un univers ou à l'occasion de la création de trous noirs, se trouvent ou apparaissent des corps si massifs qu'ils courbent l'espace temps jusqu'à la formation de singularités, c'est-à-dire d'univers ponctuels dont la physique actuelle ne peut rien dire mais où l'écoulement du temps devrait s'arrêter.

Le concept d'émergence est infiniment plus compliqué, au moins en apparence. Pour tenter de le clarifier, nous distinguerons l'émergence dans le monde macroscopique et l'émergence dans le monde quantique

L'émergence dans le monde macroscopique

Aujourd'hui, dans les sciences du monde macroscopique, faire appel à l'émergence signifie que l'on ne peut pas donner d'explication réductionniste à l'apparition ou à la nature du phénomène dont on dit qu'il est émergeant, c'est-à-dire dont on dit qu'il s'impose subitement et sans avertissements à l'attention d'un observateur. Le réductionnisme, qui n'a rien d'infamant, contrairement aux affirmations des émergentistes de tendance mystique, consiste à expliquer l'apparition d'un phénomène nouveau par des règles ou faits déjà connues. Ainsi l'émergence d'un virus comme celui du sida, qui a surpris les virologues, peut s'expliquer de façon réductionniste par ce que l'on sait des mutations et des conditions environnementales favorisant la naissance des épidémies. Même des questions précises « pourquoi ce virus particulier, pourquoi en ce lieu et à ce moment ? », pourraient (en principe) trouver des réponses si l'on disposait d'informations suffisamment détaillées. En théorie, le virologue serait en droit de répondre, comme le démon de Laplace : donnez-moi les conditions initiales et je vous expliquerai le sida, son apparition, son évolution et par extension, l'évolution de la vie sur la Terre.

Les spécialistes de la théorie du chaos expliqueront que la compréhension rétroactive et à fortiori la prévision sont, dans ce cas comme dans pratiquement toutes les autres questions auxquelles la science s'intéresse, rendues impossibles par l'incertitude inévitable concernant les données initiales. Celle-ci introduit l'effet papillon bien connu. Mais il s'agit d'une évidence qui n'exige pas d'attribuer au concept d'émergence une portée quasi religieuse. D'une part l'analyse probabiliste demeure toujours possible, avec une efficacité régulièrement croissante due à la puissance des ordinateurs et à l'utilisation de certains outils mathématiques nouveaux. D'autre part, à supposer que la science ne puisse jamais expliquer l'histoire et l'avenir de l'évolution de chacun des atomes constituant l'univers – ce qui est le cas – cela n'oblige pas à dire que la démarche réductionniste de la science n'ait pas d'intérêt. Elle permet d'éliminer toutes les pseudo-explications des pseudo-sciences refusant de faire le difficile travail d'analyse des facteurs causaux et de leur enchaînement.

Par contre, le réductionnisme ne doit pas être utilisé là où, serait-il possible, il imposerait un travail d'investigation des détails qui empêcherait – ne fut-ce que parce que la science, comme tout comportement naturel, fonctionne à l'économie - l'identification et l'étude des grands ensembles. Les sciences dites de la complexité (terme dont on peut admettre qu'il n'a d'intérêt que comme métaphore) ont fait beaucoup progresser les études scientifiques en tous domaines parce qu'elles ont incité à considérer comme observables des macro-objets et macro-processus jusqu'alors rendus invisibles par une attention excessive aux détails de ces mêmes macro-objets et macro-processus. Nous avons rappelé précédemment, dans cette revue et dans nos livres ( JP Baquiast, Pour un principe matérialiste fort, Jean-Paul Bayol, 2007) le véritable nouveau regard apporté, en biologie comme dans les sciences humaines, par l'étude des super-organismes. Ceux-ci sont considérés comme des organismes vivants et la science s'attache à étudier leurs interactions au sein de super-populations fonctionnant en réseaux. Dans ce cas, mettre l'accent sur tel comportement de tel individu composant l'un de ces super-organismes est certes important, mais ne suffit pas à comprendre le fonctionnement du super organisme tout entier. Autrement dit, considérer des niveaux d'intégration de plus en plus élevés (dans l'ordre de la complexité) permet de traiter comme des observables des entités globales jugées dignes d'étude, sans obliger à rechercher les comportements individuels de leurs composants. Ceux-ci sont, au mieux, étudiés en termes statistiques.

Est-il nécessaire de faire appel à l'émergence pour comprendre le comportement voire la nature d'un super-organisme ? Observons d'abord qu'identifier, au-delà des objets directement visibles par notre cerveau, des ensembles réunissant ces objets, constitue une démarche pratiquée depuis des millénaires, non seulement par la science mais par le langage empirique. Cela fait au moins 3.000 ans que le langage a pris l'habitude de parler de la société politique, telle par exemple la nation, en dépit du fait que les composants de cette nation restaient fort confus. Intuitivement, ceux qui ambitionnaient de s'adresser à la supposée nation comprenaient qu'une « personnalité » supérieure à celle des individus s'en dégageait. Les qualifier d'émergentistes avant la lettre n'apporterait pas grand-chose.

Les émergentistes d'aujourd'hui font valoir, à l'encontre des réductionnistes, que les parties ne peuvent définir les propriétés du tout. L'étude de la fourmi, disent-ils, ne fera pas comprendre le comportement de la fourmilière. De même, l'étude des atomes de la fourmi ne fera pas comprendre le comportement de la fourmi. Il est évident que ce ne sont pas les lois des parties qui peuvent expliquer la loi du tout. C'est au contraire le tout qui peut expliquer les lois des parties. Pour étudier utilement la fourmilière, il faut donc la considérer comme un tout présentant des propriétés propres. Mais faut-il la qualifier de phénomène émergent ?

Encore une fois, nous observons en permanence des phénomènes nouveaux, ou prenons des points de vue nouveaux sur le monde, sans évoquer l'émergence. L'étude d'un phénomène ou d'un objet commence d'abord par l'étude de ses caractères ou comportement globaux, au regard du milieu dans lequel il se trouve immergé. Tout entomologiste conséquent, tout au moins aujourd'hui où le regard s'est élargi aux systèmes, se représente la fourmilière comme un super-organisme en interaction avec de multiples autres, semblables ou différents. C'est seulement, par exemple, après avoir analysé les échanges énergétiques de la fourmilière avec son milieu qu'il cherche à comprendre le rôle de l'ouvrière dans l'activité de fourragement nécessaire à la survie de la fourmilière. Pour commencer à étudier utilement la fourmi, il doit avoir identifié au préalable les fonctions que celle-ci en tant qu'individu doit exercer au service du fonctionnement de la fourmilière. Sinon, aucun critère sérieux de recherche ne pourrait guider son étude de la fourmi. Il risquerait par exemple, avec un peu trop d'imagination, de chercher à vérifier l'hypothèse selon laquelle la patte arrière droite de celle-ci lui sert, dans le secret de la fourmilière, à se nettoyer le nez.

Les scientifiques, même quand ils ne perçoivent pas immédiatement les causes des phénomènes étudiés, n'affirment pas a priori que leurs propriétés ne sont pas réductibles à celles de leurs parties. Cette affirmation leur paraît si évidente qu'ils auraient honte de la présenter comme une grande découverte méthodologique. En conséquence, ils se gardent de distribuer des brevets d'émergence à tout objet non encore observé par leurs prédécesseurs et dont ils veulent entreprendre l'étude. S'ils faisaient ainsi, ils s'interdiraient l'analyse réductionniste, qui constitue quand même la meilleure façon de comprendre la raison d'être de la nouveauté. En général, comme indiqué ci-dessus, confrontés à un phénomène dont la raison d'être ne saute pas aux yeux, les scientifiques se bornent à étudier les propriétés globales de ce phénomène, relativement au milieu environnant. Dans un second temps, déjà guidés par l'opinion qu'ils se seront faite du phénomène, ils essaieront de décomposer celui-ci en « parties » dont ils essaieront de comprendre la contribution au comportement du tout. En fait, quand on observe le travail scientifique, on constate qu'il suppose un aller et retour permanent entre l'étude du tout et celle de ses parties, l'une et l'autre poussée aussi loin que possible. Ce ne sera qu'en cas d'échec de cette double approche que l'on pourra se risquer à parler d'émergence.

On nous objectera que l'émergentisme est né en réaction aux abus du réductionnisme. Les manuels émergentistes sont pleins d'exemples où la volonté d'expliquer les lois du tout par celles des parties a généré des erreurs monumentales – que ce soit en science ou dans la pratique empirique de la vie courante. L'exemple le plus cité est celui de la médecine, qui tend à oublier que le patient est un organisme global. Il peut donc être contre-productif de lui appliquer des traitements visant à traiter le dysfonctionnement le plus évident, en ignorant tous les autres.

Mais on peut soutenir que les abus du réductionnisme dérivent des abus du réalisme en science. Celui-ci tend à considérer que tout objet perçu par le regard correspond à une entité d'un Réel en soi dont les propriétés existeraient indépendamment du regard de l'observateur. Il en résulte une réification de l'objet à qui l'on prête des propriétés dérivées de celles attribuées au Réel d'arrière plan supposé. Ainsi la médecine moderne voit en chaque patient une entité indépendante du regard du praticien et participant d'un processus réductionniste défini par les manuels de médecine et les réglementations sociales. Elle ne voit donc pas l'intérêt de jeter sur lui un regard permettant de le faire descendre de son piédestal d'être-en soi (qu'il n'est pas), afin de voir en lui la construction en constant remaniement résultant de la conjonction du regard du praticien, des données fournies par les analyses et d'une spécificité insondable tenant à sa nature personnelle et à son histoire individuelle.

Les abus du Réalisme ontologique ont été soulignés dès l'apparition de la mécanique quantique. Celle-ci reconnaît que les entités microscopiques (particules, ondes, etc.) n'existent pas comme des réalités indépendantes de l'observateur. Elles sont « construites », en tant qu'objet de science, par un processus reliant l'observateur, les instruments dont il dispose (avec leurs limitations) et un monde sous jacent dont nul ne peut rien dire a priori. Or, comme l'a bien expliqué Mme Mugur-Schächter, le processus qu'elle a nommé de conceptualisation relativisé utilisé en physique quantique pourrait avec beaucoup d'avantages être étendu à toutes les sciences sans exception et ceci sans se référer à un monde sous jacent qui ne serait pas observable directement. Nous avons nous-même montré comment, grâce à l'utilisation de cette méthode, il était possible de traiter scientifiquement et donc efficacement un macro-processus tel que le chômage, alors qu'aucun sociologue ne rencontrera jamais le chômage au coin de la rue, mais seulement des chômeurs trop différents pour qu'il soit possible de leur appliquer des outils d'analyse macro-économique, macro-sociologique ou macro-politique permettant de lutter contre le chômage (JP. Baquiast, op.cit.).

Mais qui dira que tel ensemble de caractères cohérents, par exemple la volonté de défendre le territoire et d'en exclure les étrangers, méritera d'être considéré comme un super-organisme et d'être étudié en tant qu'entité distincte ? Ce seront les observations que nous ferons à son propos ou, si l'on préfère, les informations émises par ce super-organisme et qui, pour des raisons découlant de notre histoire personnelle, s'imposeront à nos cerveaux en générant un comportement d'investigation propre à tous les organismes vivants. Si je constate qu'une foule se comporte de façon agressivement effrayante alors que toutes les personnes qui la composent se comportent individuellement comme des agneaux, je me dirai que le phénomène de foule ou de groupe mérite une étude avec des instruments spécifiques. Mais à nouveau, qui dira que la foule se comporte de façon agressive, alors qu'une personne vivant dans une société habituée à la violence ne ferait pas attention à cette agressivité ? Ce sera à nouveau moi qui formulerai ce jugement. Je serai conduit à le faire par une sensibilité formée dans une société dite policée et parce que je suis doté d'un cerveau porteur de toutes les références inscrites par des années d'appartenance à cette même société policée.

Si donc, dans les sciences du monde macroscopique, nous souhaitions parler d'émergence avant d'étudier un phénomène nouveau qui nous préoccupe, ce serait notre droit. Mais ce mot ne devrait pas être seulement considéré comme un cache misère ou un renoncement signant l'incapacité de la science à entrer dans les détails, comme le disait Mme Maurel dans l'émission de France Culture (voir ci-dessous) mais plutôt un raccourci, ce que l'on nommerait en anglais un fast-track, permettant d'aller à l'essentiel compte-tenu des limites en crédits et en temps dont souffrent les chercheurs. Nous pourrons donc reprendre pour désigner ce type d'émergence le qualificatif suggéré lors de ladite émission, celui d'émergence faible.

On parlera d'émergence faible à propos d'un phénomène pour indiquer que ce phénomène possède des causes que la science pourrait expliciter (comme elle pourrait expliciter la raison pour laquelle un dé retombe sur telle face et non sur les autres). Mais elle reconnaît n'avoir ni le temps ni la volonté de les étudier. Elle préfère étudier la façon globale dont ce phénomène se manifeste. Indiquons en passant que ce terme d'émergence faible devrait suffire à décourager les fausses sciences et autres mythologies religieuses qui prétendent voir derrière chaque nouveauté la manifestation de l'autorité divine. La science répondra aux campagnes spiritualistes arguant de l'inconnaissabilité ontologique des causes, qu'elle pourrait s'intéresser à ces causes et les faire apparaître, mais que ce travail ne lui parait pas prioritaire au regard de l'étude des effets. Le terme d'émergence faible ne nie pas que des problèmes existent et mériteraient étude, mais il propose au public et aux organismes qui financent la science de ne pas en faire des priorités.

L'émergence dans le monde quantique

Ceci dit, à quel moment pourra-t-on parler d'émergence forte ? On appellera émergence forte une émergence considérée comme durablement sinon définitivement inexplicable par la science. Or il n'y a aujourd'hui qu'un seul domaine dans lequel les scientifiques estiment généralement se heurter à des inconnaissables, sinon absolus, du moins infranchissables sans modifications profondes des méthodes et des outils. Il s'agit du monde quantique et des nombreux domaines de la cosmologie ou même des sciences macroscopiques impliquant des entités quantiques.

Une partie de la physique moderne, voire d'autres sciences moins dures, font désormais appel à ce concept d'émergence, entendu au sens fort. Robert Laughlin, qui reste après quelques années le pape de la question, s'est livré à une défense tous azimuts de l'émergence forte. Il n'emploie pas ce terme, ce qui jette un peu de confusion dans ces propos. Mais c'est en général à l'émergence forte qu'il fait allusion, que ce soit en physique fondamentale ou dans la physique de tous les jours (voir R. Laughlin, A Different Univers, JP.Baquiast op.cit et notre article
http://www.automatesintelligents.com/biblionet/2005/juin/laughlin.html ).

Pour lui comme pour la plupart des physiciens, la mécanique quantique ne permet pas de comprendre l'univers en profondeur, et moins encore d'agir sur lui. Elle permet juste d'interpréter un certain nombre des phénomènes nouveaux que révèle le développement des instruments et des expériences, par exemple au sein des accélérateurs de particules. Le monde quantique, dans ses profondeurs, est et restera inconnaissable. C'est ainsi que parler de vide quantique représente simplement une façon de désigner quelque chose d'indéfinissable, sous-jacent à la réalité matérielle, dont on constate seulement telle ou telle manifestation dans telle ou telle expérience. De même les particules qui émergent du vide quantique ne sont ni des ondes, ni des particules ni les deux à la fois. Elles sont définitivement autre chose. Ceci n'empêche pas de les utiliser, dans certaines conditions.

Concernant la cosmologie, Robert Laughlin se sépare profondément des travaux des cosmologistes théoriciens visant à décrire de façon réaliste les états passés, présents et futurs de l'univers. Il estime que ces travaux relèvent non seulement de la science fiction mais d'une méconnaissance profonde de ce qu'est selon lui l'univers, c'est-à-dire le produit d'une émergence. Il s'en prend particulièrement à la Théorie du Tout, qui prétendrait trouver une équation unique à partir de laquelle on pourrait déduire toutes les autres formes de connaissances. Cette ambition, triomphe du réductionnisme, selon laquelle les lois des mécanismes élémentaires permettent de déduire la loi du système complexe, ignore dramatiquement la théorie de l'émergence.

Sa critique touche un point de grande importance philosophique. Il nous rappelle que la physique contemporaine repose sur la connaissance de ce que l'on appelle des constantes universelles. Pour lui, il s'agit seulement d'expériences donnant un résultat universel. On en trouve une vingtaine, telle la vitesse de la lumière dans le vide ou la constante de Rydberg. Mais le caractère apparemment universel de telles expérimentations est un piège. Il conduit à faire penser que ces constantes ont mis en évidence les briques primitives à partir desquelles est construite la réalité. Ainsi, si la vitesse de la lumière apparaît constante aujourd'hui, ce serait parce que la lumière serait une composante élémentaire de l'univers. Or prendre en considération les phénomènes d'émergence montre que cette constante elle-même résulte d'un phénomène d'organisation sous-jacent. La lumière pourrait être le produit d'une émergence. Fondamentalement, derrière les constantes, on pourrait retrouver si on s'en donne la peine l'incertitude et l'inconnu. Toutes les constantes dites fondamentales requièrent un contexte environnemental organisationnel pour prendre un sens. Beaucoup de ses collègues ne partagent pas ce point de vue, mais il est intéressant.

Un « émergentiste fort » comme Laughlin considère que la réalité quotidienne est un phénomène d'organisation collective, se traduisant par des « vérités » statistiques ou probabilistes (ce qu'ont dit depuis longtemps les biologistes et les physiciens quantiques). On peut pour des besoins pratiques, dans le monde quotidien, décrire les objets macroscopiques comme des constructions d'atomes situés dans l'espace-temps newtonien, mais l'atome isolé n'est pas newtonien. C'est une entité quantique « éthérée » manquant de la première des caractéristiques du monde newtonien, la possibilité d'être défini par une position identifiable. Ceci apparaîtra non seulement dans les expériences de la physique quantique, mais dans les expériences de la physique des matériaux et des états de la matière intéressant la vie quotidienne. Les physiciens s'intéressant aux phénomènes macroscopiques doivent donc eux aussi apprendre à gérer l'incertitude née de l'émergence, considérée comme un aspect incontournable de toute « réalité » et la voie permettant d'accéder à de nouvelles découvertes. Ceci du moins quand ils considéreront les composants les plus bas dans l'échelle des organisations que sont les « ondes » et les «particules » quantiques.

Quelle valeur attribuer à cette acception de l'émergence forte. Elle se distingue radicalement de l'émergence faible, puisque, contrairement à elle, elle pose l'existence d'une barrière d'inexplicabilité. Face à un phénomène faisant appel à des entités quantiques, les sciences ne sont évidemment pas désarmées. Les technologies non plus. Elles en font de très nombreux usages. Mais les unes et les autres traitent les phénomènes quantiques en se limitant à l'observation de leurs manifestations statistiques. Elles ne cherchent pas à comprendre en profondeur ce qui se trouverait derrière les phénomènes. Certains scientifiques s'y essayent parfois, dans le sens de ce qui était appelé il y a quelques décennies la recherche des variables cachées. Mais sans succès avéré à ce jour. D'autres postulent que cette recherche découle d'un mauvais fonctionnement du cerveau humain. Il génère dans certaines applications des « passages aux limites » qui ne s'imposent pas dans la nature. On les retrouve dans des domaines de fonctionnement aussi différents que les mathématiques et la métaphysique. Selon ce postulat, les cerveaux biologiques, même lorsqu'ils sont interconnectés dans les réseaux de la recherche scientifique, ne peuvent dépasser les limites imposées par l'architecture et les composants des organismes vivants auxquels ils appartiennent. 

Pour la suite, se référer à la 2e partie

Repost 0

Articles Récents

Liens