Overblog
Suivre ce blog Administration + Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

Archives

16 septembre 2008 2 16 /09 /septembre /2008 14:28
La raison et la religion
par Jean-Paul Baquiast 16/09/2008

Qu'attendent les scientifiques et philosophes matérialistes pour réagir contre l'opération visant à mobiliser la raison au service de la foi, comme le pape Benoît 16 vient de tenter une nouvelle fois de la faire, avec la bénédiction du gouvernement français et devant un parterre de centaines d' « intellectuels de toutes provenances » apparemment muets d'admiration?

Rappelons l'argument, à peine caricaturé ici : " face aux excès de toutes sortes que provoque le matérialisme et l'oubli des valeurs chrétiennes, il faut un retour à Dieu. Dieu s'exprime par les Ecritures et par l'Eglise dont les prêtres portent la parole. Dans l'esprit du pape et donc dans celui des catholiques, c'est l'Eglise de Rome qui est la mieux placée pour incarner la parole de Dieu. Mais les autres religions peuvent également s'inscrire dans cette voie."

" Cependant, pour éviter les déviations pouvant résulter d'interprétations intégristes des Ecritures, la raison doit être utilisée. Elle seule est capable de nous montrer l'aspect rationnel de la foi et la nécessité de se fier à ses messages, plutôt que s'abandonner aux passions nées de l'oubli des prescriptions divines. "

Pour nous matérialistes, ce discours représente un véritable retour au Moyen Age, avec les dangers résultant de l'omnipotence attribuée à une Eglise qui n'est pas autre chose qu'un organisme politique comme les autres à la conquête du pouvoir sur les biens et les personnes. La question est d'abord politique. Nous ne voulons pas que des religions, des sectes ou toutes autres mythologies nous imposent leur façon de voir le monde. Nous voulons le faire avec nos propres moyens intellectuels, dont notre raison et la façon dont grâce à la science celle-ci nous permet de construire un monde conforme à nos valeurs. En bref, nous n'avons rien à faire des impératifs de l'Eglise, que ce soit le pape ou un président de la République égaré hors de ses compétences constituionnelles qui prétendent nous les imposer.

Ce premier point posé, sur lequel nul matérialiste ne devrait accepter de céder sous prétexte de tolérance, nous pouvons évidemment nous indigner de voir la façon dont le Pape et le président de la République préemptent le concept de raison. Les scientifiques savent bien qu'il n'existe pas une Raison qu'il faudrait vénérer comme une déesse, selon le vœu des révolutionnaires de 1789. Les processus rationnels ne sont qu'une façon parmi d'autres utilisées par nos cerveaux pour organiser leurs perceptions. Quand ils sont associés à la recherche de modèles scientifiques du monde universellement acceptés par la communauté scientifique, ils fournissent des bases de connaissances sur lesquelles les esprits individuels peuvent s'appuyer, non sans prudence d'ailleurs. Mais on sait qu'ils peuvent aussi justifier les pires aberrations, soit d'une façon dont les sujets pensants n'ont pas conscience (il s'agit notamment des rationalisations décrites par les psychologues) soit de façon délibérée. Quelle tyrannie ne fait elle pas appel à des arguments rationnels apparemment de bonne tenue pour se justifier ? Pour nous, la raison invoquée par le pape et par Nicolas Sarkozy s'inscrit dans l'une ou l'autre de ces catégories.

Il est triste pour les matérialistes de voir qu'aucune des multiples tribunes ouvertes par les médias pour commenter et finalement louer les propos du pape n'ait donné la parole à quelques scientifiques ou philosophes capables de rappeler avec fermeté ce qui précède. Faisons le pour notre part, mais sans illusions. Ceux qui pensent ainsi demeurent bien seuls dans un monde pour qui, c'est le cas de le dire, la raison du plus fort doit rester la meilleure. Si nous évoquons cette question sur ce site, c'est parce qu'elle intéresse tous les matérialistes européens, et non les seuls français.

Partager cet article
Repost0
20 août 2008 3 20 /08 /août /2008 09:19

The Black Hole War
My battle with Stephen Hawking to make the world safe for quantum mechanics

Par Leonard Susskind

Little, Brown and Company 2008

Présentation et commentaires par Jean-Paul Baquiast
01/01/2008

 

 

 Leonard Susskind est professeur de Physique théorique à l'Université de Stanford.

Il a écrit deux autres ouvrages de présentation de la cosmologie moderne et de la théorie des cordes:
- The Cosmic Lanscape
- String theory and the illusion of Intelligent Design.

Il est membre de l'académie nationale des sciences américaine

 

 

La physique théorique, quel intérêt?

Pourquoi jugeons nous utile, bien que n’étant en rien physicien théoricien ni accointé avec aucun d’entre eux, d’essayer dans cette revue de vous faire participer aux discussions agitant périodiquement la communauté des susdits et auxquelles la presse fait régulièrement écho ? Par physique théorique, nous désignons celle qui se situe (pour le moment) bien en amont des possibilités expérimentales, bien en deçà même des capacités intuitives de notre imagination courante et qui ne s’exprime que par des formules mathématiques accessibles au mieux à quelques centaines de personnes dans le monde.

Une première réponse à cette question concerne le jugement que nous pouvons porter sur le fonctionnement de notre cerveau. Ceci intéresse tous ceux qui réfléchissent à la physiologie de cet organe ainsi qu’aux images du monde élaborées par lui et dont certaines, mais pas toutes, affleurent au niveau de nos représentations conscientes puis de nos discours. Comment un appareil neurologique couplé à des organes sensoriels et moteurs ayant été sélectionnés par l’évolution pour distinguer des proies et des prédateurs dissimulés dans la brousse en arrive-t-il à imaginer des entités dont nous risquons de n’avoir jamais connaissance directe ou indirecte et que cependant nous estimons scientifiquement crédibles, au contraire de purs produits de l’imagination mythologique ?

Les physiciens théoriciens répondront, si nous comprenons bien le sens du message délivré par le livre de Susskind présenté ici, que les cerveaux ordinaires ont besoin d’être « recâblés » pour pouvoir se représenter des réalités du monde contre-intuitives mais néanmoins aussi solides que celles résultant de la perception ordinaire. C’est le cas du principe de superposition selon lequel une entité physique peut être vue de deux façons différentes, comme une onde et une particule. Mais pourquoi les cerveaux des pères de la physique quantique ou de la relativité générale ont-ils pu, sans être précédemment recâblés, concevoir de telles représentations de la réalité ? Sans doute parce qu’ils étaient câblés de naissance d’une façon leur permettant de distinguer des patterns significatifs dans la jungle des résultats expérimentaux de leur époque. Les physiciens théoriciens d’aujourd’hui sont certainement aussi câblés de la même façon, et de naissance, puisqu’ils ont pu s’intéresser à des questions que leur milieu original ne les prédestinait pas à étudier. C’est le cas de Léonard Susskind qui a commencé, sauf erreur, sa vie professionnelle comme ouvrier soudeur.

Partant de cette hypothèse, on en arrive à considérer que les modèles de la physique théorique sont importants pour notre compréhension du monde, même si nous ne rentrons pas dans le détail des formules mathématiques permettant de les élaborer. Ils obligent nos cerveaux insuffisamment câblés à se recâbler afin de comprendre un environnement qui n’est plus celui de la jungle primitive mais celui de notre monde actuel. Cet environnement, né des développements des nouvelles technologies scientifiques, nous concerne – nous pourrions presque dire nous menace – aussi directement que le faisait celui de la jungle primitive. Prenons l’exemple du futur LHC qui pourrait éventuellement produire, par collisions entre particules, des états de la matière certes fugitifs mais de masse (ou d’énergie) jusque là inconnue sinon inexistante dans le système solaire. Il sera bon pour tirer partie de ces expériences d’avoir en l’esprit le modèle encore théorique du trou noir élaboré depuis des décennies pour expliquer ce qui se passerait dans un espace-temps où la masse s’accroîtrait infiniment. Il sera bon aussi de rapprocher ce que l’on pourra observer au sein du LHC avec les évènements violents que les astronomes observent au cœur des galaxies et qu’ils ont interprété grâce au modèle du trou noir.

Ainsi, le grand public qui ignore les particularités des trous noirs et les physiciens théoriciens qui se donnent le mal d’essayer de recâbler les cerveaux afin qu’ils puissent s’y intéresser, contribuent-ils à l’élaboration d’un monde nouveau. Il sera peuplé d’entités biologiques (nos corps et nos cerveaux) capables de concevoir et utiliser les instruments de plus en plus sophistiqués apparus dans le cours d’une évolution technologique s’étant depuis quelques décennies superposée à l’évolution biologique et sociétale. Les physiciens théoriciens contribueront ainsi à l’ « émergence » progressive d’un monde ou les trous noirs et tout ce qu’ils impliquent deviendront une réalité objective. Il ne s’agira pas d’une réalité objective en soi, au regard d’un grand observateur situé au dessus des réalités subjectives. Il s’agira d’une réalité objective pour les sociétés anthropotechniques qui sont en train de se mettre en place sur Terre et qui, sait-on, dans quelques décennies ou siècles, pourront s’étendre dans un univers en partie façonné par elles, directement ou par instruments interposés.

Cette évolution des cerveaux se produisant en parallèle des évolutions technologiques et intéressant l’univers microscopique atomique et subatomique a commencé au début de notre ère, lorsque certains philosophes grecs avaient fait l’hypothèse théorique, hors de toute expérience, que la matière était constitué de briques élémentaires, les atomes. Leur cerveau était certainement câblé de façon extraordinaire pour qu’ils puissent s’arracher aux descriptions des 4 éléments de la nature en vigueur de leur temps. Ensuite, d’autres cerveaux ont imaginé, avant toute expérience concluante semble-t-il, que des particules élémentaires, identifiées ensuite comme les baryons (protons et neutrons) et les électrons, contribuaient à la constitution de l’atome. On peut considérer que le saut qualitatif consistant à supposer que toutes les particules se comportent, selon le mode d’observation, soit comme des ondes soit comme des particules, n’a pas non plus été le résultat d’une déduction à partir d’expériences dont les résultats ne s’expliquaient pas dans la physique de l’époque, mais d’une induction vérifiée ensuite seulement par un affinement des expériences.

Pour prendre une image que ne désavouerait pas, espérons-le, Léonard Susskind adepte de cette méthode, les marins de tous temps ont traité de façon différente, dans leurs navigations, les crêtes des vague (les plus dangereuses pour eux) et les ondes longues de la houle, sans imaginer le concept de la superposition onde-particule dont ils ressentaient pourtant tous les jours les effets. Aucun de leurs cerveaux ne leur avait permis d’identifier une présentation de ces phénomènes (dualité onde-particule) qui aujourd’hui s’impose systématiquement. Il a fallu attendre les hypothèses, d’abord théoriques puis ensuite vérifiées expérimentalement, de ceux qui s’étaient efforcés d’analyser les bizarres évènements produits par un rayon lumineux traversant les fentes de Young pour en arriver à conceptualiser le concept de superposition d’état et imaginer qu’il puisse décrire en profondeur bien d’autres mécanismes naturels.

Si pourtant, ce concept avait été vulgarisé et utilisé dans la vie courante, il aurait permis depuis longtemps aux décideurs politiques et à chacun d’entre nous de considérer qu’il n’existe pas de phénomènes en soi, intangibles, non plus qu’il n’existe de personnalités figées dans un comportement dominant. Dotés de l’ancien câblage, nous considérons que telle personne est pour nous soit un ennemi, soit un ami, mais pas les deux. Le comportement de la Russie lors de la crise actuelle dans le Caucase est présenté par les Américains comme ressuscitant la guerre froide, parce que cette présentation leur permet de remobiliser leur potentiel militaire en Europe. Pour les hommes politiques européens voulant ménager les possibilités d’accords commerciaux avec les Russes, il faut présenter ce pays comme devenu tout à fait proche des principes démocratiques chers à l’Europe. Mais les diplomates européens, dont le cerveau est câblé différemment de celui des hommes politiques, de quelque côté qu’ils se trouvent, savent bien que, pour trouver les bases de la nécessaire coopération euroasiatique, il faudra considérer la Russie, nouveau chat de Schrödinger, comme susceptible de se présenter sous des états différents selon les instruments avec lesquels on se propose d’interagir avec elle. Malheureusement, lorsque les diplomates proposent d’appliquer cette méthode, ils sont traités de « capitulards » au lieu d’être félicités pour les avancées conceptuelles permises par leurs cerveaux.

Un des pères de la théorie des cordes

Léonard Susskind a été, sinon le plus connu, du moins l’un des pères de la théorie des cordes, si décriée par le fait qu’elle repose sur des hypothèses paraissant hors de portée des vérifications expérimentales modernes 1)

Ces hypothèses et leur discussion ne s’expriment que par des formulations mathématiques inaccessibles aux profanes, comme nous l’avons rappelé. Mais leur traduction dans le langage courant, même approximative voire inexacte, nous oblige à regarder le monde autrement que nos cerveaux câblés à l’ancienne nous incite à le faire. Imaginer, même de façon approximative, qu’il n’existe pas de particules en soi, descriptibles par des propriétés intangibles, mais des états différents, selon les masses et énergies impliquées, d’une entité unique dite corde, imaginer que cette particule-corde, sous certaines conditions, pourraient être étendues au confins de l’univers, nous oblige à considérer notre monde macroscopique autrement que nous le faisons aujourd’hui, avec nos cerveaux n’ayant pas été convenablement recâblés. On dira la même chose des hypothèses relatives aux extra-dimensions et aux univers multiples envisagés par la théorie des cordes.

Il en est de même des trous noirs ou plus exactement, des propriétés de ceux-ci qui différent profondément selon les descriptions qu’en donnent les physiciens relativistes et les physiciens quantiques. Pourquoi ce thème des trous noirs suscite-t-il tellement d’intérêt. Pourquoi le livre de Leonard Susskind et el conflit qu’il relate, bien que récemment publié, a-t-il provoqué une telle effervescence aussi bien chez les spécialistes que chez les profanes ? Faut-il s’acharner à produire des descriptions consistantes intéressant des phénomènes que jamais personne ne verra, dans lequel jamais personne ne pourra pénétrer et qui se révéleront peut-être un jour différents de ce qu’en dit la physique contemporaine?

Le statut de l’information nous intéresse tous.

C’est que, derrière la guerre des trous noirs décrite par Léonard Susskind se pose un problème fondamental nous intéressant tous. Il s‘agit du statut de l’information. C’est sur l’hypothèse selon laquelle l’information, c’est-à-dire les données permettant de spécifier l’état de l’univers ou de quelque système que ce soit en son sein, ne se crée ni ne se détruit que s’est construite toute la physique moderne depuis Newton. L’idée est loin d’être évidente. Chacun de nous vit dans un monde où l’information semble se créer et se détruire en permanence – ce qui ajoute au désordre des idées ambiantes. Mais les physiciens ont proposé une hypothèse autrement plus rassurante. Si nous connaissons toutes les données initiales caractérisant un système, nous pouvons prédire tous les états que produira l’évolution ultérieure de ce système. Cette capacité à prédire le futur, même si l’on sait qu’elle trouve vite des limites pratiques (nul n’a le cerveau omniscient du démon dit de Laplace), présuppose l’existence d’un stock invariable d’information. Aucun nouvel apport d’information, aucune perte d’information, ne viendra contrarier les calculs que les physiciens pourront faire à partir de ce stock. Il y a là une autre version du principe de la conservation de l’énergie, dont les économistes et les climatologues en lutte contre le réchauffement climatique ont tant de mal à reconnaître la puissance. Si je remplace une centrale à charbon par une autre source d’énergie, je respirerai sans doute mieux, mais le gain total en énergie sera de toutes façons nul.

C’est Stephen Hawking, comme on le sait, qui a troublé ce consensus autour de la conservation de l’information. Les trous noirs sont des régions de l’espace où la gravité est si forte que rien ne peut en échapper. L’hypothèse des trous noirs découle directement des principes de la relativité générale. Si les masses (ou leur équivalent en énergie), courbent plus ou moins sensiblement l’espace-temps, en attirant les objets passant à proximité, on peut imaginer que des astres ayant épuisé tout leur carburant nucléaire, l’hélium, finissent par se contracter sous l’effet de la gravité s’exerçant sur les noyaux atomiques restant. L’étoile se transformera dans certaines conditions en une étoile à neutron puis en un véritable trou noir. Il s’agira non pas d’un trou, mais d’un objet si dense pour des dimensions si réduites qu’il attirera toutes les particules passant à portée, notamment les photons. Pour un observateur extérieur situé suffisamment loin, l’objet deviendra invisible. La théorie, autrement dit les équations de la relativité, permet de calculer les conditions d’occurrence d’un trou noir. L’observation vérifie ces calculs puisque, si l’on ne voit pas le trou noir, on voit l’action qu’il exerce sur les particules entrant dans son voisinage (effet d’accrétion).

Or Stephen Hawking a montré que les trous noirs ne sont pas si noirs qu’ils paraissent. Ils émettent de la radiation (Hawking’s radiation) comme le ferait tout objet doté d’une certaine température. Ce faisant, ils perdent de la masse, puisque l’énergie équivaut à la masse. Au bout d’un certain temps, ils finissent par disparaître. Personne n’a jamais constaté la disparition d’un trou noir, mais l’hypothèse a pu rassurer. Loin d’ouvrir des fenêtres, sous forme de Singularité, vers un inimaginable ailleurs, les trous noirs étaient des objets célestes comme les autres.

Cependant l’hypothèse d’Hawking soulevait un problème. Rien ne permettait d’affirmer que les radiations émises par le trou noir dépendaient en quoi que ce soit des informations absorbées par ledit trou. Le trou noir, dans cette hypothèse, ne dissiperait qu’une simple énergie thermique, qui se disperserait dans l’univers. Les informations accumulées ayant permis la constitution du trou noir semblaient définitivement perdues. Pour prendre un exemple, si un véhicule spatial avait été attiré par un trou noir et désintégré, on aurait pu espérer retrouver les informations caractérisant ce véhicule et ses passagers à la sortie. Or les radiations émises par le trou noir, dans le modèle d’Hawking, étaient thermiques, donc aléatoires. L’information concernant le véhicule était définitivement perdue.

Stephen Hawking, formé à l’école relativiste, n’avait pas voulu voir que son hypothèse sur la radiation des trous noirs contredisait les postulats de la physique quantique, pour laquelle les processus sont réversibles (time-reversal invariant), en dehors évidemment de l’observation, qui fige la connaissance que nous pouvons en avoir Pour la physique quantique, le mécanisme ayant aboutit à la destruction d’une information doit, en fonctionnant à l’envers, permettre de retrouver cette information. L’hypothèse d’Hawking a donc provoqué le déclenchement d’une guerre de trente ans que Léonard Susskind, dans son livre, nomme la guerre du Trou Noir, et dont il donne une relation détaillée.

L’enjeu n’était pas mince. Comme le montre le livre de Susskind, si Hawking avait eu raison, tout ce que l’on considère fonder les lois fondamentales de l’univers était à revoir. Non seulement les travaux de Einstein à Feynman devenaient caducs, mais la physique toute entière était à refondre.

Les armes de Susskind dans la Guerre du Trou Noir

Léonard Susskind décrit en détail les péripéties de la guerre. Mais il en profite, et c’est aussi tout l’intérêt du livre, pour proposer une description très vivante des relations entre les têtes pensantes de la physique théorique, dont les universités américaines étaient à l’époque incontestablement le cœur. Dans ce monde, très hiérarchisé en fonction des statuts et des succès universitaires, il se situait non parmi les tous premiers, mais à un rang honorable. Il a pu, grâce à son sens critique et à sa créativité, améliorer progressivement son rang.

Aujourd’hui, il est considéré comme un des pères de la théorie des cordes mais aussi, conjointement avec le physicien néerlandais et prix Nobel Gérard ‘t Hooft, le père d’hypothèses plus ésotériques, notamment le « principe holographique ». Celui-ci postule que ce qui constitue notre monde, jusqu’à nous-mêmes, compose un hologramme projeté jusqu’aux confins de l’espace. En s’appuyant sur ce principe, Susskind et ‘t Hooft ont pu démontrer la fausseté des affirmations de Hawking. Dans la Guerre du Trou Noir, la victoire des deux champions a été indiscutable puisque, en 2004, Hawking a concédé que l’information ne se perdait pas au coeur des trous noirs. Ce ne fut cependant pas Susskind qui a reçu la reddition de l’orgueilleux vaincu, mais le physicien John Preskill, de Caltech, avec qui Hawking avait conclu un pari spectaculaire, dont le prix fut une encyclopédie.
.
Il semble désormais acquis que l’information n’est jamais perdue, même si le trou noir s’évapore. En 1997, le jeune physicien argentin Juan Maldacena a montré que des questions posées par la gravitation quantique peuvent être transposées dans des questions équivalentes impliquant une théorie différente ne faisant pas appel à la gravitation, et où par conséquent l’information ne peut être perdue. On pourrait ainsi en principe prendre un trou noir, le transposer dans la nouvelle théorie, dans laquelle nous pouvons suivre l’histoire de l’information, laisser le trou noir s’évaporer et retrouver l’information. Ce ne sera sûrement pas avec des trous noirs galactiques géants que l’on pourrait ainsi procéder, mais peut-être avec des minis-trous noirs microscopiques, si les futurs accélérateurs de particules permettent d’en produire qui soient suffisamment stables.

Léonard Susskind présente pour nous un autre grand mérite. Il s’agit de sa capacité à représenter pour un public non spécialiste, d’une façon certes approchée mais suffisante, les grands débats de la physique théorique auxquels il a participé. Dans deux ouvrages précédents, The Cosmic Landscape puis String Theory and the Illusion of Intelligent Design, il avait décrit, bien plus clairement selon nous que Brian Greene, toutes les implications de la théorie des cordes, y compris l’hypothèse, encore difficilement reçue dans l’opinion, des Univers multiples. Profondément athée, Susskind avait pensé montrer dans ce dernier ouvrage l’inanité du principe anthropique fort selon lequel l’univers a été réglé par un créateur intelligent pour permettre l’apparition de l’homme et de la conscience. Nous ne l’avions pas suivi pour notre part dans cette voie, pensant que la science ne peut ni prouver ni contredire l’existence de Dieu.

Pour montrer tous les enjeux de la Guerre du Trou Noir, Léonard Susskind a du consacrer l’essentiel de son livre à décrire de la façon la plus claire possible les différents concepts à la base de la physique quantique et de la Relativité, ainsi que ceux de la théorie des cordes et du principe holographique. Il y réussit parfaitement, sauf peut-être dans les derniers chapitres, consacrés à l’anti-Espace De Sitter (ADS) aux branes, à la conjecture de Maldacena, aux trous noirs extrêmes (extreme black holes) et finalement à ce qu’il considère comme la confirmation du principe holographique. Là, l’attention faiblit et le plus consciencieux des lecteurs a tendance à tourner les pages. L’attention se réveille cependant au dernier chapitre. L’auteur nous rapproche enfin de ce que l’on attendait : la perspective que des collisions entre noyaux atomiques puisse créer des trous noirs. Il mentionne à cette fin le Relavistic Heavy Ion Collider de Brookhaven. Mais la même chose pourrait sans doute se produire au Cern lorsque le LHC entrera en opération. Il faut espérer que Léonard Susskind puisse être associé à ces futures expériences, pour nous en expliquer le sens dans un nouvel ouvrage.

Conclusion

Mais nous voudrions pour conclure revenir à la question initialement posée : quel enseignement tirer de tout ceci quand on se trouve confronté aux grandes interrogations de l’existence : que sont l’homme, son esprit, la connaissance scientifique au regard du monde tel que perçu par nos sens ? La physique théorique ne permet évidemment pas de répondre à ces questions. Elle ouvre cependant des fenêtres qu’il nous appartient d’utiliser pour essayer de voir un peu plus loin que dans notre cour. Prenons l’exemple des dimensions de l’univers microscopique. Si comme nos grands-parents le faisaient nous pensions que les objets les plus petits étaient les microbes que venait de découvrir Pasteur, notre imagination ne serait guère sollicitée à voir au-delà et notre curiosité s’éteindrait vite. On se bornerait à bien se laver les mains pour en éliminer les microbes, même si nous admettions qu’ils nous étaient invisibles. . Aujourd’hui, nous apprenons que les forces qui comptent vraiment pour définir notre monde se mesurent en échelles dites de Planck : longueur (10-32 centimètres), masse (10-8 kilogrammes) et temps (10-42 secondes), toutes longueurs, masses et durées que nous n’aurons jamais aucune chance de percevoir directement, même avec les plus forts microscopes. Ces structures qui pourtant sont celles autour desquelles s’organise notre corps sont aussi éloignées de nous que le sont les montagnes couvrant une planète située dans une galaxie à 10 milliards d’années-lumières de la nôtre.

Au plan cosmologique, comme le rappelle Léonard Susskind dans sa conclusion (elle même rappel de son livre précité The cosmic landcape), nous sommes confrontés à des situations aussi étonnantes. Dans un univers en expansion exponentielle, sous l’influence de la constante cosmologique, quelle que soit la valeur de cette dernière, en tout point de l’espace que regarde n’importe quel observateur dans le cosmos, il ne verra pas au-delà d’un horizon dit cosmologique d’environ 15 milliards d’années lumière. Au-delà, les galaxies ont atteint des vitesses d’éloignement supérieures à la vitesse de la lumière si bien que cet observateur ne pourra plus jamais les revoir, et ceci éternellement. De cette constatation, Léonard Susskind tire une étonnante conclusion, que nous vous laisserons découvrir, relative à la similitude entre le rayonnement d’un trou noir vers l’extérieur et le rayonnement de l’horizon cosmique vers l’intérieur.

Si bien dit-il, que si la confusion et la perte de repère règnent dans la physique moderne, cependant quelques nouveaux patterns semblent émerger. Ils semblent ne pas comporter de significations. Mais comme ce sont des patterns, ils en ont sûrement. Ces significations se découvriront un jour ou l’autre, entraînant l’apparition de nouvelles mathématiques et de nouvelles logiques.

Comme quoi la lecture d’un ouvrage sur la physique théorique est dix fois plus excitantepour l’esprit que le mieux construit des romans d’aventures. Il s’agit en fait de la vraie Fontaine de Jouvence.

Note
1)  En vous présentant il y a quelques mois le livre remarquable de Lee Smolin « The Trouble with Physics »
(http://www.automatesintelligents.com/biblionet/2007/juil/troublewithphysicshtml.htm)
nous nous disions convaincus par son argumentation, selon laquelle étudier la théorie des cordes est une perte de temps et détourne de l’étude des vrais problèmes de la physique. Mais depuis, nous avons changé d’avis, en fréquentant notamment les écrits de Michel Cassé et de Aurélien Barrau.

Partager cet article
Repost0
14 juin 2008 6 14 /06 /juin /2008 21:59
Le cerveau bayésien
par Jean-Pa Baquiast 14/06/2008

Deux articles de grande portée épistémologique ont été publiés à un mois d’intervalle par le NewScientist, dont la fécondité ne cesse de nous étonner. Ces articles s'articulent logiquement. En voici une présentation commentée rapide.

Some swans are grey

Le premier article, « Some swans are grey » de Robert Matthews (10 mai 2008, p. 44) relativise l’intérêt de la falsifiabilité proposée par Carl Popper dans « La logique de la découverte scientifique, 1934 » afin de distinguer les « vraies » hypothèses scientifiques des hypothèses présentées par les « fausses sciences » 1). Selon Popper, une théorie scientifique ne tire pas sa valeur du fait qu’elle est justifiée par un certain nombre d’observations. Elle n’a de portée que si elle laisse ouverte la possibilité qu’une expérience puisse la falsifier, autrement dit la contredire. Une théorie affirmant que pour telle ou telle raison toutes les planètes sont sphériques n’est pas démontrée par l’accumulation d’observations montrant des planètes sphériques. Elle peut par contre prétendre à la rigueur scientifique car elle laisse ouverte l’hypothèse qu’une planète puisse être cubique. Tant qu’une telle planète cubique ne sera pas observée, la théorie demeurera valide. Si on observait une planète cubique, la théorie devrait par contre être modifiée. On sait que les poppériens avaient reproché aux freudiens de se placer en dehors de la science expérimentale. « Vous nous expliquez que tous ces symptômes révèlent l’existence de l’inconscient, mais votre conception de l’inconscient est si extensive qu’elle ne permet pas d’affirmer que tel symptôme ne relève pas de l’inconscient ».

Ajoutons que les expériences destinées à prouver telle théorie ou hypothèse dépendent de l’état de l’instrumentation scientifique, lequel se perfectionne sans cesse. Il faut donc distinguer l’infalsifiabilité de principe et l’infalsifiabilité de fait. On ne dira pas qu’une théorie affirmant la sphéricité des planètes n’est pas falsifiable au prétexte que l’on ne dispose pas d’instruments astronomique permettant d’observer toutes les planètes de l’univers (infalsifiabilité de fait). Elle est falsifiable parce qu’il suffirait d’observer une planète cubique – ce que rien n’interdit en principe de faire – pour l’invalider. Si au contraire j’affirmais que les planètes ont une âme, ce qu’aucun instrument astronomique ne pourra jamais vérifier, j’énoncerais une hypothèse infalsifiable en principe.

La critique poppérienne est aujourd’hui largement utilisée par les scientifiques voulant montrer que la cosmologie n’est pas une « vraie science » 2) Selon eux, ni la théorie des cordes ni des hypothèses telles que celle des multivers ne peuvent être falsifiées, car elles ne comportent pas de prédictions pouvant être contredites par l’expérience. Ce n’est le cas ni de relativité ni de la physique quantique ni même d’hypothèses apparemment très contre intuitives comme celles relatives aux trous noirs. D’autres cosmologistes rappellent au contraire avec pertinence qu’il ne faut pas confondre infalsifiabilité de principe et infalsifiabilité de droit, comme indiqué ci-dessus. Il est n’est pas possible en effet d’affirmer qu’aucune expérience ne permettra jamais de tester les hypothèses de la théorie des cordes ou du multivers. Les astrophysiciens s’efforcent au contraire en permanence d’en imaginer.3) Quoiqu’il en soit, quel que soit le mérite du travail d’épistémologie critique fait par Popper, permettant de distinguer les « vraies sciences » des fausses sciences ou superstitions, ce travail fait actuellement l’objet, non d’une remise en question radicale, mais de tentatives d’approfondissement voire de dépassement. Aujourd’hui, beaucoup de jeunes scientifiques se plaignent de ne pas oser formuler d’hypothèses audacieuses au prétexte que selon Popper ces hypothèses ne seraient pas falsifiables. Pour eux, le développement des connaissances scientifiques ne peut se faire que sur un très large soubassement d’hypothèses faisant parfois appel à une imagination non immédiatement vérifiable. C’est un peu ce que rappelait le regretté Paul Feyerabend dans son ouvrage « Pour l’anarchisme méthodologique ». Il ne faut pas brider l’imagination. Ces chercheurs constatent en effet avec dépit qu’après quelques années, leurs hypothèses, si elles avaient été publiées, auraient été vérifiées grâce aux progrès de l’instrumentation.

Dans le même temps, les conditions dans lesquelles sont menées les vérifications expérimentales méritent de plus en plus l’examen critique. La preuve empirique n’existe pas en soi. Elle est toujours construite, notamment à partir d’une théorie implicite, sinon de véritables préjugés non scientifiques. Dans d’autres cas, on constate que des preuves expérimentales utilisées pour démontre la fausseté d’une théorie ne portent pas sur la théorie elle-même mais sur des conséquences attribuées par erreur à celle-ci. Par ailleurs, même des théories reconnues comme fausses, telle la gravitation newtonienne, peuvent encore servir de cadres de prédiction valables dans toute une série de phénomènes de la physique courante. Les scientifiques cherchent donc à trouver autre chose que le test de Popper pour garantir le caractère scientifique d’une hypothèse ou théorie intéressant un domaine nouveau. Sans le rejeter par principe, ils cherchent au moins à l’affiner.

Mais comment ? C’est là qu’intervient un raisonnement faisant appel aux probabilités, dit bayésien en l’honneur du mathématicien et statisticien britannique du 18e siècle Thomas Bayes. Dans cette approche, la « vérité » ou « plausabilité » d’une hypothèse est fonction du nombre de preuves qui jouent en sa faveur. Il ne s’agit pas nécessairement de preuves expérimentales déjà obtenues en fonction de l’état actuel des instruments, mais de probabilités de preuves, preuves susceptibles d’être obtenues dans un avenir pas trop éloigné. Le chercheur en ce cas ne cherche pas la falsifiabilité mais la plausibilité d’une hypothèse, en accumulant le plus de preuves ou probabilités de preuves en sa faveur. Plus l’hypothèse est prouvée, plus elle sera considérée comme plausible. Mais elle ne sera pas rejetée si un certain nombre d’expériences la contredisent. On pourrait dire, en forçant un peu les termes, qu’une hypothèse devient crédible dès lors qu’elle repose sur plus de 50% de preuves favorables. Pour choisir entre des théories rivales, c’est la théorie qui présente le plus fort pourcentage de résultats favorables actuels, ou la plus forte probabilité de résultats favorables futures, qui devra être élue. Il faudra donc faire un véritable pari sur elle

Pour en revenir à l’hypothèse des multivers, celle-ci peut être considérée comme scientifique en termes bayésiens, car c’est elle qui est aujourd’hui compatible avec le plus grand nombre d’observations expérimentales conduites, non à son propos, mais à partir des théories sous-jacentes, gravitation et mécanique quantique. Il s’agit donc, en l’état actuel de celles-ci, du « meilleur pari » à conseiller aux bookmakers de la cosmologie.

Essence of thought

Le second article que nous présentons et discutons dans ce texte, Essence of thought, est de Gregory T. Huang (31 mai 2008, p. 30). Il relate une direction de recherche visant à formuler par l’intermédiaire d’une équation unique simple toutes les opérations réalisées par le cerveau.

Revenons en arrière. Nous venons de voir comment les scientifiques s’efforcent actuellement de réintroduire l’imagination scientifique dans la pratique quotidienne d’élaboration des connaissances. Certes, la sanction suprême que représente l’expérience ne peut pas être refusée. Mais la capacité de formuler des hypothèses sur le monde ne doit pas être inhibée par la peur de ne pas pouvoir proposer d’expériences falsificatrices. La formulation de ces hypothèses ouvrira obligatoirement un large éventail de vérifications expérimentales, les unes susceptibles de confirmer les hypothèses, les autres de les infirmer. Le retour d’expérience permettra d’identifier celles des hypothèses disposant du plus grand nombre de preuves expérimentales favorables, voire de la plus grande probabilité d’être ultérieurement vérifiées par les expériences à venir. Ces hypothèses seront donc considérées comme présentant le modèle du monde le plus apte à comprendre le milieu dans lequel est plongé le scientifique.

Or c’est précisément de cette façon que les systèmes nerveux des animaux procèdent pour construire les représentations du monde dont ils ont besoin. Leur cerveau, ainsi que l’a bien montré Christopher Frith 4) , est bombardé en permanence de messages venant des sens. Pour les interpréter, le cerveau élabore des hypothèses relatives à la signification de ces messages, en s’appuyant sur le vaste catalogue des expériences déjà vécues par le sujet et mémorisées dans les aires adéquates du cerveau. Les humains ne se distinguent pas fondamentalement en cela des autres animaux. Si mes sens reçoivent des informations sonores et visuelles émises par un insecte se rapprochant de moi, mon cerveau compare ces informations avec celles correspondant aux « signatures » qu’il a conservées en mémoire à la suite des interactions précédentes avec des insectes. Ceci afin d’en tirer les ordres permettant d’éviter des situations désagréables ou dangereuses. Le cerveau fera une première hypothèse, en « supposant » que l’insecte est un hyménoptère piqueur et non une mouche. Il vérifiera immédiatement cette hypothèse en commandant aux organes sensoriels d’affiner leurs observations. Si l’hypothèse de l’hyménoptère est confirmé (renforcée), restera à la préciser : guêpe, abeille ou frelon ? Le cerveau procédera à des observations complémentaires. Il faudra ensuite faire des hypothèses sur la direction et la vitesse de l’objet ciblé ainsi que sur la meilleure façon d’éviter un choc frontal. Le tout en quelques centièmes de seconde. Les sous-mariniers reconnaîtront sans peine le travail que fait un asdic moderne couplé avec un ordinateur pour identifier un écho susceptible de révéler la présence d’un ennemi.

Le schéma que nous venons de décrire présente cependant un défaut. Il laisse supposer au lecteur que le cerveau se comporte en véritable chef d’orchestre capable de déclencher au choix les meilleures actions et réactions nécessaires à la survie, comme le ferait l’humain chef de quart à bord du sous-marin évoqué ci-dessus. En réalité, toutes les opérations évoquées ici se déroulent sur un mode automatique, par mise en œuvres d’algorithmes simples. Ces algorithmes eux-mêmes ne tombent pas du ciel, ils ont nécessairement résulté de millions d’années d’évolution. Mais peut-on les identifier?

La réponse n’était pas claire, jusqu’à ces derniers temps. On a certes proposé depuis longtemps l’hypothèse que le cerveau se comporte comme un système automatique de reconnaissance de formes. Il construit une première forme hypothétique à partir des signaux initialement reçus, il la compare à des formes voisines conservées en mémoire, affine si nécessaire l’analyse, puis finalement propose un diagnostic permettant ou bien de reconnaître et nommer la forme perçue ou bien de la classer comme inconnue. Le tout utilise des empilements de réseaux neuronaux du type des neurones formels s’échangeant de l’information 5) .Cependant, la complexité du cerveau est telle que, si l’on peut identifier à peu près bien les mécanismes élémentaires correspondant à ces diverses phases, une grande obscurité demeure concernant les processus neuronaux profonds intéressant notamment l’apprentissage et la prise de décision. Le cerveau accomplit de nombreuses fonctions complexes, souvent en parallèle, perception, attention, émotion, raisonnement, mémorisation, apprentissage. Il utilise un nombre considérable de cellules différentes, réparties dans de multiples aires de compétences elles-mêmes reliées par un tissu apparemment inextricable de fibres associatives. Les échanges entre tous ces acteurs obéissent-ils à des logiques chaque fois différentes ou font-elles appel à une logique commune ?

La bonne nouvelle est qu’une réponse à ces questions difficiles semble s’esquisser. Gregory T. Huang rapporte en effet, dans l’article précité du NewScientist, qu’une équipe de l’University College London (UCL), dirigée par Karl Friston 6)  a proposé une loi mathématique qui pourrait selon certains constituer la « grande théorie unifiée » du cerveau. Le neurologue français Stanislas Dehaene, professeur au Collège de France, aurait marqué son intérêt pour ce travail, qui devrait selon lui apporter des idées neuves très profondes dans les sciences cognitives 7). Les hypothèses de Karl Friston reposent sur la théorie du cerveau bayésien inspirée des idées que nous venons de résumer dans la première partie de notre article, relativement à la plausibilité des hypothèses au regard des vérifications expérimentales. Le cerveau bayésien est conçu comme une machine probabiliste qui fait constamment des prédictions sur le monde et les actualise en fonction de ce qu’il perçoit.

En 1983, le chercheur canadien Geoffrey Hinton avait suggéré que le cerveau prenait des décisions basées sur les incertitudes du monde extérieur. Ultérieurement d’autres chercheurs avaient envisagé la possibilité que le cerveau puisse représenter ses connaissances sur le monde en terme de probabilités. Une distance dans l’espace, ainsi, ne serait pas estimée par un nombre unique mais par une série de valeurs dont certaines apparaissent plus probables que les autres. L’expérimentation, c’est-à-dire les nouveaux messages reçus des sens, obligerait à modifier (actualiser) ces valeurs en temps réel. On emploie le terme de cerveau bayésien parce que Thomas Bayes avait réalisé une méthode permettant de calculer comment évolue la probabilité d’un évènement au reçu de nouvelles informations le concernant.

Le fait que le cerveau fasse en permanence des prédictions sur le mode bayésien concernant aussi bien les évènements extérieurs que les modifications de ses propres états internes n’est plus discuté aujourd’hui. Mais cela n’explique pas pourquoi le cerveau fonctionne de cette façon, ceci avec semble-t-il une très grande uniformité quelles que soient les zones cérébrales concernées. Pour expliquer cette convergence, Friston a repris l’hypothèse du cerveau bayésien en l’appliquant non seulement à la perception mais à toutes les autres fonctions du cerveau. Il montre que tout ce que fait le cerveau est conçu pour minimiser l’erreur de perception (assimilée au concept d’ « énergie libre » pour des raisons que nous ne développerons pas ici, découlant de la modélisation sur les réseaux de neurones formels). Le corps considéré comme une machine thermodynamique obligée pour survivre d’économiser son énergie a en effet intérêt à minimiser l’erreur de perception afin de réduire le nombre d’opérations nécessaires à l’affinement des messages reçus des sens et minimiser par ailleurs l’effet de surprise, toujours coûteux, lorsque l’erreur de perception est élevée. « Tout ce qui peut changer et s’adapter dans le cerveau le fera pour réduire l’erreur de perception, depuis la décharge du neurone individuel, le câblage entre ces neurones, les mouvements des yeux et les choix de la vie quotidienne ».

L’incitation à la plasticité cérébrale, grâce à laquelle le cerveau modifie ses câblages en fonction de l’expérience, en découle. Il s’agit du mécanisme de base permettant la mémorisation et l’apprentissage. Mais plus généralement, c’est l’ensemble des échanges entre les niveaux d’entrée des informations sensorielles et les différents niveaux de réponse et d’intégration des couches corticales supérieures qui obéirait à cette exigence d’économie 8). Selon Friston, l’hypothèse pourrait expliquer également la façon dont s’organisent et travaillent les neurones en charge des fonctions les plus nobles du cerveau : l’élaboration de la pensée et sans doute même celle de la conscience de soi. Les neurones miroirs qui s’activent lorsque l’on regarde un tiers exécuter un mouvement, et qui s’activent de la même façon lorsque l’on fait soi-même ce mouvement, sont en effet considérés comme jouant un rôle important dans la production de la conscience. Il serait intéressant de montrer qu’ils fonctionnent eux-aussi sur la base de processus simples visant à minimiser l’erreur de perception (perception externe et perception interne). Beaucoup des prétendus « mystères de la conscience » pourraient s’éclaircir. La conscience peut en effet être considérée comme la perception par certains neurones spécialisés des états internes du cerveau, perception organisée autour d’un modèle du Moi développé dans le cadre des interactions sociales. Nous reviendrons sur cette propriété possible du cerveau Bayésien « conscient » ultérieurement.

Si ces hypothèses étaient vérifiées par les diverses expériences en cours faisant à la fois appel à des modèles informatiques et à l’utilisation de l’imagerie cérébrale, nous disposerions d’une explication simple permettant de comprendre l’apparition et le développement progressifs des réseaux neuronaux dans la suite des espèces vivantes et ce jusqu’à l’homme. On retrouverait en effet à la base de ces constructions des principes universels d’organisation visant à économiser l’énergie. On peut identifier ces principes aussi bien dans l’anatomie et la physiologie des cellules et organes que dans les systèmes thermomécaniques du monde non biologique. Par ailleurs, de nombreuses applications, en sciences cognitives, en thérapeutique humaine et, bien sûr, en robotique autonome, pourraient être envisagées.

Notes
1) Il faudrait distinguer théorie et hypothèse. La plupart des articles destinés au grand public ne le font pas, notamment ceux du NewScientist analysés ici. Nous ne le ferons donc pas non plus. Admettons seulement que la théorie désigne le cadre général dans lequel s’inscrivent de nombreuses hypothèses et aussi de nombreuses vérifications expérimentales, dites empiriques. L’hypothèse est généralement de portée plus limité et ne s’accompagne pas toujours d’une formulation théorique développée. Ainsi, au sein de la théorie de la relativité, certains chercheurs émettent l’hypothèse que la gravité pourrait ne pas s’exercer de la même façon dans tous les points de l’espace-temps. Si cette hypothèse était démontrée expérimentalement, elle n’obligerait pas à abandonner le cadre théorique tout entier de la relativité, mais à le modifier sur certains points. Rappelons par ailleurs qu’aucune théorie scientifique ne pouvant se prétendre définitive, il est légitime de la présenter comme hypothétique. Mais les théories confirmées par toutes les expérimentations inspirées par elles présentent plus de solidité que les hypothèses théoriques reposant sur un petit nombre d’observations, elles-mêmes parfois conduites dans des conditions discutables.
2) Peter Woit, Not even wrong, traduit par Michel Cassé, Même pas fausse, Dunod 2007
3) Voir notre entretien avec Michel Cassé. http://www.automatesintelligents.com/interviews/2007/oct/casse.html
4) Professeur Chris Frith. Voir notre recension de son livre Making up the mind
How the Brain Creates our Mental World
http://www.automatesintelligents.com/biblionet/2007/juil/frith.html
5) Sur les neurones formels, voir
http ://www.chimique.usherbrooke.ca/cours/gch445/neurones-intro.html
6) Professeur Karl Friston http://www.fil.ion.ucl.ac.uk/Friston/
NB: Le Wellcome Trust Centre for Neuroimaging compte le professeur Chris Frith comme chercheur émérite.
7) Voir notre entretien avec Stanislas Dehaene http://www.automatesintelligents.com/interviews/2008/dehaene.html
8) Rappelons que dans ce schéma, un double circuit d'information s'organise: celui des informations reçues par les sens, informations entrantes ou bottom up, et celui des informations émises par le cortex qui constituent les hypothèses auquel celui-ci procède pour essayer d'identifier les données entrées en les comparant à des données précédemment mémorisées. Elles peuvent être dites descendantes ou top down. Ces données commandent en général des mouvements du corps permettant d'affiner les perceptions sensorielles. L'erreur de perception résulte de l'écart entre les résultats produits par ces deux types de circuit. C'est elle que, pour des raisons d'économie, le système global s'efforce de minimiser. Les organismes y réussissant le mieux ont le plus de chances de survie.

Partager cet article
Repost0
5 mars 2008 3 05 /03 /mars /2008 21:17

Philosophie des sciences
De l'évolution et de l'émergence I
par Jean-Paul Baquiast 03/03/2008

L'article est publié en deux morceaux compte tenu de sa longueur

Le journaliste scientifique Philippe Petit a consacré quatre séances de sa série Science et conscience, en février 2008 sur France Culture, au thème de l;&’eacute;mergence. Celui de l'évolution lui est indissociablement lié. Les contributions des scientifiques et philosophes interrogés nous donnent l'occasion, pour notre part, de tenter une synthèse non seulement des différentes acceptions données à ces deux concept aujourd'hui, mais de la façon dont, au regard de ces acceptions, nous pourrions nous représenter l'évolution du monde tel que ce monde nous apparaît, depuis les premiers évènements décrits par le Big Bang jusqu'au développement contemporain, sur Terre, de systèmes dits artificiels capables de performances jusque là considérées comme spécifiques de la vie et du cerveau humain dit conscient.

Nous pouvons faire l'hypothèse que la prolifération de ces systèmes artificiels, capables d'entrer en symbiose ou en conflit avec les organismes vivants actuels, constituera un évènement majeur du 21e siècle - si d'ici là nos civilisations ne s'effondrent pas. En fonction de la définition que nous nous donnerons de l'évolution et de l'émergence, nous pourrons considérer les systèmes artificiels comme une suite logique de l'évolution multi-millénaire des systèmes physiques et biologiques terrestres ou au contraire comme marquant une rupture aux conséquences susceptibles d'affecter éventuellement notre environnement cosmologique tout entier.

Introduction

Rappelons d'abord comment le cerveau du sujet construit des modèles du monde permettant à celui-ci de s'adapter au milieu dans lequel il vit (cf. par exemple : « Making up the Mind », de Christopher Frith et notre chronique http://www.automatesintelligents.com/biblionet/2007/juil/frith.html). Il faut se représenter le sujet comme un organisme vivant (on ne définira pas la vie à ce stade) doté d'une membrane ou frontière le séparant du monde extérieur et communiquant avec ce dernier par des périphériques : organes sensoriels et organes effecteurs. Ces organes sont reliés par un système nerveux lui-même doté, dans les organismes évolués, d'une centrale d'interconnexion, de mémorisation et de traitement des données provenant des périphériques. Nous l'appellerons le cerveau.

L'organisme vivant « néguentropique » est plongé dans un milieu non vivant qui exerce sur lui une pression « entropique » tendant en permanence à le dissoudre. Pour survivre, il doit donc trouver dans ce milieu les éléments lui permettant de se développer et éviter ceux susceptibles de le détruire. Mais le milieu renferme une quantité illimitée de ressources potentiellement utiles ou nuisibles. L'organisme ne connaît que celles du milieu local avec lequel il est en contact immédiat. Il doit donc se construire un modèle dynamique de ce milieu local. Il élaborera par essais et erreurs, à partir de ce modèle, des stratégies de survie exploitant au mieux les ressources locales.

Ce processus commence dès les origines de la vie. On peut considérer qu'une bactérie est du fait de son existence un modèle du milieu dans lequel elle cherche à survivre. Ses différentes propriétés sont en effet adaptées aux caractères du milieu dont elles représentent si l'on peut dire une image en creux. On peut aller plus loin et dire que la bactérie représente un concept global, fait de concepts de détail, par lequel elle-même et le réseau bactérien auquel elle appartient modélisent le milieu afin de l'exploiter.

Dans le langage courant, un concept est défini comme « une idée ou représentation de l'esprit qui abrège et résume une multiplicité d'objets empiriques ou mentaux par abstraction et généralisation de traits communs identifiables par les sens ». (Wikipedia). Nous ajouterions à cette définition une précision importante. Un concept ne se crée pas dans l'esprit (plus exactement dans le cerveau) sans que ceci réponde à une utilité. Le concept se crée dans le cerveau parce que celui-ci est capable d'abstraire à partir de perceptions différentes les traits communs qui peuvent faire soupçonner une permanence intéressante pour la survie. Le concept permet donc de réagir rapidement à une perception nouvelle. Ou bien celle-ci signale un élément du monde extérieur déjà connu et ne nécessitant pas un effort d'adaptation, ou bien elle signale un élément nouveau, avantageux ou dangereux, non prévu par le concept et auquel il faudra s'adapter. Dans ce cas, en cas de succès des conduites d'adaptation, après un temps de latence suffisant pour éliminer les perceptions parasites, le concept sera enrichi ou modifié en profondeur.

Tout ceci se modélise aujourd'hui très facilement avec des robots dotés de corps comprenant des organes sensoriels, des organes effecteurs et une unité centrale. Les informations reçues directement en entrée ou indirectement en retour de celles émises en sortie construisent dans l'unité centrale du robot une représentation du milieu dans lequel le robot opère. A cette fin, l'unité centrale est équipée de dispositifs capables d'apprentissage, tels des réseaux de neurones formels. En interagissant avec le milieu, le robot se dote progressivement d'un modèle symbolique du monde tel qu'il le perçoit par ses organes d'entrée-sortie. Ce modèle est construit à partir des expériences passées du robot et sert de référence pour les décisions futures.

Si le robot avait précédemment constaté qu'un pied de table l'empêchait de progresser, il évitera dorénavant tout ce qui sera perçu comme équivalent à un pied de table, par exemple un pied de chaise ou la jambe d'un opérateur. Son cerveau se sera donc enrichi d'une représentation générique ou concept désignant non pas un pied de meuble mais un obstacle à la progression. Lorsqu'il identifiera dans son environnement un nouvel obstacle, il se référera à ce concept pour choisir entre deux « comportements de survie » différents, éviter l'obstacle ou, s'il est léger, continuer à progresser en le bousculant. Ajoutons (nous simplifions) que lorsque plusieurs robots opèrent en groupe, ils apprennent à échanger leurs représentations individuelles ou concepts par l'intermédiaire d'un langage symbolique commun élaboré spontanément. Le langage fait correspondre à chaque concept un signal permanent grâce auxquels les contenus de mémoires peuvent être échangés. Les robots se dotent ainsi d'une représentation collective du monde cumulant les expériences individuelles de chacun d'entre eux et augmentant leur réactivité. Si un robot identifie un obstacle infranchissable, il le signalera aux autres, ce qui leur évitera de gaspiller de l'énergie en s'en approchant pour l'identifier eux-mêmes.

Cette définition correspond à la façon dont un humain doté d'un cerveau associatif et capable de verbalisation langagière se représente le monde afin de s'y adapter. Mais elle peut être « dégradée » pour s'appliquer à des organismes dotés d'un cerveau plus rudimentaire, dont les capacités de création de concept et d'échange sont moindres. Au plus bas de l'échelle, nous avons mentionné les bactéries, qui sont handicapées par le manque de système nerveux. Leurs capacités de représentation symbolique sont très réduites, même lorsqu'elles opèrent en groupe (web bactériens). Les échanges qu'elles entretiennent sont également très réduits. Mais ils existent néanmoins, sous forme de messages chimiques. On connaît le désormais célèbre « quorum sensing », processus par lequel des bactéries évaluent leur population au sein d'un organisme infecté, afin de ne devenir virulentes que si elles sont en nombre suffisant pour submerger les défenses immunitaires de l'hôte.

Mais prenons un primate arboricole, dont les organes sensoriels et de traitement de l'information sont très proches de ceux de l'homme. Le « système primate » peut plus facilement que le « système bactérie » être simulé par un robot du type de celui que nous venons de décrire. Plaçons en esprit ce primate dans une forêt parcourue de prédateurs. A la suite de millions d'années de lutte pour la survie, le cerveau de ce primate a construit sous forme d'associations permanentes entre neurones des représentations du monde forestier dangereux dans lequel l'espèce s'est développée. Jean-Pierre Changeux appelait ces représentations des objets mentaux. Nous les appellerons conformément à la terminologie utilisée ici des concepts non verbalisés. Ces associations entre neurones ou objets mentaux ou concepts peuvent être dits épigénétiques, car une grande partie correspond à des acquis de l'espèce transmis par héritage et une autre, sans doute moins importante, à des apprentissages individuels dits aussi culturels. Les concepts dont disposent ces primates sont en nombre réduits et d'ampleur elle-même strictement limitée aux besoins de survie. L'animal ne s'intéresse qu'à son milieu. Ceci parce que l'organisme, spontanément, fonctionne à l'économie, comme d'ailleurs toutes les structures naturelles. Recueillir des données, les mémoriser et les traiter consomme beaucoup d'énergie.

Les cerveaux de nos ancêtres primates, ceux qui ont survécu aux pressions de sélection, ont supposé (fait l'hypothèse), par essais aléatoires et erreurs, que certaines lignes horizontales et verticales correspondaient aux excroissances de « quelque chose » dans lequel il était possible de se réfugier pour échapper à un danger. De même leurs cerveaux ont fait l'hypothèse que des images identiques se succédant rapidement et conforme à un certain modèle (couleur noire, être pourvu de griffes et de dents…je simplifie) correspondaient à l'approche d'une entité déjà enregistrée en mémoire comme capable de faire des blessures douloureuses à laquelle il fallait échapper. Bien évidemment, les constructions que des millions d'années après, ayant hérité génétiquement de l'expérience de ces primates, nous percevons avec un grand luxe de détails utiles n'étaient aux origines ni nommées ni détaillées. Nos ancêtres animaux ne percevaient aux origines ni un arbre ni une panthère, mais un ensemble de stimulus cohérents comparables à ceux que le modèle du monde acquis par apprentissage pouvait produire dans des circonstances identiques. Si les perceptions nouvelles étaient suffisamment proches de celles provenant du « concept » mémorisé comme représentant une entité dangereuse, le cerveau déclenchait les comportements d'évitement adéquats

A l'inverse, tous les primates ayant fait, toujours sur le mode exploratoire par essais et erreurs, des hypothèses différentes relativement à ce que désignaient les messages sensoriels provenant de ce que nous appelons aujourd'hui un arbre et une panthère, n'ont pas vécu assez longtemps pour que leur cerveau construise le modèle d'un monde différent – un monde comportant par exemple un arbre mou dans lequel il serait impossible de trouver un abri ou une panthère conviviale s'approchant pour se faire caresser.

Aujourd'hui encore, les primates humains que nous sommes ne peuvent pas affirmer avec une certitude absolue que l'entité arbre puisse nous servir d'abri ou que l'entité animal sauvage que nous voyons s'approcher puisse être dangereux. Si par extraordinaire, nous découvrions que certaines de ces entités se comportaient d'une autre façon que celle mémorisée après des millénaires d'expérience, nous serions conduits à modifier notre jugement sur elles en particulier et sur le monde en général. Nous dirions que, dans certaines circonstances, le monde comporte des arbres flexibles comme des roseaux et des panthères caressantes comme des chats.

Il est important de bien comprendre l'exemple qui précède pour comprendre le jugement que nous pouvons porter sur un monde dont nous constatons tous les jours les changements et au sein duquel nous constatons tous les jours l'apparition de caractères nouveaux. Si nous constatons que le monde se transforme au lieu de rester fixe, nous pourrons nommer évolution les changements qu'il subit. Si nous constatons par ailleurs que, dans le cadre de cette évolution, il fait apparaître des propriétés jamais vues jusqu'alors et inexplicables, nous pourrons qualifier d'émergentes ces apparitions. Des animaux ne disposant pas d'un vaste cortex associatif capables de projections étendues perçoivent sans les nommer les phénomènes traduisant ce que nous appelons l'évolution et l'émergence. Il faut voir avec quelle circonspection ils considèrent tout phénomène évolutif qu'ils ne connaissent pas ou dont ils ne peuvent prédire l'évolution, comme le feu. Leur cerveau perçoit clairement, même s'il ne peut le verbaliser, ce que signifie « évoluer » et l' « émergence » potentielle de situations nouvelles pouvant résulter de cette évolution.

Nous pourrions faire comme les animaux, nous limiter à n'utiliser les concepts d'évolution et d'émergence que dans la limite des cas où nous pouvons constater leur adéquation aux perceptions de nos sens, éventuellement complétés des instruments de la science moderne. Nous pourrions éviter d'imaginer qu'il existe une Evolution ou une Emergence indépendantes de nos observations actuelles, dont nous pourrions à force d'hypothèses et d'expériences futures, découvrir progressivement les raisons d'être intrinsèques. Nous pourrions, mieux encore, éviter de faire le postulat qu'il existe une Evolution et une Emergence en soi, dotées de propriétés que ni nos sens ni nos cerveaux ne pourront jamais faire l'expérience, compte tenu de leurs limites indépassables.

Mais les cerveaux humains, même réunis en réseau dans la société scientifique, ne fonctionnent pas ainsi. Ils ont appris que l'audace des hypothèses faisait avancer les connaissances. Certes, les hypothèses métaphysiques ne vont pas très loin en ce sens, car elles ne sont pas relayées par l'expérience. Mais l'induction et l'abduction scientifiques permettent au contraire, à partir de faits nouveaux suscités par l'évolution propre des technologies d'expérimentation, de formuler des modèles du monde allant au delà des possibilités instrumentales du moment, dans l'espoir qu'elles pourront être vérifiées ultérieurement par la voie expérimentale.

L'inconvénient de ces hypothèses, quand elles sont connues du grand public sans expérience scientifique, ou quand elles sont exploitées par des croyances religieuses voulant s'en servir comme argument en faveur des affirmations de leurs écritures, est d'alimenter des débats qui obscurcissent dangereusement le regard que nous pouvons porter sur les phénomènes susceptibles d'être interprétés en termes d'évolution et d'émergence. L'évolution pose directement la question du temps, des origines et du devenir. L'émergence pose celle des raisons par lesquelles le nouveau apparaît à partir de l'ancien. Il s'agit de questions que les philosophes et les religions, depuis qu'elles existent, ont cherché à résoudre avec les concepts à leur portée. Aussi respectables que soient les réponses proposées, elles ne peuvent être considérées comme scientifiques. Malheureusement, elles interfèrent en permanence avec les efforts de modélisation scientifique et retentissent sur la façon dont chacun d'entre nous considère le monde en général, l'évolution et l'émergence en particulier. Les scientifiques, malgré l'audace de leurs hypothèses, qui rejoint et dépasse souvent celle des philosophes et des mystiques, sont obligés de rappeler qu'il ne s ‘agit que d'hypothèses. Nous sommes alors tentés de ne pas tenir compte de leur prudence, que nous trouvons bien décevantes au regard des promesses de l'imaginaire et de la foi du charbonnier.

Nous voudrions montrer ici que, malgré les difficultés, il devrait être possible de se donner une représentation prudente de l'évolution de l'univers et des émergences multiples qui l'ont marqué. Nous n'aurons pas l'outrecuidance de prétendre que cette représentation serait à proprement parler scientifique. Elle évitera par contre les extrapolations hasardeuses, qui ne peuvent faire que le lit des fausses sciences et de ceux qui vivent de leur commerce.

On rappellera que les concepts d'évolution et d'émergence, tout relatifs qu'ils soient, n'ont pas été construits dans notre cerveau individuel au reçu des informations provenant de nos seuls sens personnels. Ils résument, dans la société scientifique qui est la nôtre, l'expérience acquise par des millions d'observateurs à travers les âges, ayant utilisé des millions d'instruments d'observation différents et ayant consignés et critiqués le résultat de leurs observations dans des millions de pages accessibles facilement. C'est là le propre des comportements humains dits scientifiques. Si, globalement, toutes ces observations confirment l'hypothèse selon laquelle les concepts d'évolution et d'émergence permettent de représenter de façon à peu près adéquate un très grand nombre de situations observées et vécues en dehors de nous, la confiance que nous pouvons apporter à leur validité pour décrire le monde auquel nous devons, aujourd'hui comme jadis, nous adapter pour survivre, sera confortée. Nous pourrons aller jusqu'à dire que nous « croyons » à leur validité. Mais nous n'y croyons pas d'une façon aveugle, comme les adeptes d'une religion croient en leur dieu. Nous n'y croyons que sous réserve des résultats de nouvelles expériences.

I. L'univers, l'évolution, l'émergence et la démarche de la science.

Ces deux concepts d'évolution et d'émergence sont dorénavant constamment utilisés, comme l'ont rappelé les intervenants invités par Philippe Petit, en cosmologie, en physique, en biologie et dans les sciences humaines. Mais on leur donne généralement des acceptions différentes. Ceci peut poser un problème méthodologique. Est-ce que l'unité des connaissances n'en souffre pas ? On pourrait souhaiter pour éviter ce risque réunir les diverses disciplines, malgré leurs nécessaires différences d'approche, par une vision commune de la façon dont elles utilisent les concepts d'évolution et d'émergence. Même si les observables étudiées par chacune d'entre elles ne sont pas identiques, notamment en terme de complexité, ces diverses disciplines ne s'inscrivent-elles pas dans une « vision » commune de l'univers, fonction de nos outils conceptuels (notamment de l'usage que nous faisons des mathématiques), des potentialités de nos instruments et finalement d'un certain nombre de paradigmes voire d'effets de mode structurant en profondeur et de façon généralement mal perçue, la société scientifique de chaque époque.

L'évolution

Le concept d'évolution n'est généralement pas discuté, tout au moins quand il s'agit de décrire le monde macroscopique dit quotidien. Tout au plus pose-t-il, nous l'avons évoqué, la question encore non résolue de la consistance du temps : celui-ci est-il lié ou non aux évènements qui s'y enchaînent ? Mais on peut traiter l'évolution du monde macroscopique, dans la tradition newtonienne, en considérant qu'elle se déroule dans un cadre d'espace temps indépendant de son contenu. La physique quantique le permet également. Les difficultés ne surgissent que dans le cadre de la relativité générale poussée à ses extrêmes, si l'on admet l'hypothèse qu'aux origines d'un univers ou à l'occasion de la création de trous noirs, se trouvent ou apparaissent des corps si massifs qu'ils courbent l'espace temps jusqu'à la formation de singularités, c'est-à-dire d'univers ponctuels dont la physique actuelle ne peut rien dire mais où l'écoulement du temps devrait s'arrêter.

Le concept d'émergence est infiniment plus compliqué, au moins en apparence. Pour tenter de le clarifier, nous distinguerons l'émergence dans le monde macroscopique et l'émergence dans le monde quantique

L'émergence dans le monde macroscopique

Aujourd'hui, dans les sciences du monde macroscopique, faire appel à l'émergence signifie que l'on ne peut pas donner d'explication réductionniste à l'apparition ou à la nature du phénomène dont on dit qu'il est émergeant, c'est-à-dire dont on dit qu'il s'impose subitement et sans avertissements à l'attention d'un observateur. Le réductionnisme, qui n'a rien d'infamant, contrairement aux affirmations des émergentistes de tendance mystique, consiste à expliquer l'apparition d'un phénomène nouveau par des règles ou faits déjà connues. Ainsi l'émergence d'un virus comme celui du sida, qui a surpris les virologues, peut s'expliquer de façon réductionniste par ce que l'on sait des mutations et des conditions environnementales favorisant la naissance des épidémies. Même des questions précises « pourquoi ce virus particulier, pourquoi en ce lieu et à ce moment ? », pourraient (en principe) trouver des réponses si l'on disposait d'informations suffisamment détaillées. En théorie, le virologue serait en droit de répondre, comme le démon de Laplace : donnez-moi les conditions initiales et je vous expliquerai le sida, son apparition, son évolution et par extension, l'évolution de la vie sur la Terre.

Les spécialistes de la théorie du chaos expliqueront que la compréhension rétroactive et à fortiori la prévision sont, dans ce cas comme dans pratiquement toutes les autres questions auxquelles la science s'intéresse, rendues impossibles par l'incertitude inévitable concernant les données initiales. Celle-ci introduit l'effet papillon bien connu. Mais il s'agit d'une évidence qui n'exige pas d'attribuer au concept d'émergence une portée quasi religieuse. D'une part l'analyse probabiliste demeure toujours possible, avec une efficacité régulièrement croissante due à la puissance des ordinateurs et à l'utilisation de certains outils mathématiques nouveaux. D'autre part, à supposer que la science ne puisse jamais expliquer l'histoire et l'avenir de l'évolution de chacun des atomes constituant l'univers – ce qui est le cas – cela n'oblige pas à dire que la démarche réductionniste de la science n'ait pas d'intérêt. Elle permet d'éliminer toutes les pseudo-explications des pseudo-sciences refusant de faire le difficile travail d'analyse des facteurs causaux et de leur enchaînement.

Par contre, le réductionnisme ne doit pas être utilisé là où, serait-il possible, il imposerait un travail d'investigation des détails qui empêcherait – ne fut-ce que parce que la science, comme tout comportement naturel, fonctionne à l'économie - l'identification et l'étude des grands ensembles. Les sciences dites de la complexité (terme dont on peut admettre qu'il n'a d'intérêt que comme métaphore) ont fait beaucoup progresser les études scientifiques en tous domaines parce qu'elles ont incité à considérer comme observables des macro-objets et macro-processus jusqu'alors rendus invisibles par une attention excessive aux détails de ces mêmes macro-objets et macro-processus. Nous avons rappelé précédemment, dans cette revue et dans nos livres ( JP Baquiast, Pour un principe matérialiste fort, Jean-Paul Bayol, 2007) le véritable nouveau regard apporté, en biologie comme dans les sciences humaines, par l'étude des super-organismes. Ceux-ci sont considérés comme des organismes vivants et la science s'attache à étudier leurs interactions au sein de super-populations fonctionnant en réseaux. Dans ce cas, mettre l'accent sur tel comportement de tel individu composant l'un de ces super-organismes est certes important, mais ne suffit pas à comprendre le fonctionnement du super organisme tout entier. Autrement dit, considérer des niveaux d'intégration de plus en plus élevés (dans l'ordre de la complexité) permet de traiter comme des observables des entités globales jugées dignes d'étude, sans obliger à rechercher les comportements individuels de leurs composants. Ceux-ci sont, au mieux, étudiés en termes statistiques.

Est-il nécessaire de faire appel à l'émergence pour comprendre le comportement voire la nature d'un super-organisme ? Observons d'abord qu'identifier, au-delà des objets directement visibles par notre cerveau, des ensembles réunissant ces objets, constitue une démarche pratiquée depuis des millénaires, non seulement par la science mais par le langage empirique. Cela fait au moins 3.000 ans que le langage a pris l'habitude de parler de la société politique, telle par exemple la nation, en dépit du fait que les composants de cette nation restaient fort confus. Intuitivement, ceux qui ambitionnaient de s'adresser à la supposée nation comprenaient qu'une « personnalité » supérieure à celle des individus s'en dégageait. Les qualifier d'émergentistes avant la lettre n'apporterait pas grand-chose.

Les émergentistes d'aujourd'hui font valoir, à l'encontre des réductionnistes, que les parties ne peuvent définir les propriétés du tout. L'étude de la fourmi, disent-ils, ne fera pas comprendre le comportement de la fourmilière. De même, l'étude des atomes de la fourmi ne fera pas comprendre le comportement de la fourmi. Il est évident que ce ne sont pas les lois des parties qui peuvent expliquer la loi du tout. C'est au contraire le tout qui peut expliquer les lois des parties. Pour étudier utilement la fourmilière, il faut donc la considérer comme un tout présentant des propriétés propres. Mais faut-il la qualifier de phénomène émergent ?

Encore une fois, nous observons en permanence des phénomènes nouveaux, ou prenons des points de vue nouveaux sur le monde, sans évoquer l'émergence. L'étude d'un phénomène ou d'un objet commence d'abord par l'étude de ses caractères ou comportement globaux, au regard du milieu dans lequel il se trouve immergé. Tout entomologiste conséquent, tout au moins aujourd'hui où le regard s'est élargi aux systèmes, se représente la fourmilière comme un super-organisme en interaction avec de multiples autres, semblables ou différents. C'est seulement, par exemple, après avoir analysé les échanges énergétiques de la fourmilière avec son milieu qu'il cherche à comprendre le rôle de l'ouvrière dans l'activité de fourragement nécessaire à la survie de la fourmilière. Pour commencer à étudier utilement la fourmi, il doit avoir identifié au préalable les fonctions que celle-ci en tant qu'individu doit exercer au service du fonctionnement de la fourmilière. Sinon, aucun critère sérieux de recherche ne pourrait guider son étude de la fourmi. Il risquerait par exemple, avec un peu trop d'imagination, de chercher à vérifier l'hypothèse selon laquelle la patte arrière droite de celle-ci lui sert, dans le secret de la fourmilière, à se nettoyer le nez.

Les scientifiques, même quand ils ne perçoivent pas immédiatement les causes des phénomènes étudiés, n'affirment pas a priori que leurs propriétés ne sont pas réductibles à celles de leurs parties. Cette affirmation leur paraît si évidente qu'ils auraient honte de la présenter comme une grande découverte méthodologique. En conséquence, ils se gardent de distribuer des brevets d'émergence à tout objet non encore observé par leurs prédécesseurs et dont ils veulent entreprendre l'étude. S'ils faisaient ainsi, ils s'interdiraient l'analyse réductionniste, qui constitue quand même la meilleure façon de comprendre la raison d'être de la nouveauté. En général, comme indiqué ci-dessus, confrontés à un phénomène dont la raison d'être ne saute pas aux yeux, les scientifiques se bornent à étudier les propriétés globales de ce phénomène, relativement au milieu environnant. Dans un second temps, déjà guidés par l'opinion qu'ils se seront faite du phénomène, ils essaieront de décomposer celui-ci en « parties » dont ils essaieront de comprendre la contribution au comportement du tout. En fait, quand on observe le travail scientifique, on constate qu'il suppose un aller et retour permanent entre l'étude du tout et celle de ses parties, l'une et l'autre poussée aussi loin que possible. Ce ne sera qu'en cas d'échec de cette double approche que l'on pourra se risquer à parler d'émergence.

On nous objectera que l'émergentisme est né en réaction aux abus du réductionnisme. Les manuels émergentistes sont pleins d'exemples où la volonté d'expliquer les lois du tout par celles des parties a généré des erreurs monumentales – que ce soit en science ou dans la pratique empirique de la vie courante. L'exemple le plus cité est celui de la médecine, qui tend à oublier que le patient est un organisme global. Il peut donc être contre-productif de lui appliquer des traitements visant à traiter le dysfonctionnement le plus évident, en ignorant tous les autres.

Mais on peut soutenir que les abus du réductionnisme dérivent des abus du réalisme en science. Celui-ci tend à considérer que tout objet perçu par le regard correspond à une entité d'un Réel en soi dont les propriétés existeraient indépendamment du regard de l'observateur. Il en résulte une réification de l'objet à qui l'on prête des propriétés dérivées de celles attribuées au Réel d'arrière plan supposé. Ainsi la médecine moderne voit en chaque patient une entité indépendante du regard du praticien et participant d'un processus réductionniste défini par les manuels de médecine et les réglementations sociales. Elle ne voit donc pas l'intérêt de jeter sur lui un regard permettant de le faire descendre de son piédestal d'être-en soi (qu'il n'est pas), afin de voir en lui la construction en constant remaniement résultant de la conjonction du regard du praticien, des données fournies par les analyses et d'une spécificité insondable tenant à sa nature personnelle et à son histoire individuelle.

Les abus du Réalisme ontologique ont été soulignés dès l'apparition de la mécanique quantique. Celle-ci reconnaît que les entités microscopiques (particules, ondes, etc.) n'existent pas comme des réalités indépendantes de l'observateur. Elles sont « construites », en tant qu'objet de science, par un processus reliant l'observateur, les instruments dont il dispose (avec leurs limitations) et un monde sous jacent dont nul ne peut rien dire a priori. Or, comme l'a bien expliqué Mme Mugur-Schächter, le processus qu'elle a nommé de conceptualisation relativisé utilisé en physique quantique pourrait avec beaucoup d'avantages être étendu à toutes les sciences sans exception et ceci sans se référer à un monde sous jacent qui ne serait pas observable directement. Nous avons nous-même montré comment, grâce à l'utilisation de cette méthode, il était possible de traiter scientifiquement et donc efficacement un macro-processus tel que le chômage, alors qu'aucun sociologue ne rencontrera jamais le chômage au coin de la rue, mais seulement des chômeurs trop différents pour qu'il soit possible de leur appliquer des outils d'analyse macro-économique, macro-sociologique ou macro-politique permettant de lutter contre le chômage (JP. Baquiast, op.cit.).

Mais qui dira que tel ensemble de caractères cohérents, par exemple la volonté de défendre le territoire et d'en exclure les étrangers, méritera d'être considéré comme un super-organisme et d'être étudié en tant qu'entité distincte ? Ce seront les observations que nous ferons à son propos ou, si l'on préfère, les informations émises par ce super-organisme et qui, pour des raisons découlant de notre histoire personnelle, s'imposeront à nos cerveaux en générant un comportement d'investigation propre à tous les organismes vivants. Si je constate qu'une foule se comporte de façon agressivement effrayante alors que toutes les personnes qui la composent se comportent individuellement comme des agneaux, je me dirai que le phénomène de foule ou de groupe mérite une étude avec des instruments spécifiques. Mais à nouveau, qui dira que la foule se comporte de façon agressive, alors qu'une personne vivant dans une société habituée à la violence ne ferait pas attention à cette agressivité ? Ce sera à nouveau moi qui formulerai ce jugement. Je serai conduit à le faire par une sensibilité formée dans une société dite policée et parce que je suis doté d'un cerveau porteur de toutes les références inscrites par des années d'appartenance à cette même société policée.

Si donc, dans les sciences du monde macroscopique, nous souhaitions parler d'émergence avant d'étudier un phénomène nouveau qui nous préoccupe, ce serait notre droit. Mais ce mot ne devrait pas être seulement considéré comme un cache misère ou un renoncement signant l'incapacité de la science à entrer dans les détails, comme le disait Mme Maurel dans l'émission de France Culture (voir ci-dessous) mais plutôt un raccourci, ce que l'on nommerait en anglais un fast-track, permettant d'aller à l'essentiel compte-tenu des limites en crédits et en temps dont souffrent les chercheurs. Nous pourrons donc reprendre pour désigner ce type d'émergence le qualificatif suggéré lors de ladite émission, celui d'émergence faible.

On parlera d'émergence faible à propos d'un phénomène pour indiquer que ce phénomène possède des causes que la science pourrait expliciter (comme elle pourrait expliciter la raison pour laquelle un dé retombe sur telle face et non sur les autres). Mais elle reconnaît n'avoir ni le temps ni la volonté de les étudier. Elle préfère étudier la façon globale dont ce phénomène se manifeste. Indiquons en passant que ce terme d'émergence faible devrait suffire à décourager les fausses sciences et autres mythologies religieuses qui prétendent voir derrière chaque nouveauté la manifestation de l'autorité divine. La science répondra aux campagnes spiritualistes arguant de l'inconnaissabilité ontologique des causes, qu'elle pourrait s'intéresser à ces causes et les faire apparaître, mais que ce travail ne lui parait pas prioritaire au regard de l'étude des effets. Le terme d'émergence faible ne nie pas que des problèmes existent et mériteraient étude, mais il propose au public et aux organismes qui financent la science de ne pas en faire des priorités.

L'émergence dans le monde quantique

Ceci dit, à quel moment pourra-t-on parler d'émergence forte ? On appellera émergence forte une émergence considérée comme durablement sinon définitivement inexplicable par la science. Or il n'y a aujourd'hui qu'un seul domaine dans lequel les scientifiques estiment généralement se heurter à des inconnaissables, sinon absolus, du moins infranchissables sans modifications profondes des méthodes et des outils. Il s'agit du monde quantique et des nombreux domaines de la cosmologie ou même des sciences macroscopiques impliquant des entités quantiques.

Une partie de la physique moderne, voire d'autres sciences moins dures, font désormais appel à ce concept d'émergence, entendu au sens fort. Robert Laughlin, qui reste après quelques années le pape de la question, s'est livré à une défense tous azimuts de l'émergence forte. Il n'emploie pas ce terme, ce qui jette un peu de confusion dans ces propos. Mais c'est en général à l'émergence forte qu'il fait allusion, que ce soit en physique fondamentale ou dans la physique de tous les jours (voir R. Laughlin, A Different Univers, JP.Baquiast op.cit et notre article
http://www.automatesintelligents.com/biblionet/2005/juin/laughlin.html ).

Pour lui comme pour la plupart des physiciens, la mécanique quantique ne permet pas de comprendre l'univers en profondeur, et moins encore d'agir sur lui. Elle permet juste d'interpréter un certain nombre des phénomènes nouveaux que révèle le développement des instruments et des expériences, par exemple au sein des accélérateurs de particules. Le monde quantique, dans ses profondeurs, est et restera inconnaissable. C'est ainsi que parler de vide quantique représente simplement une façon de désigner quelque chose d'indéfinissable, sous-jacent à la réalité matérielle, dont on constate seulement telle ou telle manifestation dans telle ou telle expérience. De même les particules qui émergent du vide quantique ne sont ni des ondes, ni des particules ni les deux à la fois. Elles sont définitivement autre chose. Ceci n'empêche pas de les utiliser, dans certaines conditions.

Concernant la cosmologie, Robert Laughlin se sépare profondément des travaux des cosmologistes théoriciens visant à décrire de façon réaliste les états passés, présents et futurs de l'univers. Il estime que ces travaux relèvent non seulement de la science fiction mais d'une méconnaissance profonde de ce qu'est selon lui l'univers, c'est-à-dire le produit d'une émergence. Il s'en prend particulièrement à la Théorie du Tout, qui prétendrait trouver une équation unique à partir de laquelle on pourrait déduire toutes les autres formes de connaissances. Cette ambition, triomphe du réductionnisme, selon laquelle les lois des mécanismes élémentaires permettent de déduire la loi du système complexe, ignore dramatiquement la théorie de l'émergence.

Sa critique touche un point de grande importance philosophique. Il nous rappelle que la physique contemporaine repose sur la connaissance de ce que l'on appelle des constantes universelles. Pour lui, il s'agit seulement d'expériences donnant un résultat universel. On en trouve une vingtaine, telle la vitesse de la lumière dans le vide ou la constante de Rydberg. Mais le caractère apparemment universel de telles expérimentations est un piège. Il conduit à faire penser que ces constantes ont mis en évidence les briques primitives à partir desquelles est construite la réalité. Ainsi, si la vitesse de la lumière apparaît constante aujourd'hui, ce serait parce que la lumière serait une composante élémentaire de l'univers. Or prendre en considération les phénomènes d'émergence montre que cette constante elle-même résulte d'un phénomène d'organisation sous-jacent. La lumière pourrait être le produit d'une émergence. Fondamentalement, derrière les constantes, on pourrait retrouver si on s'en donne la peine l'incertitude et l'inconnu. Toutes les constantes dites fondamentales requièrent un contexte environnemental organisationnel pour prendre un sens. Beaucoup de ses collègues ne partagent pas ce point de vue, mais il est intéressant.

Un « émergentiste fort » comme Laughlin considère que la réalité quotidienne est un phénomène d'organisation collective, se traduisant par des « vérités » statistiques ou probabilistes (ce qu'ont dit depuis longtemps les biologistes et les physiciens quantiques). On peut pour des besoins pratiques, dans le monde quotidien, décrire les objets macroscopiques comme des constructions d'atomes situés dans l'espace-temps newtonien, mais l'atome isolé n'est pas newtonien. C'est une entité quantique « éthérée » manquant de la première des caractéristiques du monde newtonien, la possibilité d'être défini par une position identifiable. Ceci apparaîtra non seulement dans les expériences de la physique quantique, mais dans les expériences de la physique des matériaux et des états de la matière intéressant la vie quotidienne. Les physiciens s'intéressant aux phénomènes macroscopiques doivent donc eux aussi apprendre à gérer l'incertitude née de l'émergence, considérée comme un aspect incontournable de toute « réalité » et la voie permettant d'accéder à de nouvelles découvertes. Ceci du moins quand ils considéreront les composants les plus bas dans l'échelle des organisations que sont les « ondes » et les «particules » quantiques.

Quelle valeur attribuer à cette acception de l'émergence forte. Elle se distingue radicalement de l'émergence faible, puisque, contrairement à elle, elle pose l'existence d'une barrière d'inexplicabilité. Face à un phénomène faisant appel à des entités quantiques, les sciences ne sont évidemment pas désarmées. Les technologies non plus. Elles en font de très nombreux usages. Mais les unes et les autres traitent les phénomènes quantiques en se limitant à l'observation de leurs manifestations statistiques. Elles ne cherchent pas à comprendre en profondeur ce qui se trouverait derrière les phénomènes. Certains scientifiques s'y essayent parfois, dans le sens de ce qui était appelé il y a quelques décennies la recherche des variables cachées. Mais sans succès avéré à ce jour. D'autres postulent que cette recherche découle d'un mauvais fonctionnement du cerveau humain. Il génère dans certaines applications des « passages aux limites » qui ne s'imposent pas dans la nature. On les retrouve dans des domaines de fonctionnement aussi différents que les mathématiques et la métaphysique. Selon ce postulat, les cerveaux biologiques, même lorsqu'ils sont interconnectés dans les réseaux de la recherche scientifique, ne peuvent dépasser les limites imposées par l'architecture et les composants des organismes vivants auxquels ils appartiennent. 

Pour la suite, se référer à la 2e partie

Partager cet article
Repost0
8 février 2008 5 08 /02 /février /2008 09:57
L'explosion du post-anthropocène
par Jean-Paul Baquiast et Christophe Jacquemin
07/02/2008


Animaux précambriens, les lointains prédécesseurs de nos successeurs

Il devient courant d’appeler anthropocène l’ère de l’évolution de la Terre qui a débuté avec le développement à large échelle des humains et les modifications qu’ils ont progressivement apporté au milieu physique et vivant. C’est le prix Nobel Paul Cruntzen qui a proposé ce terme en 2002. Il faisait allusion à l’influence de l’humanité sur les structures géologiques terrestres. Mais le terme, au grand désespoir semble-t-il de la Commission Stratigraphique de la London Geological Society qui voulait le faire normaliser par l’Union Internationale des Sciences Géologiques afin de s’en réserver l’usage, est de plus en plus utilisé pour désigner les changements globaux que l’humanité impose au milieu terrestre. Chacun peut dater le début de l’anthropocène ainsi entendue en fonction de ses préoccupations. On peut le situer à la disparition des grands mammifères sauvages, due à une chasse intensive, vers 5.000 ans avant le présent. Mais c’est indéniablement depuis 2.000 ans, voire seulement 200 ans, que l’évolution des systèmes naturels résultant de l’activité humaine est devenue plus rapide et s'est étendue à tous les continents et les mers. Nul n’est capable de dire ce que produira cette évolution dans les prochaines années. Elle semble s’accélérer et l’on peut craindre que les milieux naturels auxquels nous sommes habitués, voire les sociétés humaines sous leurs formes actuelles, en soient gravement affectés.

Ceci dit, contrairement aux miocène, pliocène, pleistocène et holocène qui ont précédé le susdit anthropocène, cette dernière période risque d’être très courte. Sa durée sera en effet celle de l’espèce humaine sapiens sapiens ou plutôt de l’agrégat de caractères génétiques et culturels par lesquels on identifie généralement l’espèce ainsi désignée – à supposer que le concept d’une espèce unique aux traits partagés par tous ses représentants ait une signification scientifique. Or cette espèce sapiens sapiens semble désormais en voie de disparition.

En effet, à peine une définition à peu près commune de l’humain avait-elle commencé à émerger des affrontement religieux et philosophiques du dernier siècle, qu’elle recommence à s’estomper dans les brumes. On parle en effet, nous les premiers au sein de cette revue, de post-humains ou post-sapiens. Il s’agit de formes émergentes se dégageant petit à petit des multiples avatars que l’homme adopte de nos jours, du fait notamment de l’influence qu’exerce sur son évolution les nouvelles sciences et technologies. Le développement de celles-ci, bien entendu, suit ses rythmes propres en échappant quasi totalement à l’humanité ou plutôt à ceux qui s’arrogent le droit de définir ce concept flou.

Ainsi, il conviendrait donc de parler, non plus d’anthropocène mais de post-anthropocène. Bien plus, il faudrait indiquer que nous sommes déjà entrés dans cette nouvelle ère, même si peu d’entre nous ne s’en rendent compte. L’humain de l’anthropocène, celui qui faisait disparaître le mammouth comme celui qui aujourd’hui fait disparaître la vie dans les eaux océaniques n’existe pratiquement déjà plus. L’humain d’aujourd’hui est projeté dans des réseaux de haute technologie au sein desquels l’individu ne constitue que de simples nœuds ou hubs d’échanges de données numériques. Mais ces individus ont conservé un appareil corporel assez traditionnel, sans grands ajouts technologiques (à part les implants dentaires dont, signalons-le au passage, on reconnaîtra plus tard qu’ils ont bouleversé la civilisation au profit de ceux qui peuvent se les offrir).

Par contre, dans les prochaines décennies, les humains qui auront survécu aux inondations, sécheresses, famines, maladies et guerres le devront à des prothèses innombrables, physiques et mentales. Ces hommes radicalement augmentés mériteront vraiment alors d’être qualifiés de post-humains. L’on pourra donc célébrer en grandes pompes l’entrée dans le post-anthropocène.

Mais nous nous devons de dissiper à ce sujet une illusion. La croyance déjà aujourd’hui fortement contestable selon laquelle l’humanité est une (et indivisible) ne pourra plus alors être entretenue, même par les religieux les plus fondamentalistes ou par les droits-de-l’hommistes les plus invétérés. Autrement dit, la Terre sera partagée en un grand nombre de post-anthropocènes, correspondant à l’explosion plus que probable de différents types de post-humains. On pourra parler de l'explosion du post-anthropocène comme l'on parle de l'explosion du pré-cambrien.

Des environnements physiques, biologiques, technologiques, voire cosmologiques différents, résultant du foisonnement des divers types de post-humain, pourront alors être identifiés. Sans entrer dans le détail, nous dirions que ces variantes juxtaposeront les deux extrêmes. On y trouvera des post-humains retournés pour des raisons diverses à des états de nature (pour ne pas dire de bestialité) proches de ceux des sociétés animales telles qu'elles se présentent aujourd'hui, au dernier stade de la lutte pour la survie que leur imposent les humains actuels. Mais ces post-humains auront cependant gardé, post-humanité oblige, une grande expertise en armes de destruction massive peu coûteuses et faciles à utiliser.

A l’autre extrémité, on trouvera sans doute des entités ayant maîtrisé la vie artificielle, dans la suite de l’actuel Craig Venter, père du Mycoplasma artificialis. Elles auront également maîtrisé la pensée et la conscience artificielle, sur des supports non biologiques et donc capables de survivre loin de la Terre. Ces entités pourront espérer porter ailleurs quelques uns des traits survivants des actuelles cultures humaines. Rien ne prouve d’ailleurs que ce soit ceux dont, aujourd’hui, encore embourbés dans l’anthropocène, nous estimons pouvoir être les plus fiers.

 

Partager cet article
Repost0
5 janvier 2008 6 05 /01 /janvier /2008 11:55

Les neurones de la lecture
Par Stanislas Dehaene
Préface de Jean Pierre Changeux

Editions Odile Jacob, 470 pages

Présentation et commentaires par Jean-Paul Baquiast
01/01/2008

 

Stanislas Dehaene est professeur au Collège de France, titulaire de la chaire de psychologie cognitive expérimentale et membre de l'Académie des Sciences

Il a publié de nombreux articles et ouvrages, dont :
- " La bosse des maths", Odile Jacob, 1997
- " Le Cerveau en action: l'imagerie cérébrale en psychologie cognitive, Paris: Presses Universitaires de France, 1997
- "The Cognitive Neuroscience of Consciousness", MIT press 2001

Un de ses élèves est Lionel Naccache, dont nous avions précédemment présenté un ouvrage remarquable: "Le nouvel inconscient"
http://www.automatesintelligents.com/biblionet/2007/jan/naccache.html

 

Avant-propos

Depuis quelques années, les progrès constants de l'imagerie cérébrale, que nous ne décrirons pas dans cet article, permettent de visualiser avec un pouvoir séparateur de plus en plus élevé l'activité des neurones du cerveau sollicités par des tâches données. Ceci aussi bien chez l'homme que chez l'animal, y compris chez de petits spécimens comme les rats ou les oiseaux. Les observations conduites chez des individus bien portants complètent celles obtenues chez des patients ayant subi des atteintes plus ou moins graves du tissu cérébral.

Il s'agit d'une révolution profonde concernant non seulement les neurosciences au sens strict mais les sciences de la vie, les sciences humaines et plus généralement la philosophie des connaissances. Le grand public et sans doute beaucoup de scientifiques ne semblent pas toujours en avoir mesuré la portée. Il est certes à peu près admis par la science moderne que le dualisme dit platonicien ou cartésien selon lequel l'esprit et le corps constituent deux mondes séparés n'a plus de signification scientifique. Il ne survit que comme acte de foi au sein des religions spiritualistes. Cependant, il est encore très difficile de faire reconnaître que les activités culturelles réputées les plus élaborées, telles celles relatives à la discussion des idées et des sentiments, puissent avoir une traduction physique (disons électromagnétique pour simplifier) immédiate et observable dans le cortex. Plus précisément, beaucoup de ceux qui sont convaincus du fait que notre cerveau est sollicité à chacune de nos interactions avec le monde extérieur peinent encore à admettre qu'il sera prochainement possible, sous réserve du perfectionnement des instruments, de dresser des cartographies précises de la trace que laisse dans notre tissu cérébral la plus infime de nos activités. Ceci qu'il s'agisse d'activités sensorimotrices simples, réagir à un son ou accomplir un mouvement ou qu'ils s'agisse à l'opposé d'activités ou coopèrent de nombreuses facultés comme l'émotion esthétique, l'amour de l'autre, la pensée philosophique et la conscience de soi.

C'est pourtant le cas. Certes, la révolution scientifique évoquée ici n'a pas encore atteint un niveau tel qu'il deviendra rapidement possible de dresser, soit au plan général d'une espèce comme l'homme ou le pigeon, soit même au plan individuel, individu par individu au sein de chacune de ces espèces, la carte en 3 dimensions des neurones qui s' «allument» lorsque le sujet se comporte en récepteur (à partir de ses organes sensoriels) ou en émetteur (à partir de ses organes dits « effecteurs » en robotique). Compte tenu du grand nombre de neurones ou groupes de neurones qui s'activent à la moindre des sollicitations, sans mentionner ceux qui s'auto-activent parce qu'ils sont en veille permanente, cette carte serait difficile à obtenir et plus difficile encore à visualiser avec des méthodes graphiques. De plus, elle ne sera jamais précise, car tout cerveau se transforme et aucun cerveau n'est exactement semblable à un autre. Par contre, rien n'interdit, pensons-nous, d'envisager dès maintenant la construction de modèles génériques rassemblant les observations relatives aux grandes fonctions cérébrales présentes depuis des temps immémoriaux dans les cerveaux des animaux supérieurs, à commencer par celles liées à l'activité des organes du corps les plus sollicités dans la compétition pour la survie.

La difficulté s'accroîtra évidemment lorsqu'il s'agira de représenter les traces cérébrales des fonctions associatives complexes dont procède ce que l'on nomme chez l'animal la conscience primaire et chez l'homme la conscience supérieure. Des fibres corticales associatives réentrantes mettent en relation, à l'état de veille et sans doute aussi dans le sommeil, un grand nombre d'aires spécialisées dont l'activation produit des messages synthétiques qui entrent en compétition incessante dans ce que certains nomment l'espace de travail neuronal global (1) pour produire la succession des états de conscience. La complexité et la vitesse de ces échanges sont telles que l'imagerie fonctionnelle peine encore à les visualiser, si elle y arrive un jour. Pourtant, comme l'on sait, il est devenu possible de faire apparaître de façon encore très grossière les correspondants neuronaux de certains comportements émergents apparemment diffus comme la méditation ou le plaisir esthétique (voire le plaisir sexuel).

Ainsi donc, dans quelques années, si le progrès des neurosciences expérimentales n'est pas interrompu par quelque événement fâcheux, il deviendra possible d'illustrer ou plutôt de compléter toutes les recherches portant sur la psychologie et la sociologie des animaux et des humains par la production de cartographies, fixes et animées, représentant la traduction en termes d'activité neuronale des comportements les plus élaborés. Ces cartographies ou scénarios faisant appel à la statistique mathématique et à l'informatique devraient pouvoir, au moins localement, être suffisamment précis pour que certains neurones porteurs de souvenirs personnels y soient identifiés et individualisés (le fameux neurone de la grand-mère, celui qui code pour le souvenir que nous conservons de notre grand-mère). Sans attendre, les différentes sciences associées aux neurosciences devraient être mises à contribution pour dresser des Atlas du cerveau répertoriant les milliers d'observations déjà faites et permettant d'y inscrire toutes les observations nouvelles. Il s'agirait là de l'équivalent du programme Génome humain en bonne voie de réalisation aujourd'hui. De plus, comme en ce qui concerne le génome, ces Atlas pourraient aussi servir à faciliter l'exploration de l'appareil cérébral, non seulement de patients à des fins thérapeutiques, mais aussi de personnes volontaires soucieuses de mieux connaître les particularités de leurs cerveaux, ceci sous réserve de précautions éthiques que nous n'évoquerons pas ici.

Des Atlas intégratifs

De tels Atlas existent déjà (2) mais ils n'ont pas encore pris la forme systématique qui serait nécessaire pour en faire un outil de coopération interdisciplinaire universel. Il est très probable que cette démarche se heurte déjà et se heurtera de plus en plus à des résistances de type métaphysique voire politique, provenant de groupes de pression pour qui il est, non seulement réducteur mais attentatoire à l'idée qu'ils se font de la dignité de la personne humaine, d'explorer trop en profondeur les arcanes du cerveau – surtout en utilisant les instruments de l'imagerie fonctionnelle qui semblent marquer l'intrusion dans les psychismes de toutes les manipulations permises par les sciences dures.

Observons pourtant que la construction de ces Atlas documentés du cerveau pourrait utilement recouper le programme qu'avait recommandé feu notre ami Gilbert Chauvet, que beaucoup considèrent comme le père de la physiologie intégrative. Son grand œuvre, malheureusement retardé par sa mort, consistait en effet à dresser un modèle mathématico-informatique de tous les échanges endocriniens ou chimiques contribuant au maintien de l'homéostasie de l'organisme vivant, à travers la hiérarchie de ses organes et de ses fonctions, ceci en interaction avec un environnement nécessairement changeant (3) 
La première version de ce modèle, lorsqu'elle sera réalisée, pourra s'enrichir en continu des observations effectuées par les physiologistes, les médecins, les pharmaciens acceptant de travailler à l'échelle de l'organisme considéré comme un tout, que ce soit au niveau de la cellule, de l'organe et du corps entier en interaction avec son milieu. On pourrait concevoir que les deux modèles, celui du système neuro-sensori-moteur et celui des fonctions physiologiques intégrées, puissent se compléter utilement, d'autant plus que beaucoup de fonctions endocriniennes essentielles dans le second système (qualifié quelquefois de «cerveau endocrinien») sont sous la dépendance du premier.

Ajoutons que si les Atlas du cerveau que nous envisageons ici n'étaient pas limités aux cerveaux humains, mais étendus comme nous le préconisons aux systèmes nerveux d'un certain nombre d'animaux jugés significatifs en tant que jalons de l'évolution, on obtiendrait ainsi des arguments tout aussi importants que les analyses génétiques ou morphologiques pour illustrer le darwinisme. On pourrait ainsi retracer l'histoire évolutive des grandes fonctions cérébrales telles que l'aptitude au traitement de certains sons ou images, depuis leur apparition au sein de certaines espèces jusqu'à leur épanouissement (ou disparition) chez d'autres, au travers de modalités liées aux contraintes du milieu dans lequel ont évolué ces espèces. Concernant l'espèce humaine, il deviendrait possible de mettre en évidence les précurseurs animaux des fonctions dont nous nous flattons d'être les représentants les plus accomplis. A l'opposé, on pourrait faire apparaître certaines fonctions animales très élaborées qui auraient dépéri dans l'espèce humaine. On obtiendra ainsi une vision dynamique, une véritable cinématique, apportant de précieuses informations à la physiologie, à la psychologie et à la sociologie évolutionnaires – celles qui recherchent les racines des comportements de l'homme moderne dans leurs antécédents animaux.

Une réserve de taille s'impose cependant, mais elle est propre à toute observation scientifique, en premier lieu la génétique. Le risque existe qu'en s'appuyant sur certaines images, des observateurs trop pressés ou guidés par des préjugés politico-philosophiques s'imaginent avoir identifié les neurones de telle ou telle activité, voire de telle ou telle inclination. De là à proposer d'intervenir dans les cerveaux pour les "guérir" de comportements jugés non corrects, il n'y aura qu'un pas. Ce risque ne condamne pas plus la neuro-imagerie que la génétique, mais il doit être présent dans les esprits.

La robotique évolutionnaire

Nous voudrions, avant d'en venir à la présentation de l'ouvrage de Stanislas Dehaene, élargir les propos précédents à la prise en considération des tendances actuelles de la robotique évolutionnaire. On désigne ainsi la robotique qui étudie non les robots pré-programmés ou asservis utilisés notamment dans de nombreux systèmes industriels mais ceux dit autonomes. Les robots autonomes (dits aussi «cognitive systems») sont conçus pour développer des capacités les rendant "aussi aptes" que les humains à réagir seuls dans des environnements complexes. Ceux qui connaissent les recherches de la robotique autonome remarqueront que les modèles fournis par les neurosciences modernes présentent de nombreuses similitudes avec la façon dont se développent les fonctions sensori-motrices, «intellectuelles» et finalement culturelles au sein de populations de robots interagissant librement entre eux et avec leur environnement (4)

Il est frappant de constater les similitudes entre la façon dont de tels robots acquièrent des «connaissances sur le monde» et celle dont les cerveaux animaux et nos propres cerveaux construisent leurs connaissances, qu'il s'agisse de croyances empiriques ou de théories scientifiques. Le livre récent du psychologue britannique Christopher Frith , «Making up the mind. How the Brain Creates our Mental World " (5) a parfaitement résumé le processus à l'œuvre dans les systèmes biologiques. Chaque système complexe évolutionnaire biologique, en compétition pour sa survie dans un monde dont il est incapable de définir la réalité en soi (à supposer qu'une telle réalité existe) élabore grâce à la synthèse des informations reçues de ses organes sensoriels ou émises par ses organes effecteurs, des «hypothèses» sur son milieu qui sont considérées comme vraies ou mieux comme pertinentes tant qu'elles ne sont pas démenties par l'expérience ou tant que de nouvelles hypothèses plus conformes à l'expérience ne sont pas élaborées et ne supplantent pas les précédentes. Ce processus s'applique aussi bien aux animaux de toutes espèces qu'aux humains.

Or c'est exactement selon le même processus, à un niveau il est vrai de complexité moindre, que les sociétés de robots évolutionnaires acquièrent leurs compétences. Chacun de ces robots, individuellement, élabore (évidemment sans intentionnalité) des cartographies de l'environnement avec lequel il interagit. Pour ce faire il met en concurrence les différents messages provenant de ses organes sensoriels et moteurs au sein d'un «espace de travail global» généralement constitué de «neurones formels» capable d'en produire des synthèses. Il retient à tout moment le programme émergent qui sera le plus apte à représenter ce milieu et donc à faciliter sa survie (par exemple l'accès à la prise électrique où il rechargera ses batteries). Concernant ses relations avec des congénères au sein de populations, le robot développe des pratiques culturelles, voire des langages spécifiques de communication qui seront sélectionnés comme les plus aptes à assurer la survie du groupe, dans le cadre par exemple de relations proies-prédateurs.

Il est relativement facile, concernant des robots qui sont des machines informatiques, d'analyser la consistance et l'évolution des informations qu'ils élaborent pour se représenter le monde et contrôler en conséquence leur comportement global. On obtient ainsi l'équivalent des IRM et autres magnéto-encéphalographies utilisées par les neurosciences. On constate alors que, dans les deux cas, celui des organismes robotiques et celui des organismes vivants, il n'y a pas lieu de se perdre en considérations philosophiques sans issues sur la «vérité» des descriptions du monde construites par ces cerveaux, au regard d'un prétendu «réel en soi». La description peut être considérée comme vraie dès lors qu'elle répond le mieux aux données de l'expérience et qu'elle assure donc au mieux la survie adaptative de l'entité, organisme individuel ou super-organisme, qui l'a construite. Un robot ne s'interroge pas sur la nature en soi d'un bord de table, il l'évite afin de ne pas tomber de la table. De même, une souris ne s'interroge pas sur la nature en soi de ce qui se trouverait derrière les messages sensoriels provenant de ce que nous, humains, qualifions de chat, elle court se cacher dans un trou. Dans les deux cas, ces savoirs, cognitifs d'abord, comportementaux ensuite, ont été sélectionnés par l'évolution comme les plus aptes à assurer la survie des robots et des souris.

Le problème de la conscience n'a pas non plus lieu d'être posé, si l'on s'en tient aux considérations qui précèdent. Appelons conscience de soi la représentation qui émerge, au sein d'un système évolutionnaire hiérarchisé, à partir des conflits darwiniens entre les représentations élémentaires générées par les composants fonctionnels inférieurs du système. Admettons que cette représentation puisse dans certaines circonstances, par effet feed-back, contrôler une partie plus ou moins importante du système tout entier, en lui imposant un comportement global cohérent. Ce sera l'équivalent d'une conscience de veille. Dans le cerveau électronique du robot, un espace de commande se trouvera progressivement dédié par apprentissage à l'acquisition et l'utilisation des informations composant cette conscience de veille, dès lors que son rôle se révélerait favorable à la survie adaptative du robot. En ce qui concerne les systèmes biologiques, l'imagerie fonctionnelle n'a pas encore mis en évidence de tels centres de commande intégrée. La capacité de générer des états de conscience de veille y semble répartie entre différents centres en compétition permanente. Mais, comme pour ce qui concerne les robots, le statut de cette fonction «supérieure» ne devrait pas susciter d'interrogations philosophiques particulières.

Les neurones de la lecture

Nous avons pensé utile de formuler cette longue introduction avant de présenter l'ouvrage remarquable de Stanislas Dehaene, « Les neurones de la lecture », dont l'auteur veille à rappeler qu'il se réfère aux recherches menées depuis au moins trente ans sur les mêmes thèmes par Jean-Pierre Changeux. L'un et l'autre sont les représentants français les plus internationalement reconnus d'une démarche très féconde visant à utiliser les apports des neurosciences pour approfondir un grand nombre de disciplines scientifiques qui les ignoraient jusqu'à ces derniers temps. En matière de sciences humaines, on obtient ainsi une neuro-mathématiques, une neuro-esthétique, une neuro-économie, une neuroscience politique, une neuroscience des croyances et religions, etc.

"Les neurones de la lecture" s''inscrit par conséquent dans le vaste travail d'exploration des bases neuronales des activités réputées culturelles de l'esprit humain conduit par Stanislas Dehaene. Après celui précédemment consacré par l'auteur au calcul («La bosse des maths»), ce nouvel ouvrage fait la synthèse d'un grand nombre de travaux de laboratoires consacrés à l'étude de la lecture, sous toutes ses formes. Par la force des choses, le livre ne peut pas «tout dire», que ce soit sur la lecture proprement dite ou sur les multiples apports que permet en ce domaine le recours aux neurosciences. L'auteur montre cependant avec un grand luxe de détails et d'illustrations la considérable complexité qui se cache sous un comportement aussi banal apparemment que la lecture. Il expose comment un certain nombre d'organes coopèrent dans cette activité, le plus important étant, après l'œil, le cerveau. Il illustre en permanence ses propos par l'appel aux techniques de l'imagerie fonctionnelle du cerveau, grâce auxquelles il fait apparaître la façon dont celui-ci traite les images reçues dans la rétine jusqu'à leur donner des sens aux implications symboliques profondes, elles-mêmes sources de la création culturelle ultérieure.

Chaque année qui passe donne à ces travaux, loin encore d'être terminés, une précision accrue, car les progrès de l'imagerie cérébrale, en termes de pouvoir discriminant, ne cessent d'augmenter. Il ne s'agit donc plus seulement, comme jadis, de se limiter à une analyse clinique très grossière des effets des lésions. Aujourd'hui, on peut identifier l'activité fonctionnelle de colonnes corticales d'1 mm de côté environ. Cela comprend encore des millions de neurones individuels et un nombre considérablement plus grand de synapses. Mais il semble que les techniciens ne désespèrent pas de pouvoir observer, sinon toujours des neurones individuels, du moins des effectifs bien plus petits. Cela permettra d'approcher progressivement le «pandemonium» selon le terme d'Olivier Selfridge repris par l'auteur, que constitue l'activité des neurones entrant en compétition pour identifier une stimulation sensorielle donnée. On notera aussi que la discrimination permise par les instruments modernes concerne aussi le facteur temps, puisqu'il est désormais courant de mesurer des temps de réponse en dizaines de milliseconde. Il n'y a donc pas de raison de penser que les processus caractérisant le fonctionnement de ce que Baars et l'auteur nomment l'espace de travail conscient ne deviendront pas identifiables prochainement.

Nous n'entreprendrons pas de résumer ici le travail extrêmement minutieux et pourtant clairement présenté auquel l'auteur s'est livré dans « Les Neurones de la lecture » pour montrer comment le cerveau du lecteur, avec une rapidité stupéfiante, peut passer de l'identification visuelle des lettres (les graphèmes) aux mots et aux sons (phonèmes) qui leur correspondent, puis finalement à leur sens, ceci malgré les nombreuses causes d'ambiguïtés qui pourraient rendre la lecture ou la compréhension impossible. Il faut lire ces chapitres en détail. On s'intéressera également aux similitudes que présentent les différentes écritures, anciennes et contemporaines, montrant bien qu'elles répondent toutes à des contraintes organisationnelles voisines, tenant de fonctionnalités neuronales identiques.

Le livre présente un autre aspect, moins connu, des travaux de l'auteur. Il s'agit de retrouver dans le cerveau des animaux les précurseurs des neurones de la lecture. Les instruments de l'imagerie cérébrale peuvent désormais être utilisés pour observer le fonctionnement du cerveau de divers animaux, ce qui est précieux puisque leur système nerveux peut dans beaucoup de cas servir de modèle pour comprendre celui de l'homme. Les animaux ne lisent évidemment pas, comme le fait l'homme moderne, mais ils isolent dans leur environnement des traits caractéristiques susceptibles de contribuer à leur survie. Stanislas Dehaene montre qu'ils utilisent pour ceci des neurones dédiés à la reconnaissance des formes, présents chez tous les animaux, dès qu'ils disposent d'un appareil visuel un tant soit peu élaboré. Comme l'on sait, l'œil n'identifie pas des objets en tant que tels, mais des formes extrêmement simples, lignes verticales, horizontales et à la rigueur angles, à partir desquelles le cerveau reconstruit, à la suite d'un long apprentissage, des paysages variés dans lesquels l'animal doit pouvoir se mouvoir avec sécurité afin d'assurer sa survie.

Stanislas Dehaene montre que l'écriture et par conséquent la lecture, qui sont des activités récentes dans l'histoire humaine, apparues il y a seulement quelques millénaires, ont pu se développer en utilisant des aires cérébrales utilisées précédemment à la reconnaissance des formes et des objets. Les bases neurales de la lecture dont tout nouveau-né humain dispose en naissant ont «recyclé», pour reprendre le terme proposé par lui, des capacités neuronales assurant précédemment des fonctions différentes. Il s'agit, comme il l'indique, d'une "exaptation", ce terme proposé par Stephen Jay Gould désignant l'utilisation d'un organe existant pour répondre à des besoins nouveaux, ce qui entraîne en retour une modification de l'organe. Cette exaptation s'est-elle faite au détriment de capacités de reconnaissances des formes existant chez l'animal et qui auraient dépéri chez l'homme ? Stanislas Dehaene pose la question sans y répondre, tout en suggérant que la souplesse de reconfiguration du cortex aurait sans doute permis de maintenir des fonctions multiples, si les exigences d'adaptation au milieu l'avaient imposé. Si l'homme moderne a perdu certaines fonctions sensorielles très présentes chez l'animal, c'est sans doute parce que ses nouveaux milieux de vie et les prothèses sociétales dont il dispose désormais ne les rendent plus nécessaires.

Les bases neurales de la lecture

Un commentaire s'impose cependant concernant l'intérêt de mettre en évidence les bases neurales de la lecture. Jean-Pierre Changeux et Stanislas Dehaene insistent sur le fait que la lecture comme le calcul et d'autres activités cognitives analogues possèdent des bases neurales désormais bien identifiées, transmises sous commande génétique d'une génération à l'autre, et ce depuis quelques millénaires au moins pour les plus récentes. Or ils rappelent que beaucoup de psychologues et cogniticiens considèrent encore la lecture, le calcul et même le langage comme des constructions entièrement culturelles, développées au sein des sociétés humaines sans lien aucun avec l'organisation cérébrale. En particulier, le cerveau de l'embryon et même celui du nouveau-né ne comporteraient pas d'aires cérébrales dédiées à ces fonctions et par conséquent organisées sous commande génétique. L'enfant naîtrait, selon l'expression devenue courante, avec une page blanche (blank slate) en matière d'aires corticales affectée aux activités culturelles. Cette page se remplirait peu à peu au fil des mois consacrés à l'apprentissage, en contact avec un acquis culturel «externalisé» par rapport aux organismes.

Jean-Pierre Changeux n'a pas tort de qualifier de tragique cette survivance du dualisme platonicien, car elle continue à établir un clivage épistémologique entre les sciences biologiques et les sciences de l'homme. Tous les travaux récents, éclairés notamment par l'imagerie fonctionnelle cérébrale, montrent au contraire qu'à partir de bases génétiquement définies, le cerveau du sujet se complexifie et se spécialise en interaction avec l'environnement de celui-ci, notamment en interaction avec les constructions sociales qu'il découvre dès sa naissance, les affects, les comportements élémentaires, le langage puis le calcul et l'écriture. On parle généralement à cet égard d'une construction épigénétique, c'est-à-dire résultant d'une co-évolution entre l'organisation neuronale et les apprentissages obligés découlant de l'insertion dans le milieu social.

Mais comment, diront les défenseurs du « tout-culturel » peut-on prétendre que les bases neurales permettant le langage, le calcul et la lecture sont inscrites dans le génome humain, alors que l'on sait (ou l'on suppose) que le génome n'a plus évolué depuis quelques centaines de milliers d'années (6) . Or le langage est bien plus récent (on ignore encore si le Néanderthalien parlait). Le calcul et la lecture le sont bien plus encore. Ces activités n'ont donc pas eu le temps de modeler le cerveau au travers de mutations génétiques adaptatives. Nous l'avons dit, Stanislas Dehaene répond à cette objection apparemment forte en montrant que ces aptitudes de l'homme en société se sont développées en utilisant et détournant des capacités cérébrales (et anatomiques) existant avant elles et servant à d'autres tâches. Ce processus absolument général voire fondamental en biologie évolutionnaire ne devrait pas étonner, car il caractérise encore massivement l'homme moderne. J'utilise mes mains (et les aires cérébrales correspondantes de mon cerveau) pour écrire cet article sur le clavier de mon ordinateur alors que mes ancêtres se servaient des leurs pour manier des armes ou des outils indispensables à leur survie.

Nous n'irons pas plus avant dans la présentation de l'ouvrage, malgré l'intérêt des questions abordées ensuite par Stanislas Dehaene, dans la suite de ses travaux sur les bases neurologiques de la lecture. Signalons seulement que l'auteur analyse de près un disfonctionnement très répandu, la dyslexie, et suggère quelques techniques permettant d'y remédier. De même, il recommande d'utiliser les conclusions de ses travaux à l'amélioration des méthode d'apprentissage de la lecture, passant ou non par une simplification relative de l'orthographe. On remarquera à cet égard qu'il condamne fermement les erreurs de la méthode globale, qui contrairement à l'historique BA Ba, contrecarrent directement la façon dont le cerveau des occidentaux apprend à lire.

Dans sa conclusion, le livre évoque le grand avenir scientifique que devraient avoir les neurosciences appliquées à un certain nombre de disciplines (dont certaines énumérées ci-dessus) que l'on associe rarement à des recherches utilisant l'imagerie fonctionnelle cérébrale.

Quelques questions que nous aimerions poser à l'auteur

Nous avons indiqué plus haut que cet ouvrage déjà important ne pouvait prétendre répondre à toutes les questions, opportunes ou maladroites, que des lecteurs s'intéressant aux thèmes évoqués par lui pourraient être conduits à se poser. Signalons cependant certaines de ces questions qui auraient mérité nous semble-t-il une discussion rapide.

Pourquoi d'abord mettre l'accent sur la lecture et non sur l'écriture. Il semble qu'il s'agisse de deux aspects complémentaires d'une même activité consistant à représenter par des symboles simples des contenus sémantiques complexes. Mais est-ce bien le cas ? Ne peut-on penser par exemple que l'acte d'écrire, par exemple tracer des lignes dans le sable avec un bâton, a pu précéder historiquement le fait d'attribuer un sens bien défini et normalisé à ces signes. Les peintures pariétales, par ailleurs, apparues vers 40.000 ou 35.000 ans BP, ne peuvent-elles être considérées comme des formes d'écriture, qui n'étaient sans doute pas destinées à être lues comme on lit un livre. Elles convoyaient des informations symboliques globales (inaugurant avant la lettre la méthode globale de lecture condamnée par l'auteur !). Quant aux premiers outils en pierre taillée, dont on estime maintenant qu'un des berceaux se trouverait dans le bassin d'El Kowm, en Syrie à la date de 1,2 millions d'années avant le présent  (7) ne pourraient-ils être considérés comme des formes primitives mais précises d'écriture et de lecture ?

Cette première considération nous conduit à regretter que le livre de Stanislas Dehaene ne replace pas davantage la lecture dans la problématique infiniment plus complexe des bases neurales et de l'histoire des symboles (notamment mythologiques) et des langages – sans élargir encore l'approche à la prise en considération des proto-langages animaux. Le lecteur potentiel ne se donne le mal de déchiffrer un graphème que s'il a l'espoir d'accéder à un monde symbolique qui enrichira sa propre bibliothèque de significations. Aussi nous pensons que des convergences auraient pu être mises en évidence, entre les conclusions de l'auteur et celles des défenseurs d'une conception épigénétique des langages. Dans un livre récent, que nous présenterons plus en détail ultérieurement (8), le linguiste Steven Pinker, dans la ligne d'un de ses ouvrages précédents « The Blank Slate», s'affirme avec autorité comme un sociobiologiste évolutionnaire convaincu. En matière de langage, il considère que celui-ci reflète l'organisation de notre cerveau, laquelle est innée, c'est-à-dire déterminée par les gènes propres à l'espèce humaine. En ce sens il est fidèle à la célèbre thèse de Chomsky selon laquelle les enfants naissent avec des capacités câblées dans le cerveau leur permettant d'apprendre très vite à parler, ce que les animaux ne peuvent pas faire. Mais il approfondit cette thèse, laquelle se limite en principe aux capacités du cerveau à comprendre et utiliser la grammaire. Dans The Stuff of Thought, il envisage que la compréhension du sens des mots soit elle-même câblée à la naissance. Elle repose sur des significations globales acquises par l'espèce tout au long de l'évolution. Si le concept de chien n'est pas câblé, celui d'animal, associé à des significations comme dangereux, mangeable, etc. le serait. La mère désignant un chien à son enfant et le qualifiant de chien permet à l'enfant d'associer immédiatement la vue et le terme de chien à une catégorie plus générale dont son cerveau était déjà porteur. De la provient la rapidité avec laquelle il apprend le mot chien et le charge d'un environnement de significations très riches. Cela ne veut pas dire que les mots décrivent le monde tel qu'il est, mais seulement la façon dont à travers l'évolution les humains (et leurs prédécesseurs) ont interagit avec lui.

Pinker rejette ainsi l'extrême nativisme à la Fodor, mais aussi l'extrême pragmatisme. Ses hypothèses semblent très recevables. Elles sont cependant contestées par les tenants de la linguistique évolutionnaire radicale. Pour eux (notamment Philip Lieberman, auteur de « The Biology and Evolution of Language », 1984) l'expérience acquise par l'individu tout au long de sa vie est indispensable à l'acquisition de ce que seront pour lui les significations des mots. Les zones cérébrales activées par les mots seraient d'ailleurs les mêmes que celles activées par la perception des choses et par les activités motrices s'exerçant à leur sujet.

On voit que ces questions rejoignent celles évoquées par Stanislas Dehaene dans « Les neurones de la lecture ». Il est donc curieux de constater qu'il ne mentionne pas Pinker dans sa bibliographie. Il est vrai que ce dernier n'est pas un neuroscientifique mais un linguiste et un psychologue évoltionnaire. Dans The Stuff of Thought, il cite cependant plusieurs fois, avec beaucoup de considération, les travaux de Stanislas Dehaene (p. 130, 138, 140) .

Une autre question aurait pu être évoquée, concernant les capacités de mémoire à long terme du cerveau humain. Nous avons compris que, pour Stanislas Dehaene, le cerveau stockait sous une forme durable sinon permanente, les milliers et millions de références acquises grâce à la lecture – ceci d'ailleurs sans que l'attention puisse toujours retrouver ces références quand le sujet en a besoin. Cette hypothèse rejoint la problématique de la mémoire en général. Certains neurologues considèrent qu'avec ses 100 milliards de neurones et un bien plus grand nombre de synapses, le cerveau d'un homme moderne peut conserver, « engrammées » quelque part, le souvenir de tous les événements, mineurs ou majeurs, vécus dans une vie d'homme moyen. Ces souvenirs resteraient pour l'essentiel inconscients, mais ils pourraient néanmoins ressurgir dans certaines circonstances et provoquer des effets dynamiques. Or la question qu'il faut se poser est la suivante : l'exploration fonctionnelle du cerveau permet-elle ou permettra-t-elle un jour de faire apparaître en tant que de besoin la localisation de tels souvenirs, et la forme sous laquelle ils sont mémorisés ? Nous aurions aimé que Stanislas Dehaene nous donne son opinion sur ce sujet.

Pour terminer, évoquons une question fondamentale, il est vrai pratiquement insoluble (ou insolvable) en l'état actuel des connaissances. Elle concerne les origines de la lecture, comme d'ailleurs celle des outils, des langages et de toutes les activités symboliques. La question peut être posée de la façon suivante : pourquoi des animaux qui possèdent indiscutablement les rudiments de ces différentes activités n'essayent-ils pas de les développer sous la forme de véritables constructions culturelles épigénétiques ? Stanislas Dehaene se pose la question et y répond, si nous l'avons bien compris, en évoquant le fait que le cerveau humain a été le seul à se doter de fibres associatives réentrantes permettant d'organiser l'espace de travail global évoqué ci-dessus. Cet espace permettrait de recycler les contenus d'aires neurales dédiées afin d'en faire les briques d'une représentation globale du monde dont l'animal n'est pas capable.

Soit, mais pourquoi les hommes ont-ils développé un tissu aussi dense de fibres associatives, alors que les animaux ne l'ont pas fait? L'explication faisant appel à la survenue d'une mutation génétique heureuse parait trop simple pour être honnête. Une autre hypothèse a été avancée par Susan Blackmore, papesse de la mémétique. Pour elle, les cerveaux des hommes ont brusquement grossi parce qu'ils étaient envahis par des mèmes, lesquels avaient besoin de nouveaux canaux pour se multiplier. Peut-être. Mais pourquoi les animaux auraient-ils échappé à cette épidémie ? Parce que les animaux, selon Susan Blackmore, ignorent l'imitation. L'argument ne nous parait pas recevable, car certains animaux sont capables d'imiter.

Signalons une hypothèse assez exotique, mais qui nous paraît mériter d'être approfondie. Les sociétés d'hominiens ayant développé à grande échelle la production de symboles l'ont fait parce que leurs membres ont découvert (par hasard, dans le cadre d'activités de recherche exploratoire propres à ces primates) la consommation de certaines plantes hallucinogènes qui sont de puissants stimulants de l'activité cérébrale. A la suite des chamans et des « illuminés » de toutes sortes ayant abusé de tels excitants, le langage complexe, l'art, l'écriture et la lecture auraient pu ainsi exploser au sein de ces sociétés «inspirées». Toute notre culture en découlerait. Elle serait encore, pour l'essentiel, «hallucinée». Les technologies de l'information participeraient aujourd'hui largement à cette production hallucinatoire. Why not ? (9)

Notes
(1) Concept présenté par Bernard Baars sous le nom de Global Workspace et repris par Stanislas Dehaene. Voir en ligne l'ouvrage "A cognitive theory of consciousness" 1988
http://nsi.edu/users/baars/BaarsConsciousnessBook1988/index.html
ainsi que , plus récemment,
http://www.ceptualinstitute.com/genre/baars/homepageBB.htm et
http://cogweb.ucla.edu/CogSci/Baars-update_03.html
(2) Voir The Whole Brain Atlas : www.med.harvard.edu/AANLIB/
(3) Voir Chauvet : http://www.gilbert-chauvet.com/
(4) Voir par exemple le programme européen ECAgents :
http://ecagents.istc.cnr.it/index.php?main=7&sub=71
Voir aussi les travaux sur la conscience artificielle d'Alain Cardon:
http://cardalain.googlepages.com/
(5) Voir notre présentation :
http://www.automatesintelligents.com/biblionet/2007/juil/frith.html
(6) Des observations anthropologiques récentes montrent que les génomes humains évoluent constamment de groupes à groupes, dans des domaines il est vrai ne remettant pas en cause la sacro-sainte appartenance à l'espèce humaine. Voir "How we adaptated to a modern world. New Scientist 15 décembre 2007, p. 8.
(7) Sciences et Avenir, janvier 2008, p.46,
(8)"The Stuff of Thought: Language As a Window into Human Nature"», Allen Lane 2007.
Sur Pinker, on pourra relire notre présentation de son livre précédent, The Blank Slate, http://www.automatesintelligents.com/biblionet/2003/sep/pinker.html
(9) Voir notre propre livre, "Pour un principe matérialiste fort", Editions JP Bayol, 2007 : http://www.editions-bayol.com/PMF/index.php

Partager cet article
Repost0
8 novembre 2007 4 08 /11 /novembre /2007 18:18

Le monde quantique profond serait-il déterministe ?
par Jean-Paul Baquiast 09/11/07

Dans  le NewScientist daté du 3 novembre 2007, p. 37, Mark Buchanan, diplômé en physique théorique, rédacteur scientifique et auteur de divers ouvrages sur l’importance de Dieu dans notre compréhension du monde et de la science, discute les hypothèses du physicien Joy Christian (notre photo), de l’université d’Oxford, concernant la possible existence d’une réalité déterministe sous jacente au monde quantique.1)  Celle-ci permettrait d’expliquer les « bizarreries » (weirdness) de la physique quantique, notamment la non-localité, la superposition d’états et l’intrication (entanglement).2) Ces bizarreries sont considérées par l’écrasante majorité des physiciens comme des « réalités » ne pouvant plus être discutées aujourd’hui. Des expériences théoriques et des applications technologiques innombrables ont démontré la pertinence des descriptions quantiques du monde. Aucune preuve susceptible de les falsifier n’a été apportée. La recherche de « variables cachées » n’a nulle part abouti.

Concernant l’intrication, les expériences destinées à vérifier le théorème (les inégalités) de Bell (dont celles conduites à Orsay par Alain Aspect à partir de 1982), puis celles portant sur l’intrication de photons et d’objets complexes réalisées en 2006 par Marcus Aspelmeyer de l’Académie des sciences de Vienne  3) ont toutes montré que deux particules peuvent être relié instantanément à distance, sans aucun lien entre elles et aussi que la superposition peut affecter des objets – relativement - massifs. Cela pose la question du réalisme : l’univers tel que nous le définissons existe-t-il en dehors de la mesure ? 4)

Cependant, quelques physiciens, notamment le hollandais Gerard ‘t Hooft de l’Université d’Utrecht 5) et le mathématicien Roger Penrose, d’Oxford, n’ont pas renoncé à formuler des hypothèses postulant le caractère déterministe de l’univers à un niveau encore plus fondamental que celui considéré par la physique quantique. Ces hypothèses permettraient de comprendre pourquoi le déterminisme disparaît en laissant place à l’aléatoire constaté par le physicien manipulant des entités quantiques. Pour ‘t Hooft, écrit Mark Buchanan, la physique quantique peut être comparée à la thermodynamique en ce sens qu’elle décrit les systèmes physiques par l’intermédiaire de moyennes statistiques, plutôt qu’en se plaçant à un niveau de détail plus précis. Le vide quantique pourrait de la même façon être composé d’un très grand nombre d’états distincts qui évoluerait d’une façon déterministe et dont la physique quantique ne connaîtrait que les produits statistiques. Gerard ‘t Hooft propose différentes hypothèses déterministes qui permettraient de vérifier ce postulat. On sait par ailleurs 6) que Lee Smolin et ses collègues du Perimeter Institute travaillant sur la gravitation quantique en lacet considèrent comme inévitable une remise en cause radicale de la mécanique quantique sous sa forme actuelle. Ils pensent progresser dans cette voie 7). Mais tout ceci demeure encore très hypothétique.

Les algèbres non commutatives

C’est précisément là que le travail de Joy Christian intervient. Il postule que si les vérifications du théorème de Bell ont donné les résultats que l’on sait, c’est parce que Bell avait supposé que les caractéristiques des variables cachées dont il postulait l’existence pouvaient être exprimées sous forme de nombres ordinaires, ceux de l’algèbre commune. Ces nombres seraient donc commutatifs. Ainsi, dans une multiplication, la commutation s’exprime par la notation suivante [ 2x5 = 5x2 ]. La commutation, en particulier, ne tient pas compte du temps. Une algèbre commutative ne peut donc prétendre décrire l’ensemble des phénomènes du monde physique. Comme l’a dit Alain Connes, un des pères de la géométrie non commutative 8) ouvrir une canette et en boire le contenu ne peut équivaloir à l’opération réalisée dans l’ordre inverse.

Joe Christian ne fait pas appel à la géométrie de Alain Connes mais à l’algèbre non commutative du mathématicien William Clifford. Celui-ci a généralisé, dans ce que l’on nomme désormais l’algèbre de Clifford 9)   les travaux, publiés en 1843, du mathématicien mécanicien William Rovan Hamilton. Hamilton avait proposé pour construire des modèles dans un espace à trois dimensions des extensions non commutatives des nombres complexes qu’il avait baptisé du terme de quaternions 10). Les quaternions sont désormais très utilisés par les sciences de l’ingénieur, notamment pour représenter des rotations.

Pour Joe Christian, il faut supposer que les variables cachées peuvent avoir des propriétés algébriques différentes de celles représentées par l’algèbre ordinaire et que pour les exprimer il faut faire appel à ces algèbres non commutatives. Dans ce cas, les inégalités de Bell telles qu’actuellement formulées ne seraient pas utilisables , car elles ne seraient pas dotées d’un appareil mathématique susceptible de faire apparaître des variables cachées expliquant la non-localité quantique. Notons que, pour Philippe Grangier, de l’Institut d’Optique d’Orsay, l’hypothèse, bien qu’intéressante, n’est pas encore assez argumentée pour être recevable.

Nous nous trouvons donc peut-être à un tournant, éventuellement révolutionnaire, de la physique et plus généralement des représentations, réalistes ou non, déterministes ou non, que l’on peut se faire de l’univers profond. La question des multivers serait également concernée. L’affaire est donc à suivre.

On peut penser par ailleurs que les tenants des explications religieuses du monde ne manqueront pas d’exploiter les résultats des premières expériences qui pourraient être proposés – ceci d’ailleurs quels que soient ces résultats car les interprétations théologiques sont telles qu’il est impossible de les mettre en défaut. Sans mettre en cause l’impartialité de Mark Buchanan auteur de l’article du NewScientist précité, ce n’est pas sans une petite arrière pensée que nous signalions sa foi chrétienne, puisqu’il ne cache pas qu'elle l'inspire dans le regard qu'il jette sur les sciences.

Pour en savoir plus
1) Disproof of Bell's Theorem by Clifford Algebra Valued Local Variables
Par Joy Christian (Perimeter and Oxford) http://www.arxiv.org/abs/quant-ph/0703179
2) Le monde quantique Les Dossiers de la Recherche, N° 29, Novembre 2007
3) Voir Michaël Brooks, Reality Check, NewScientist 23 juin 2007 p. 30
4) Ces questions, incluant la contribution de Mioara Mugur-Schächter, sont discutées dans le premier chapitre de notre propre livre Pour un principe matérialiste fort. JP Bayol, 2007
5) Petit précis de physique par Gerard ‘t Hooft, prix Nobel
http://www.phys.uu.nl/~thooft/theorist.html#aqmechanics
6) Lee Smolin. The Trouble with Physics
http://www.automatesintelligents.com/biblionet/2007/juil/troublewithphysicshtml.htm
7) Disordered locality in loop quantum gravity states, Fotini Markopoulou, Lee Smolin http://www.arxiv.org/abs/gr-qc/0702044
8) Géométrie non commutative Wikipedia
http://en.wikipedia.org/wiki/Non-commutative_geometry
9) L’algèbre de Clifford http://en.wikipedia.org/wiki/Clifford_algebra
10) Les Quaternions http://en.wikipedia.org/wiki/Quaternion

Partager cet article
Repost0
15 octobre 2007 1 15 /10 /octobre /2007 14:01
Introduction à l'hyperscience

par Jean-Paul Baquiast et Christophe Jacquemin
10/10/07

Nous proposons dans le numéro spécial de Automates Intelligents http://www.admiroutes.asso.fr/larevue/2007/84/index.html quelques articles qui nous semblent révélateurs de ce que la science pourrait devenir dans les années à venir, si les négationnistes de toutes origines n'asséchaient pas définitivement les crédits de recherche fondamentale. Il s'agit notamment d'un entretien avec l'astrophysicien Michel Cassé, de la présentation d'un essai de Aurélien Barrau, autre astrophysicien et, dans un domaine apparemment différent mais qui ne l'est pas au plan épistémologique, d'une chronique consacré au livre de Serge Boisse sur l'Intelligence Artificielle et la Singularité.

Il nous apparaît que ces auteurs annoncent tous les trois, dans des termes différents, l'avènement de ce que nous aimerions appeler l'hyperscience. Pourquoi ce terme, qui fera d'emblée monter aux créneaux les négationnistes auxquels nous faisions allusion ?

L'hyperscience, dans la définition provisoire que nous vous proposons, comporterait les traits suivants, qui la distingueraient de la science traditionnelle :

Elle multiplierait les hypothèses, sans se laisser embarrasser par des considérations de convenance. Ainsi serait remis à l'ordre du jour le concept d'anarchisme méthodologique lancé par le regretté et aujourd'hui oublié Paul Feyerabend(1).

Elle multiplierait parallèlement la mise en service d'équipements lourds ou légers destinés non seulement à tester les hypothèses déjà formulées mais à faire naître ce que Michel Cassé appelle dans son article des nuages d'incompréhension, indispensables à l'avancement de la recherche.

Elle serait radicalement transdisciplinaire. Non seulement elle naviguerait hardiment d'une spécialisation à l'autre au sein d'une discipline donnée, mais aussi d'une discipline à l'autre, et ceci en priorité si tout paraît les séparer. Pour l'aider, il faudrait multiplier les outils et les réseaux permettant le rapprochement des connaissances et des hypothèses.

Elle n'hésiterait pas, en fonction du développement des systèmes évolués d'Intelligence Artificielle et de simulation du vivant, à faire appel à leurs agents intelligents pour relancer l'esprit inventif des scientifiques humains et aussi pour collecter les fruits d'un raisonnement non-humain qui pourrait agir en interaction avec l'intelligence humaine.

Elle renoncerait au préjugé selon lequel la science doit unifier et rendre cohérents tous les paysages auxquels elle s'adresse. Le même individu pourrait se donner du monde des représentations différentes, selon qu'il décrirait les horizons de la physique théorique, de la vie, des neurosciences, des systèmes dits artificiels ou, plus immédiatement, de l'art, de la philosophie et de la morale. Le préjugé selon lequel le monde est un et doit être décrit d'une façon unique est sans doute un héritage du cerveau de nos ancêtres animaux, pour qui construire cette unité était indispensable à la survie dans la jungle. Elle a été reprise par les religions monothéistes, dont les prêtres se sont évidemment réservés la représentation du Dieu censé incarner cette unité.

Le « réalisme » qui inspire encore la plupart des sciences constitue une survivance aliénante dudit préjugé. Selon le réalisme, il existe un réel en soi, existant en dehors des hommes, dont les scientifiques, grâce à la science expérimentale déductive, pourraient donner des descriptions de plus en plus approchées. L'hyperscience, tout au contraire, postulerait le constructivisme, thèse selon laquelle la science construit l'objet de son étude, c'est-à-dire le réel subjectif, le seul qui puisse l'intéresser. Elle construit d'abord cet objet en le qualifiant comme thème de recherche puis en vérifiant expérimentalement les hypothèses qu'elle formule à son sujet. L'expérimentation a pour objet de maintenir une cohérence entre les hypothèses précédemment vérifiées et les nouvelles, sans pour autant s'interdire une remise en question (ou plutôt une extension) des premières. Elle est nécessairement et fondamentalement empirique: cela marche ou ne marche pas. Si elle cherche à regrouper et unifier les causes et leurs expressions sous forme de lois, c'est sans prétendre rechercher - et encore moins prétendre avoir trouvé - une cause première définitive (une loi fondamentale) (2).

Précisons cependant que si l'hyperscience ne devait pas chercher à imposer une vision totalitaire du monde, elle devrait cependant , pour son propre compte, s'affirmer holiste et totalisante. En ce sens, elle montrerait, face à tous les ésotérismes, les mythologies, les illusionnismes et les fondamentalismes religieux, qu'elle représente la seule attitude rationnelle digne d'une humanité qui voudrait relever dignement l'héritage du siècle des Lumières. Il s'agirait en fait d'une forme de spiritualité matérialiste très haute car elle serait une théorie de la contradiction sans transcendance, c'est-à-dire une théorie de l'immanence première et complexe qui sert de départ (et d'arrivée)(3).

Elle se doterait enfin de portes paroles suffisamment influents pour obtenir le déroutement à son profit des milliards de milliards de dollars consacrés au financement des guerres et aux dépenses de consommation somptuaire qui seront de plus en plus insupportables dans la perspective des grandes crises environnementales et géopolitiques qui s'annoncent(4). L'hyperscience, pour ce faire devrait convaincre l'humanité qu'elle représente pour cette dernière la seule opportunité d'échapper à ces crises. A défaut d'en persuader le monde, elle devrait au moins en persuader les Européens. L'hyperscience serait pour l'Europe une révolution économique, politique et épistémologique, trois conditions indispensables à la résolution des graves crises à venir. Si l'Europe, au lieu de construire des autoroutes et d'importer des 4/4, se couvrait d'Instituts de recherche fondamentale (dit en anglais Blue Sky Research) elle offrirait au monde un autre visage(5).


Notes
(1) Paul Feyerabend, Contre la méthode, esquisse d'une théorie anarchiste de la connaissance 1975
(2) Sur cette question difficile, voir Baquiast, Pour un principe matérialiste fort, notamment le chapitre consacré aux travaux de Mioara Mugur Schächter. Les sceptiques diront que le processus que nous décrivons ressemble beaucoup à ce que ferait un peintre qui s'accrocherait à son pinceau pour peindre un mur. Mais c'est exactement ainsi, selon nous, que travaillent non seulement les physiciens quantiques, mais les scientifiques en général et derrière eux, tous les locuteurs. Malheureusement, la plupart ne s'en rendent pas compte.
(3) Baquiast, ibidem.
(4) Faisons un rêve. L'humanité a décidé d'économiser plus de 1.000 milliards de dollars en supprimant ses budgets militaires. De même, devant la montée des périls résultant de l'aggravation de la grande crise environnementale, elle s'est résolue à réduire les dépenses affectées à la consommation de produits et services de luxe ne bénéficiant qu'à quelques-uns. Là encore, plus de 1.000 milliards de dollars pourront être économisés. Mais quelle affectation donner à ces sommes? Et à quoi occuper les centaines de millions de gens qui ne vivent aujourd'hui que de la guerre et des consommations somptuaires ? La réponse devrait sauter aux yeux : à l'hyperscience
(5) Pour plus de détails, voir notre article dans le numéro: spécial  Bienvenue au royaume de l'hyperscience.

Partager cet article
Repost0
11 octobre 2007 4 11 /10 /octobre /2007 15:40
Interview
Michel Cassé
interview réalisé par Jean-Paul Baquiast pour le compte de Automates-Intelligents
02/10/2007

Michel Cassé est astrophysicien, directeur de recherche au Commissariat à l’Energie Atomique. Il a écrit de nombreux ouvrages scientifiques et de vulgarisation dont on trouvera une liste résumée dans cette page de la FNAC
http://www3.fnac.com/item/author.do?id=66365

Nous avions précédemment présenté son livre "Généalogie de la matière. Retour aux sources célestes des éléments". Editions Odile Jacob - octobre 2000:
http://www.automatesintelligents.com/biblionet/2001/jan/m_casse.html


Nos lecteurs portent beaucoup d’intérêt aux questions théoriques et pratiques intéressant l’astrophysique et la cosmologie. C’est la raison pour laquelle nous leur donnons une place croissante dans cette revue. On sait que depuis les origines de ces sciences, comme plus récemment depuis l’apparition de la physique quantique, les hypothèses formulées par les chercheurs ont toujours été reprises et exploitées par les défenseurs d’une conception mystique du monde. Ils y trouvent amplement matière à expliquer que ces hypothèses prouvent la vérité des affirmations des Ecritures et autres textes fondateurs dont les religions sont riches 1)  Cette attitude, qu’illustre aujourd’hui jusqu’à saturation les promoteurs du Dessein Intelligent, est évidemment inacceptable par le matérialisme scientifique. On doit toujours distinguer le travail de la science et les interprétations plus ou moins intéressées qu’en donnent les religions. Notre revue se fait un devoir d’ajouter sa voix à ceux qui refusent toute exploitation idéologique des travaux scientifiques.

Cependant, même entre scientifiques, des débats ont toujours existé entre ceux qui considèrent avec méfiance les hypothèses les plus contraires au sens commun formulées par les théoriciens et ceux pour qui la science n’avance que grâce à de telles hypothèses. C’est évidemment l’expérimentation instrumentale qui sert de pierre de touche. Un fait constaté par un instrument et non explicable par les modèles dominants ne peut être négligé, même s’il conduit à des hypothèses explicatives « bizarres » (weird ou spooky, en anglais). Si réciproquement, une hypothèse bizarre ne peut être immédiatement confirmée par une preuve expérimentale, elle ne doit pas pour autant être rejetée. Cette preuve peut être apportée des années plus tard.

Nul n’ignore que ce débat est au plus fort actuellement à propos de la théorie des cordes ou supercordes, ainsi qu’aux hypothèses en partie liées à la précédente concernant l’ « existence » des univers multiples. Nous avions précédemment donné la parole à l’astrophysicien Christian Magnan pour qui ces hypothèses ouvrent grande la porte de la cosmologie aux spiritualistes, faute de pouvoir être démontrées, dans l’état actuel de l’instrumentation 2) . Nous avons également présenté le dernier livre de Lee Smolin, pour qui la théorie des cordes éloigne la recherche de voies plus immédiates permettant de faire progresser la gravitation quantique 3). Mais à l’inverse, car ce n’est pas à nous de trancher dans ce débat, nous avons présenté chaque fois que le thème était évoqué en termes nouveaux, les articles des défenseurs de la théorie des cordes et du Multivers 4.

Dans le camp, si l’on peut dire, de ces derniers se trouve l’astrophysicien français Michel Cassé. Connaissant la renommée internationale de ses travaux, nous sommes heureux d'éditer l’entretien qu’il a bien voulu nous accorder sur ces sujets. Il n’échappera pas que c’est la conception que l’on peut se faire non seulement de l’univers, mais plus généralement des sciences en général, qui en découle. Automates Intelligents


Jean-Paul Baquiast, pour Automates Intelligents (JPB):
La cosmologie contemporaine, comme d’ailleurs la physique quantique, reposent sur des modèles du monde dont le moins que l’on puisse dire est qu’ils sont contre-intuitifs. Mais certains le sont plus que d’autres.

Michel Cassé (MC)
La cosmologie a atteint un certain niveau de consensus, dont la notion d’expansion de l’univers constitue la base. Mais il faut établir une distinction entre cosmologie physique, relativement bien établie (l’expansion et l’accélération tardive de celle-ci) et la cosmologie spéculative (inflation cosmologique, plurivers).

JPB. : Vous évoquez par exemple ce que l’on nomme désormais la matière noire et l’énergie noire ?

MC. On assiste aujourd’hui, en effet, à une extension considérable des concepts de matière et d’univers, Le contenu de l’univers s’est enrichi de deux composantes, la matière noire (de gravité attractive, associée le plus souvent par les physiciens des particules au neutralino, objet hypothétique, relevant de la supersymétrie, tout aussi insaisissable que le neutrino, mais beaucoup plus lourd ) et l’énergie noire (de gravité répulsive, associée par certains au vide quantique ou encore à un champ scalaire –de spin nul- appelé quintessence, et par d’autres à la constante cosmologique d’Einstein).

L’inflation cosmologique (brève période d’expansion frénétique qui efface toute courbure initiale et défroisse l’espace-temps) est censée servir de prélude au Big-Bang, elle est, dit-on, motorisée par un substrat répulsif du type énergie noire mais de densité d’énergie supérieure, et de beaucoup. Sa vertu est d’uniformiser et d’aplanir l’espace. En un clin d’œil une perle d’espace-temps enfle pour se faire plus grosse que notre univers observable. Les fluctuations quantiques du champ moteur de l’inflation servent de germe aux galaxies à naître. L’inflation a un statut épistémologique intermédiaire, car certaines de ses prédictions sont vérifiées, concernant notamment la distribution à grande échelle de la matière dans l’univers.

Le concept de plurivers, quant à lui, occupe le sommet de la spéculation. C’est le fruit du mariage de la théorie des supercordes qui fait proliférer les univers possibles (on peut en faire figurer un petit échantillon dans un « paysage » ou « landscape » à titre illustratif) et de l’inflation éternelle, mécanisme qui est censée les réaliser, c’est-à-dire les pousser à l’existence. Si ce montage théorique est vrai, l’Univers (majuscule) est un champagne généralisé dont nous n’occupons qu’une bulle (un cosmos) parmi d’autres et de fait le Big-Bang est banalisé. La création des cosmos est permanente, hasardeuse et multiple. Chaque bulle déployant un certain nombre de dimensions d’espace (3 dans le nôtre), posséde en propre sa constante cosmologique (exceptionnellement faible en ce qui nous concerne) et son jeu de particules et de forces (6 quarks, 6 leptons et 4 forces dans notre bulle d’univers). L’hypothèse du plurivers fait donc valoir l’existence d’une infinité de cosmos, tous différents les uns des autres mais tout aussi cohérents et légitimes. Elle est difficilement réfutable, ce qui rend son statut scientifique contestable. Mais c’est une bien belle idée car elle va dans le sens de la tolérance en accréditant l’idée d’altérité cosmique.


JPB. : Chacun de ces cosmos est-il doté de ses propres lois fondamentales ?

MC. : Tout dépend de ce que l’on appelle loi. On suppose que le plurivers, dans son ensemble et dans toutes ses parties est régenté par la physique quantique, la relativité générale et, en toute logique, par l’union des deux, la gravitation quantique. Il serait donc gouverné par une meta -loi dont on ne peut expliquer l’origine.

Cependant, les modalités que prend la législation physique dans les bulles d’univers sont différentes du fait que la théorie des supercordes implique l’existence, outre les trois dimensions d’espace-temps que nous éprouvons, de dimensions supplémentaires extrêmement petites et enroulées, invisibles et impalpables. Selon la manière dont elles ont été repliées dans les temps premiers, émergent des particules de masses variées et des interactions plus ou moins intenses. Si on appelle physique la somme des particules et de leurs interactions, ce qui correspond à la vision matérialiste des choses, les propriétés des particules et le nombre des dimensions d’espace n’ont aucune raison d’être identiques et peuvent varier d’un cosmos à l’autre.

JPB. : Voilà bien ce qui inquiète l’homme se voulant raisonnable. Comment faire cohabiter la raison avec l’existence d’un tel arrière-monde ?

MC. : La cosmologie ne demande pas à croire sans preuve. Je pense que l’arrière -monde en question est ou sera accessible à l’expérimentation, d’une manière ou d’une autre, certainement partielle, certes, mais dans un premier temps, il faudra s’en contenter. C’est sur ce point que je veux prendre position. L’existence de supercordes infimes dont les vibrations engendrent les particules ne peut être testée directement, c’est un fait, mais il semble possible, tout au moins, de mettre à l’épreuve les éléments particuliers de cette théorie à savoir la supersymétrie et les dimensions supplémentaires (à condition que certaines d’entre elles soient suffisamment déployées).

La supersymétrie met en relations les bosons qui véhiculent les forces et les fermions qui en sont les réceptacles. S’il existe des contreparties supersymétriques aux électrons, photons, quarks …etc…, (sélectrons, photinos, squarks) et si ces particules ne sont pas excessivement lourdes, nous devrions les voir apparaître, parmi les produits de collision de protons de haute énergie. Ces sparticules auraient les mêmes propriétés que les particules de notre monde (même masse, même charge, même spin) mais des comportement sociaux différents : prenez le sélectron, au lieu d’être un fermion régi par le principe d’exclusion de Pauli, qui interdit de mettre deux fermions dans le même état quantique, ce serait un boson, qui échappe à ce diktat.

Or le sélectron n’a pas encore été découvert. Cela veut-il dire que la supersymétrie n’est qu’un vœu pieux ? Il est de fait que si le sélectron avait la même masse que l’électron, on l’aurait déjà vu jaillir d’une collision de particules. Comme ce n’est pas le cas, on doit supposer qu’il dispose d’une masse bien plus grande que celle de l’électron. On va donc rechercher le sélectron au moyen du LHC, collisionneur à protons du CERN, ainsi que les autres sparticules dès que celui-ci entrera en service en 2008. Si on trouve une quelconque sparticule, l’hypothèse de la supersymétrie sera validée et la théorie des supercordes consolidée, à la satisfaction du théoricien car elle est bien pratique dans la mesure où elle ramène l’espace-temps de la théorie des supercordes de 26 dimensions à 10, voire 11 selon la théorie M (M Theory) d’ Edouard Witten 5) . Il est important de noter que la théorie des supercordes prédit l’existence de 10 ou 11 dimensions d’espace. En ceci elle n’est pas creuse.

JPB. : Toutes ces hypothèses ne sont évidemment pas gratuites. On essaye de faire apparaître certaines de leurs conséquences dans les appareils. C’est ce qui sépare la science de la mythologie.

Ne pas condamner la pensée spéculative

MC. Oui. Je comprends que l’on se méfie de la pensée spéculative pure (« métaphysique ») et que l’on fasse valoir le primat de l’observation et de la mesure, c’est l’essence même de la science (du moins jusqu’ici). Mais une mise à l’index hâtive serait fort dangereuse. Ainsi aurait-on stupidement jeté à la corbeille les travaux d’Einstein. Fort heureusement la relativité générale n’a pas tardée à être confirmée par l’observation. La prédiction de Dirac d’un monde d’anti-matière, quasiment symétrique au nôtre, l’a été au bout de deux ans. Faut-il s’alarmer du fait que la supersymétrie soit si longue à vérifier ? La supermatière a été prédite il y a trente ans, c’est un fait, et trois décennies cela peut sembler long. Souvenons nous cependant que le neutrino est sorti de la tête de Pauli dans les années trente mais qu’il a été mis en évidence auprès d’un réacteur nucléaire en 1957. La patience en physique, comme ailleurs, est avantageuse.

JPB. : Les discussions entre matérialistes et non-matérialistes (ou spiritualistes) proviennent en partie de différences dans la définition de ce que l’on appelle la matière. Pour les premiers, les manifestations de ce que l’on appelle l'esprit font partie de la matière.

MC. : De mon point de vue, la métaphysique ne doit pas précéder la physique, mais doit, tout au contraire, la suivre. Elle doit être ajustée à la compréhension (parfois partielle, admettons le) que nous avons de cette dernière, laquelle évolue sans cesse compte tenu des progrès théoriques et instrumentaux. Nous devons donc être très ouverts quant à la définition de la matière. La théorie des supercordes insinue que les particules de la matière ne sont que de simples notes, émanant de cordes vibrantes d’une petitesse extrême, de l’ordre de la longueur de Planck (10-33 cm), impossible donc à mettre en évidence directement. Nous voici revenus à Pythagore, peut-être, mais pas à Platon. Car ces cordes ne sont pas dans l’arrière -monde. Elles ne sont pas au delà ou en deçà de l’espace- temps. Elles sont dans l’espace-temps. La matière est ce qui est dans l’espace-temps. Si on étend le nombre de dimensions de l’espace-temps, on doit développer une autre conception de la matière. Mais il n’y a pas lieu d’évoquer une quelconque transcendance. Bref, le statut de la matière est à repenser en permanence.

JPB. : Comme il faut repenser le statut de la science. Et donner pour cela en priorité la parole aux physiciens. Pouvez-vous nous rappeler à ce niveau de notre entretien votre itinéraire de chercheur ?

MC. : Je me suis d’abord intéressé à l’origine et à l’évolution des atomes de la matière normale, celle qui constitue le monde visible, donc à la nucléosynthèse dans les étoiles, à la synthèse des éléments légers par le rayonnement cosmique qui fragmente les noyaux de carbone et d’oxygène produits par les étoiles, puis enfin à la nucléosynthèse dans le Big Bang, initié en cela par l’astrophysicienne Elisabeth Vangioni de l’Institut d’Astrophysique de Paris. A mon sens tout ceci est aujourd’hui compris, d’une façon que je qualifierais d’admirable – mais qui est loin d’être encore admise par le grand public. C’est ainsi que l’astrologie, toujours si populaire, établit un rapport scandaleux entre les planètes et les éléments chimiques. Ces derniers ne proviennent pas des planètes mais des étoiles. Il est bon de le marteler.

Je me suis tourné plus récemment vers la matière noire, qui est peut-être faite de particules sypersymétriques mais peut-être d’autres choses. J’ai proposé, en liaison avec l’observation, en l’occurrence celle du satellite européen Integral 6) une théorie de la matière noire, avec Pierre Fayet de l’ENS 7)  La raison en est qu’on observe un rayonnement d’annihilation électron-positon dans la région centrale de la galaxie, que ne peut expliquer aucune théorie d’astrophysique classique. D’où l’hypothèse de l’existence d’une autre forme de matière noire (légère, en vérité, et qui serait sa propre antimatière) dont l’annihilation produirait des positons qui, rencontrant des électrons sur leur passage, se convertiraient en rayons gamma. La légèreté de cette matière noire là serait telle que son annihilation ne produirait que des électrons et des positons, rien d’autre, et donc éviterait de jeter dans le ciel des particules indésirables.

Je travaille encore sur ce sujet, mais ma préoccupation profonde est l’énergie noire qui constitue 70% du contenu de l’univers. En elle réside la plus grande énigme du moment. On constate à ce sujet des désaccords flagrants entre la physique des particules et la cosmologie. Mais s’il y a contradiction, c’est une bénédiction. Les deux petits nuages d’incompréhension qui flottaient au dessus de la physique de la fin du 19e siècle ont donné naissance à la physique quantique et à la relativité. Aujourd’hui, nous sommes en présence d’un nuage épistémologique qui couve une pluie de concepts nouveaux, c’est du moins ce que nous pouvons espérer.

JPB. : Pour travailler sur l’énergie noire, je suppose que vous restez ce que vous êtes, c’est-à-dire un astrophysicien observateur ?

MC. : De manière générale j’essaie de ramener au monde les théories les plus spéculatives. Par exemple la prédiction de Hawking selon lequel les trous noirs ne sont ni trous ni noirs mais qu’ils brillent peut être mise à l’épreuve des faits. Les plus petits d’entre eux (les plus chauds et les plus durables) devraient émettre des rayons gamma. Voilà qui m’intéresse. Cette supputation peut elle être élargie au monde surdimensionné des supercordes ? S’il existe des dimensions supplémentaires, comment affectent-elles la manière de briller d’éventuels trous noirs microscopiques formés dans le big-bang? Peut-on les détecter ? C’est à cette question que nous tentons de répondre avec Roland Lehoucq du service d’Astrophysique du CEA.

Le développement des connaissances sur le mode darwinien

Revenons sur les rapports mutuels de la physique et de l’astrophysique. L’astrophysique est le fruit du mariage du ciel et de la terre dans la pensée humaine. Pour comprendre les astres, on a fait usage des grands principes de la physique. Aujourd’hui, la tendance est au retournement. L’astronomie se met au service de la physique pour tester ses théories spéculatives, ceci pour faire revenir au monde les théories les plus abstraites sur la matière et l’espace-temps. Si l’espace- temps comporte 10 dimensions, dont 6 sont cachées, s’il existe une ou plusieurs formes de matière que l’on ne voit pas, cela m’intéresse et je pense ne pas être le seul.

JPB. : Cela parait évident. Ce n’est pas parce que nos sens, même prolongés par des prothèses, sont limités, qu’il faut limiter l’univers à ce qu’ils voient. Les prothèses sont des instruments. Les instruments évoluent en fonction de développements technologiques qui obéissent à des lois propres, rarement volontaristes. On voit donc se développer un monde instrumental qui fourni aux cerveaux humains, de façon presque aléatoire, des éléments pour se représenter le monde. Nous sommes en face d’un système que l’on pourrait presque qualifier d’auto-complexificateur.

MC. C’est exact. Mais il est bon de savoir que ce système, tout aussi angélique qu’il puisse paraître, répond souvent à des besoins militaires. Une partie des découvertes en astrophysique a été obtenue à partir de satellites militaires. C’est ainsi que les sursauts gamma ont été découvert par des instruments américains qui surveillaient la Terre afin d’y détecter des explosions atomiques soviétiques.

JPB. : Quand on disposera un jour prochain de robots dotés de sens très évolués et interagissant entre eux pour mettre en forme leurs expériences, on obtiendra des conceptions du monde qui ne seront pas nécessairement celles des humains. Ceux-ci devront y réagir comme ils le feraient pas exemple face à des conceptions du monde produites par des extraterrestres.

MC : Oui, bien sûr.

JPB : Nous sommes donc dans un monde de connaissance qui ne se développe pas selon un plan préétabli.

MC. : Tout à fait. Il s’agit, à mon sens, d’un mécanisme quasi darwinien. Concernant les univers multiples, je voudrais insister sur un point qui aura peut-être des résonances pour vous. La théorie des multivers a au moins un avantage : elle supprime le mirage de la création unique et donc miraculeuse, pour lui donner une forme multiple et hasardeuse (quantique) où peut opérer un principe de sélection, d’adaptation. Tout se joue éternellement partout. La nécessité de grand Dessein s’efface. Les physiciens réécrivent la multi -genèse sous forme d’une création hasardeuse de multiples cosmos. Dans l’un d’entre eux émerge la vie et la conscience pour la raison que les étoiles, génératrices de carbone, azote, oxygène, entre autres, peuvent y exister, de manière contingente, voila tout.

JPB. : Encore que les croyants répondront que tout cela fait partie d’un mégamonde créé par Dieu.

MC. : Je ne crois pas, pour la raison que la mécanique quantique (véritable génératrice de monde) n’est pas intentionnelle. Les fluctuations (quantique est synonyme de fluctuant) sont purement hasardeuses. Mais, me demanderez-vous, pourquoi le monde est-il quantique, après tout ? Les religions diront : voilà, vous ne pouvez pas l’expliquer. Je dirai : je ne peux pas l’expliquer, mais ce n’est pas mon problème. Je n’ai jamais imaginé trouver l’explication d’une loi. Lorsqu’une loi tombe, je ne pleure pas, c’est qu’on en a trouvé une meilleure. Les meilleures lois sont à naître. Et je me dis, pour m’amuser, qu’il peut y avoir d’autres mécaniques, d’autres mathématiques. Pourquoi le principe darwinien ne s’appliquerait-il pas aux mathématiques ? Mais là je dépasse les bornes, j’en conviens.

JPB. : Je suppose que pour vous, puisque nous en parlons, les mathématiques elles-mêmes sont liées à l’organisation du cerveau humain ? Il n’y a pas d’entités mathématiques existant pour soi dans le cosmos. On entend pourtant parfois dire que l’univers est mathématique…8)

MC. : Cela n’a pas de sens pour moi. Les mathématiques sont dans l’espace-temps, comme les supercordes. Dans l’espace-temps de nos cerveaux en l’occurrence, mais là j’ai peur de m’égarer, je dépasse le domaine de ma compétence.

Vérifier les supercordes au CERN

JPB. : Revenons sur celles-ci, si vous voulez bien. Vous êtes tout à fait favorable à la théorie des supercordes, un cordiste convaincu, comme on dit parfois.

MC. : Oui et non. Je suis cordelièrement agnostique. J’ai traduit un livre qui va résolument contre cette théorie « Not even Wrong » de Peter Woit, qui paraîtra en français sous le titre « Pas même fausse ». Il place les supercordes d’un côté et la physique de l’autre. J’ai considéré qu’il était de mon devoir de le traduire car c’est une attaque sensée. Maintenant, quelle est sa portée ? Pour ma part, je reste absolument ouvert sur cette question. La théorie des supercordes est la seule aujourd’hui qui unifie la physique quantique et la relativité générale, en ceci elle est admirable. Certains estiment de surcroît qu’elle aurait des conséquences vérifiables par l’expérimentation, comme la possibilité de créer des mini-trous noirs dans des collisions violentes de particules. Ces minuscules trous noirs se désintégreraient aussitôt sans créer le moindre risque. Aujourd’hui certains programmes du CERN sont orientés dans le but de mettre en évidence le phénomène. On ne peut donc pas dire que la théorie des supercordes (ou tout au moins les théories à dimensions supplémentaires du type Kaluza-Klein) soit coupée de toute réalité.

JPB. : Comme quoi, la dépense engagée par le CERN, qui met l’Europe en pointe sur ce sujet essentiel, ne sera pas inutile, quoi qu’il arrive.

MC. : Bien sûr. J’en profite pour dire qu’indépendamment des conséquences qu’aura le LHC sur l’avancement des connaissances, l’infrastructure qui a été développée pour concevoir et mettre en œuvre le collisionneur aura des retombées considérables. Il convient de se souvenir qu’internet a pris naissance au CERN.

Mais revenons à notre propos. Pour la physique fondamentale, comme vous savez, les enjeux de recherche sont le(s) boson(s) de Higgs, les particules supersymétriques, les superdimensions. Si on ne trouve rien, ce sera déjà une indication précieuse. Concernant la cosmologie, je suis pour ma part déjà en alerte. Je me demande si, avec l’astronomie gamma et celle des neutrinos, on ne serait pas déjà en mesure de mettre en évidence ou, au contraire, de déclarer l’absence d’effets que ces théories physiques limites sont conduites à prédire. J’utiliserai donc l’astrophysique pour tester les théories abstraites.

J’essaye comme vous voyez de poser des traits d’union entre théorie à dimensions supplémentaires, astrophysique et cosmologie. Et au plus profond, je voudrais faire apparaître une forme de pensée nouvelle qui ne soit pas pur ésotérisme.


Notes (ces notes sont proposées par JPB)
(1) On sait que le pape Pie XII avait avancé devant l’Académie Pontificale des Sciences, en 1951, l’idée que le Big Bang, alors hypothèse toute neuve, illustrait la « vérité » du Fiat Lux. L’abbé Georges Lemaître, un des pères de cette hypothèse, lui avait conseillé de renoncer à une telle confusion des genres, entre science et religion. Voir La Recherche, N° 412, Dictionnaire des idées reçus en sciences.
(2) "Pour mieux connaître Christian Magnan"
http://www.automatesintelligents.com/echanges/2006/nov/cosmologie.html
(3)Smolin, "The Trouble with Physics, the Rise of String Theory,
the Fall of a Science and what comes next "
http://www.automatesintelligents.com/biblionet/2007/juil/troublewithphysicshtml.htm
(4) Voir par exemple David Deutsch http://www.automatesintelligents.com/biblionet/2004/jan/deutsch.html
- Voir aussi dans ce numéro l'article consacré à Aurélien Barrau, Quelques éléments de physique et de philosophie des multivers
http://www.admiroutes.asso.fr/larevue/2007/84/barrau.htm
(5) Edward Witten, né en 1951, professeur de physique théorique à l'Institute for Advanced Study de Princeton. Il a reçu la Médaille Fields en 1990. Il a présenté sa Théorie M en 1995, ce qui a généré un grand nombre de nouveaux développements au sein de la théorie des cordes. On a parlé d’une seconde révolution des supercordes.
(6) Le satellite Integral http://isdc.unige.ch/index.cgi?Outreach+integral_fr
(7) Voir Cassé " L’énigme des positons du bulbe galactique "
http://clrwww.in2p3.fr/jet04/transpa/Casse.doc.pdf
(8) Voir “Reality by numbers. What is the universe really made of”, par Max Tegmark , NewScientist 15 septembre 2007, p. 38. Voir aussi du même auteur « The mathematical universe » http://www.arxiv.org/abs/0704.0646

Partager cet article
Repost0
7 octobre 2007 7 07 /10 /octobre /2007 14:20
 

Quelques éléments de physique et de philosophie des multivers
Par Aurélien Barrau
Essai publié en libre-accès http://lpsc.in2p3.fr/ams/aurelien/aurelien/multivers_lpsc.pdf
130 pages

Présentation par Jean-Paul Baquiast
06/10/2007

The "Flat-Earth Wood-Cut"
The "Flat-Earth Wood-Cut" 1)

 

Aurélien BarrauAurélien Barrau est astrophysicien, maître de conférence au Laboratoire de Physique Subatomique et de Cosmologie, CNRS /IN2P3 /UJF

Ses recherches sont :
- expérimentales (astroparticules) :
CAT - Astronomie gamma (1995-1998)
AMS - Rayons cosmiques, antimatière et matière noire (depuis 1998)
CREAM - Particules à très haute énergie dans la Galaxie (depuis 2006)
Etude de l'énergie noire : en projet
- et théoriques : champs quantiques en espace courbe, trous noirs et quelques aspects de cosmologie et de physique des particules.

Pour en savoir plus
Pages personnelles (très complètes et didactiques)
http://lpsc.in2p3.fr/ams/aurelien/

 

Nous avons découvert Aurélien Barrau à l'occasion de son entretien avec Stéphane Deligeorges, sur France Culture, Continent Sciences, le 24 octobre 2007. Dans cet entretien, en grande partie consacré à l'hypothèse des multivers ou plurivers, il présentait une démarche remarquable, entre science et philosophie. Par cette démarche, pour reprendre une de ses expressions, il " essaie de créer une porosité entre l'espace scientifique et le monde mythique, de penser la plurivocité intrinsèque du réel, sans pour autant rien renier de la rigueur physico-mathématique et sans recourir aux métaphores
élégantes mais inexactes".
En un sens, il s'agit de ré-enchanter une pensée de l'immanence et de la contingence.

Il nous avoue ne pas savoir s'il y parvient. La lecture de son mémoire, en libre accès sur son site et présenté ici, nous permet de lui assurer qu'à nos yeux du moins, il y parvient excellemment. Les très nombreuses références fournies en appendice du mémoire permettront aux lecteurs curieux d'approfondir un sujet jugé jusqu'à présent difficile d'accès.

Nous n'allons pas ici résumer ce texte intitulé « Quelques éléments de physique et de philosophie des multivers », puisque chacun peut se reporter à l'original en ligne. Le document n'est certes pas toujours aisément compréhensible par les non-physiciens, à moins qu'ils n'aient quelques connaissances en relativité et en physique des particules. On pourrait souhaiter que l'auteur présente le même travail sous une forme plus aisément accessible, mais il ne faut pas se dissimuler l'importance de la tâche, qui le distrairait certainement de recherches autrement plus fécondes, pour lui comme pour nous.

Aurélien Barrau veut montrer la continuité entre les hypothèses des philosophes de l'Antiquité et les recherches les plus modernes, sur un thème qui a été et redevient d'actualité, celui joliment baptisé par Fontenelle (l'origine du terme est plus ancienne) de « pluralité des mondes » et qu'illustre d'une façon extraordinairement visionnaire la remarquable gravure reprise par l'auteur et que nous reproduisons à notre tour ici. Contrairement à ce que pense souvent le public, de telles hypothèses n'ont pas attendu pour s'exprimer les concepts qui sont désormais dans tous les esprits : Big Bang, Trous noirs, univers parallèles et/ou multiples. Bien avant la relativité générale, la physique quantique et la théorie des cordes qui leur donnent désormais une consistance réellement scientifique, la pluralité des mondes, le caractère relatif du temps, l'infini avaient été évoqués par un grand nombre de penseurs de l'Antiquité ou du haut Moyen Age, jusqu'à ce que le retour d'obscurantisme ayant accompagné la prise du pouvoir temporel par la Chrétienté en Occident les ait pendant plusieurs siècles obligés à la clandestinité. .

Le thème essentiel qui inspire l'auteur, thème présenté dès l'introduction du mémoire, est celui du «retour de la contingence». Qu'entend-il par cette expression un peu ésotérique? Il s'agit d'une véritable rupture épistémologique, qui devrait bouleverser non seulement les sciences physiques mais les connaissances scientifiques en général, dont cependant l'immense majorité des scientifiques et des philosophes des sciences ne semblent pas encore avoir pris conscience. On dit d'un évènement contingent qu'il est survenu au hasard, d'une façon non déterminé à l'avance. Il a surgi de façon aléatoire d'une multitude de possibilités. Une infinité d'autres évènements analogues ou différents peuvent se produire de la même façon. C'est ainsi que serait apparu l'univers particulier dont nous sommes des parties. Il présente la caractéristique de comporter des lois permettant la vie et la conscience. D'autres univers, permettant eux aussi des formes de vie et de conscience éventuellement différentes, ou au contraire n'en comportant pas, émergent et disparaissent en permanence. Il n'y a donc pas de grand Dessein, voulu à l'avance par une volonté supérieure pour créer un Homme doté d'une conscience faite à son image, puisque le méta-monde ainsi défini ne laisse pas de place pour une telle volonté 2).

Nous l'avons vu, ces supputations n'avaient pas attendu la physique moderne pour se faire jour. D'innombrables mystiques panthéistes, de nombreux philosophes en avaient eu l'intuition 3). Mais, fait nouveau considérable, les hypothèses sur le multivers, jusque là fondées sur l'imagination prémonitoire de penseurs n'ayant que leurs yeux pour observer le monde, découlent dorénavant des théories physiques les plus élaborées de la science moderne, elles-mêmes suggérées par un ensemble d'instruments de plus en plus sophistiqués. Nous passons donc de la construction philosophique, dont les frontières avec les croyances religieuses peuvent se révéler floues, à une véritable démarche scientifique expérimentale, celle qui a fait le succès de la pensée matérialiste occidentale. Là est la rupture épistémologique.

Or de cette rupture beaucoup de gens précisément doutent encore. Selon eux, la théorie du multivers 4) ne serait pas scientifique. A tout le moins, elle ne le serait pas encore, tant qu'elle n'aurait pas été démontrée par des expériences objectives indiscutables. Dans ce cas, il serait prudent de ne pas l'évoquer dans les travaux sérieux, car l'on risquerait de relancer l'audience des mythologies 5)

C'est une telle prudence qu'Aurélien Barrau, comme Michel Cassé et d'autres astrophysiciens à la pointe de la recherche dans ce domaine, veulent contester. Il va devenir possible, si ce n'est déjà fait, de démontrer que le multivers est une théorie scientifique – sans rien perdre cependant de ses dimensions mythiques ou imaginaires. L'entrée en fonction prochaine du grand collisionneur à hadrons du CERN devrait dans cette perspective se révéler fructueuse – ceci quels que soient les résultats, prévus ou imprévus, qui sortiront des premières expériences destinées à vérifier ou falsifier certaines conséquences de la théorie.

L'histoire de la pensée

Pour comprendre comment aujourd'hui se pose la question du multivers, le retour à l'histoire de la pensée s'impose. Dans le premier chapitre de son essai, Aurélien Barrau montre que, depuis Anaximandre jusqu'aux penseurs des temps modernes, les thèmes de la pluralité des mondes, d'un renouvellement toujours recommencé, du caractère relatif de l'espace-temps tel que nous le percevons, ont toujours parcouru les sociétés humaines. Aux origines de celles-ci, le pressentiment qu'il y avait quelque chose au-delà des apparences du monde physique avait sans doute suscité de grandes angoisses. Croire en des divinités certes omnipotentes mais à l'image de l'homme permettait de calmer ces angoisses. Lorsque le cerveau ne peut trouver d'explication rationnelle à certaines de ses intuitions, il invente une entité dont il fait la cause immédiate de ce qu'il ne comprend pas et il cesse de rechercher des causes plus profondes.

Cependant, dès la plus haute antiquité, un certain nombre de philosophes courageux ont refusé cette facilité et ont poursuivi l'effort de préciser et discuter leurs premières intuitions métaphysiques. Ils l'ont fait souvent à leurs risques et périls, car ils remettaient ainsi en question, non seulement les affirmations et le pouvoir des religions, mais ce que l'on pourrait appeler la tyrannie du bon sens et le jugement des « honnêtes gens ».

Aurélien Barrau montre que de nos jours, la critique philosophique des illusions du prétendu bon sens s'est élargie et rejoint celle des sciences physiques modernes. La réflexion menée par les deux auteurs qu'il a choisi de nous présenter, Nelson Goodman et David Lewis, dont la lecture est malheureusement assez difficile, le montre. Leurs travaux de déconstruction-construction appliqués aux mondes créés par le langage et les assertions logiques rejoint ce que la théorie de l'information et la physique, notamment la mécanique quantique et la relativité, avaient déjà affirmé pour leur compte depuis maintenant un siècle.

Nous nous trouvons ainsi confrontés à une double approche mettant fortement en doute le postulat de base des sciences du monde macroscopique, auquel se réfèrent encore la plupart des chercheurs. Selon ce postulat, dit "réaliste", il existe un univers extérieur à l'homme, indépendant de l'esprit de celui-ci, qu'il est possible de décrire par des modèles constamment affinés grâce à l'expérience 6) . Montrer le relativisme du « réalisme », autrement dit la non-consistance ontologique des contenus de connaissance ouvrait donc ainsi en grand la voie dans laquelle peuvent aujourd'hui s'épanouir les hypothèses cosmologiques toutes récentes sur le multivers.

Pour bien comprendre comment ces hypothèses sur le multivers paraissent dorénavant incontournables, il faut avoir fait précédemment l'effort – difficile – de bien comprendre la démarche et les résultats actuels des différentes théories physiques modernes qui y conduisent : le modèle standard de la cosmologie physique, le modèle des particules élémentaires, la théorie des cordes (forme considéré généralement comme la plus accomplie de l'effort visant à unifier la relativité et la physique quantique), la mécanique quantique elle-même, d'autres hypothèses encore. … Il est impressionnant de constater que, quelque soient les points de départ de ces diverses recherches, toutes finissent, naturellement si l'on peut dire, par évoquer l'hypothèse du multivers comme la plus simple (au regard du fameux rasoir d'Ockham) et aussi la plus nécessaire.

Les théories physiques modernes

L'essai d'Aurélien Barrau a le grand mérite de ne pas renoncer à nous présenter les principales théories physiques énumérées ci-dessus. La lecture devient là fort ardue et découragera beaucoup de lecteurs, bien qu'elle n'approche pas en complexité ce que sont les publications des revues de physique proprement dites, dont le site de l'auteur nous donne un aperçu. Nous pensons cependant qu'il ne faudra pas se laisser rebuter et entrer dans le corps du texte, en se référant à l'occasion aux nombreuses notes qui l'accompagnent. En fait les passages véritablement difficiles concernent, nul ne s'en étonnera, la présentation de la théorie des cordes, dont le caractère contre-intuitif a fait la réputation.

Il n'est pas utile ici de paraphraser l'auteur quand il nous montre comment la théorie des cordes, d'un côté, la mécanique quantique de l'autre, tout au moins dans l'interprétation d'Hugh Everett aujourd'hui reprise par David Deutsch et al 7) aboutissent au multivers. Il nous suffira d'indiquer comment, pour Aurélien Barrau, la description de l'univers relativement innocente et bien connue dite du modèle standard de la cosmologie physique ou du Big Bang chaud (à ne pas confondre avec le modèle standard de la théorie des particules élémentaires), recèle de nombreuses « bombes conceptuelles » dont le bon sens populaire semble s'être accommodé, mais qui devraient au contraire l'inquiéter et le conduire à réfléchir davantage.

Ce modèle standard de la cosmologie physique a l'avantage, comme le montre l'auteur, de nous obliger à poser la question fondamentale, que l'on retrouve partout aujourd'hui, y compris dans les sciences macroscopiques, de ce que peut être la connaissance scientifique face à un supposé «réel» . La cosmologie physique est la représentation que l'astrophysicien, qui est à la fois théoricien et astronome, c'est-à-dire observateur instrumental, se donne de notre univers. Aurélien Barrau rappelle que la possibilité d'une description scientifique de celui-ci est souvent mise en doute, du fait notamment que l'observateur est inclus dans l'objet observé (on ne peut sortir de l'univers pour le décrire de l'extérieur et le comparer éventuellement à d'autres), du fait que l'expérience n'y est pas reproductible 8)  et du fait enfin que les conditions initiales (les constantes universelles) ne sont pas contingentes. Autrement dit, elles paraissent déterminées. Toute modification, même infimes de celles-ci entraînerait une modification de notre univers, de telle sorte que notre existence n'y serait plus possible. Or si on ne peut modifier les conditions initiales, comme faire apparaître une super-loi qui les contiendrait toutes ?

Malgré ces difficultés, rien n'est venu jusqu'à présent contredire le postulat selon lequel l'univers cosmologique pouvait être étudié scientifiquement comme n'importe quel objet physique. Des expériences convergentes prouvant ce que l'on pourrait appeler la « réalité » du Big Bang et des Trous noirs ne sont plus mises en doute. Les observations récentes relatives à des phénomènes encore inexpliqués et dénommés matière noire et énergie noire obligent à reprendre certains modèles mais ne nécessitent pas leur refonte complète. Preuve en est la théorie de l'inflation qui, malgré ses aspects surprenants, a permis d'expliquer des phénomènes que ne prévoyait pas la théorie du Big Bang standard.

Notons cependant que, pour Aurélien Barrau et nombre de ses collègues, l'inflation (telle que décrite par Andrei Linde et ses successeurs) n'est pas une théorie. C'est plutôt une sorte de paradigme, sur le mode du « tout ce passe comme si une telle inflation s'était effectivement produite ». Celle-ci peut ou pourra être testée mais des lacunes subsisteront sans doute. De plus, l'inflation pourrait étendre son influence au delà du rayon observé de notre univers (rayon de Hubble) et induire, selon des suites complexes de réchauffements et d'expansions, un méta-univers en auto-reproduction infinie et en éternelle expansion. Il n'y aurait plus un Big Bang mais une infinité de Big Bangs. Ceci montre qu'avec l'inflation, on a déjà dépassé les limites d'une interprétation réaliste de la cosmologie, laquelle obligeait à s'arrêter à la singularité du Big Bang sans chercher à voir au-delà. On débouche en plein dans une des versions de la théorie du multivers – sans rien concéder pour autant à la métaphysique et moins encore à la mythologie.

Les différents types de multivers

L'étude du multivers est si avancée que les spécialistes sont depuis déjà quelques années en mesure de proposer une typologie des différentes formes et contenus qu'il peut adopter, en fonction des théories. Aurélien Barrau nous en donne une liste détaillée, à partir de la page 72. Nous invitons notre lecteur à s'y reporter. Il pourra à cette occasion réviser utilement ses connaissances relatives aux différentes hypothèses théoriques autour desquelles s'organisent non seulement les descriptions mathématiques mais les recherches expérimentales menées par la physique et l'astronomie contemporaine. On peut distinguer plusieurs niveaux d'univers parallèles ou multivers, proposant une sorte de hiérarchie. Dans les niveaux les plus simples, les lois de la physique sont les mêmes en tout point du multivers. Ceci veut dire qu'en principe des êtres vivants et/ou intelligents comme nous pourraient s'y rencontrer 9) . A des niveaux supérieurs, le multivers est constitué de régions présentant (ou pouvant présenter) des lois physiques différentes. La vie et l'intelligence n'en seraient pas exclues par principe, en fonction des définitions données à ces propriétés. Mais leurs formes nous seraient profondément étrangères. Une méta-théorie ou méta-loi continuerait cependant à régir l'ensemble. A des niveaux encore plus grands de complexité, correspondant par exemple aux différents embranchements apparaissant suite à la réduction de la fonction d'onde quantique dans l'interprétation d' Everett, le paysage serait encore plus diversifié et ondoyant – diapré, selon l'expression d' Aurélien Barrau.

Cette typologie n'a pas pour objet de mettre en question l'existence du multivers. Les différentes théories, nous dit l'auteur, prédisent son existence sans ambiguïtés. Le multivers n'est pas une théorie, mais une prédiction faite par un certain nombre de théories. Il faut donc envisager les différents indices observationnels qui permettraient de confirmer ou infirmer cette prédiction et donc de valider les théories ayant abouti à elle.

Pourquoi prédire le multivers ? A l'inverse, pourquoi ne pas le prédire ?

Aurélien Barrau rappelle que, pour beaucoup de personnes, il n'y a pas de raisons de faire des prévisions sur le multivers puisque ces prévisions, pour le moment, ne peuvent être vérifiées. Il faudrait donc s'en tenir à une vision étroite des choses, ne permettant aucune heuristique. Mais il pose la question autrement : pourquoi ne pas prédire le multivers ? Il rappelle que de telles prédictions sont les conséquences les plus simples et les plus élégantes, au regard du rasoir d'Ockham, découlant des principales théories contemporaines. Mais, bien plus, elles sont dans la logique même de la cosmologie. Celle-ci passe progressivement de prédictions relatives à des objets entrant dans notre champ instrumental, par exemple les astres visibles, jusqu'à des prédictions relatives à des objets hors de notre cône de visibilité, soit qu'ils n'y soient pas encore entrés, soit qu'ils en soient sortis. Faudrait-il renoncer à les traiter en objets d'étude ? De proche en proche, en suivant cette démarche, il est légitime d'en arriver à étudier le multivers et au sein de celui-ci, des objets qui risquent de n'être jamais observables par nous, ni même concevables en détail.

La question de la vérification expérimentale de la prédiction sur le multivers soulève d'immenses difficultés méthodologiques et pratiques, dont l'essai nous donne un aperçu vertigineux. Mais elle n'est pas impossible. L'apparition de nouveaux instruments, tel que le LHC du CERN précité ou l'observation satellitaire du ciel donnera de nouveaux indices. La difficulté la plus grande n'est donc ni méthodologique ni pratique. Elle est bien plus fondamentale encore. Elle oblige à une nouvelle révolution épistémologique de grande ampleur, celle qui impose non seulement de nouvelles conceptions des contenus de connaissances, mais de nouvelles conceptions relatives à ce qu'est la connaissance scientifique elle-même. Notre cerveau a évolué – comme celui des animaux d'ailleurs - de façon à nous donner des vues cohérentes et unifiées de notre environnement, sans lesquelles la survie ne serait pas possible. Face à des informations nouvelles sur le monde qui obligeraient à se représenter des arrières mondes ne répondant à aucunes des exigences logiques auxquelles nous sommes habitués, il a beaucoup de mal à s'adapter.

Mais pourquoi, dira-t-on, devrait il s'adapter ? Nous ne vivrons ni mieux ni plus mal en restant persuadés que l'univers s'arrête aux limites du visible. Une des réponses à cette question, que suggère l'essai d'Aurélien Barrau, est que la science, comme toute activité caractérisant le vivant, que ce soit la prolifération bactérienne ou l'art, ne peut s'auto-limiter. Constamment, elle remet en cause ses acquis et dépasse ses frontières. Nous sommes en fait emportés par un flot qui nous dépasse et auquel, que nous le voulions ou non, nous sommes obligés de céder. Mieux vaut donc en prendre conscience et s'y résoudre, plutôt que se laisser enfermer dans des a priori cognitifs devenus sans issus.

Les dernières pages de l'essai constituent une remarquable illustration d'une conception d'un multivers, le nôtre, où tout est possible et où tout ce qui est possible a lieu. La science y rejoint le merveilleux, l'une appuyant l'autre et réciproquement. Nous ne les paraphraserons pas, encourageant au contraire notre lecteur à s'y reporter, sans se laisser rebuter par d'inévitables difficultés mettant à rude épreuve la façon traditionnelle de penser.

Questions

Le thème du multivers est si riche et si nouveau que les questions abondent, pertinentes ou non. Sans prétendre épuiser le sujet, en voici quelques-unes:

- Peut-on envisager que se produisent, même avec une probabilité infime, des évènements marquant l’irruption dans notre monde macroscopique de fluctuations venues d’un infra-monde ? On retrouve là l’hypothèse des « cerveaux de Boltzmann » que nous avions évoqué dans un article précédent. Cette dernière concerne le monde quantique 10).

- Plus généralement, que devraient être les conséquences sur les comportements scientifiques quotidiens de la révolution paradigmatique découlant de l’ouverture à la physique du multivers ? Faudrait-t-il en revenir à l’anarchisme épistémologique recommandé par Paul Feyerabend ? Cela se traduirait par une plus grande attention à l’insolite et plus généralement par la multiplication des hypothèses. Le coût en serait important mais les bénéfices pourraient être très grands. La question doit d’abord être posée en ce qui concerne les sciences physiques, mais elle peut aussi l’être dans l'ensemble des domaines scientifiques. On ne devra pas se cacher cependant qu’une telle ouverture stimulerait l’imagination de tous les vendeurs de fausses sciences et de tous les faiseurs de miracles. Il faudra consacrer beaucoup d’argent et de temps à les combattre par des arguments scientifiques.

- Ne devrait-on pas, en étendant cette réflexion, se poser la question de ce que l'on pourrait appeler le statut cosmologique du cerveau. Elle nous parait si importante que nous nous étonnons de voir qu'elle ne semble pas préoccuper les cosmologistes, comme s'ils oubliaient que c'est leur cerveau qui pense à leur place 11) Par cerveau, nous désignons l'organe cérébral lui-même, que ce soit celui de l'homme, de l'animal ou du robot intelligent. On peut l'étendre au réseau d'échanges d'information qu'il tisse avec ses semblables. Nous disons bien cerveau et non esprit ou conscience qui ne sont que des manifestations du fonctionnement de l'organe. Nous préférons d'ailleurs éviter ici ces termes d'esprit et de conscience car employés sans précautions, ils ouvrent la porte à toutes les dérives spiritualistes.

S'interroger sur le statut cosmologique du cerveau consiste à se demander comment un organe certes très complexe mais fini peut créer des modèles ou simulations de mondes s'étendant sur des milliards d'années lumière, voire imaginer des univers multiples infinis ne présentant aucune référence avec ce que ce même organe est habitué à traiter. C'est tout le problème, dira-t-on, de l'apparition d'entités dites intelligentes dans le cosmos. Peut-être. Mais justement. Les systèmes d'informations que créent ces entités ont-ils un rôle dans l'évolution cosmologique? Les cerveaux créent-ils de nouveaux univers qui s'ajouteraient à ceux déjà existants? Seraient-ils, d'une façon qui resterait à montrer, organisés en fonction de méta-lois régnant dans les infra-univers, ce qui leur permettrait d'en parler avec pertinence ? Et si oui, comment ces méta-lois pourraient-elles influencer en quoique ce soit leur organisation ou leur fonctionnement? De telles suggestions risquent de conduire de nouveau certains à évoquer l'existence d'une divinité qui inspirerait le monde global. Mais il va de soi que nous voudrions nous limiter à poser la question en termes scientifiques.

- Sur un plan plus pratique, ne faudrait-il pas envisager la réalisation de systèmes artificiels simulant le multivers. On évoque souvent, comme l’a rappelé Aurélien Barrau, la possibilité que notre monde soit une simulation se déroulant à l'intérieur d'un univers plus important, tel qu'un Trou noir en expansion. Nous pensons que, sans nécessairement approfondir cette hypothèse, les cosmologistes défendant la thèse du multivers devraient, aujourd'hui ou plus tard, essayer d’en simuler sur ordinateur telle ou telle version. Laisser ces systèmes évoluer librement pourrait sans doute enseigner beaucoup de choses. De plus, des multivers artificiels pourraient interagir avec les consciences artificielles, proches ou différentes de la conscience caractérisant les animaux et les humains, qui sont en cours de réalisation dans les laboratoires. L'apparition de ces dernières dans la vie quotidienne, sauf catastrophes, se produira dans les prochaines décennies. Elles créeront peut-être aussi leurs propres univers.


Post scriptum: Nous avons reçu d' Aurélien Barrau, à qui nous avions soumis le texte ci-dessus en relecture, le commentaire suivant:

" Je suis impressionné par cette synthèse et les interrogations profondes qui la suivent. Mais peut-être pourriez-vous ajouter à propos des multivers que l'un des points centraux, à mon sens, de cette approche vient de ce qu'elle conduit inéluctablement à des mondes "merveilleux" (au sens strict qui n'est évidemment ni le magique ni le miraculeux, on demeure dans l'ordre naturel) car invisibles et pluriels mais que ces derniers apparaissent comme une conséquence d'un raisonnement purement scientifique et déductif. Autrement dit, c'est une nouvelle forme de genèse du mythe.

Celle-ci est d'autant plus magnifique qu'elle peut effectivement être mise à l'épreuve d'une façon (contrairement à ce qui est souvent dit) strictement analogue dans ses fondements à ce qui se pratique dans la science "usuelle" au sein d'un monde unique. « Ce n'est pas le moindre des charmes d'une théorie que d'être réfutable » disait le grand Nitzsche, bien avant Popper !"
. A.B. 07/10/07


Notes
(1) L'histoire de cette extraordinaire image, dite « Flat-Earth Wood Cut » mériterait à elle seule toute une étude. Elle a été popularisée par Camille Flammarion dans son Astronomie populaire de 1888: un audacieux astronome découvre que la Terre n'est pas plate et qu'elle est entourée d'un grand nombre d'astres orbitant d'elle. Mais curieusement, ce n'est pas le système solaire seul que découvre l'astronome, mais la galaxie, sinon le cosmos tout entier. Le système solaire et les étoiles proches sont en effet représentés sur la première sphère, celle de l'univers visible de la Terre. Le regard de l‘astronome va bien au-delà. Il embrasse une pluralité de mondes, d'ailleurs différents les uns des autres. On peut donc dire que l'image préfigure la vision moderne des univers multiples.
Mais qui fut l'auteur de cette gravure sur bois, coloriée après coup ? Les quelques recherches que j'ai pu faire rapidement ne me permettent pas de conclure. S'agit-il d'une œuvre des XVIIe ou XVIIIe siècles, reprise par Flammarion, ou d'une création originale de ce dernier ?
Quoi qu'il en soit, la gravure par son puissant pouvoir évocateur a été utilisée de nombreuses fois depuis, en illustration d'ouvrages très différents. Elle a même servi de logo commercial. Nous pouvons dire qu'il s'agit d'un « mème » dont le pouvoir d'auto-réplication darwinien ne cesse de s'exercer. La preuve en est que nous la reprenons nous-mêmes, après Aurélien Barrau, lui donnant ainsi la possibilité de contaminer de nouveaux esprits. Sur ce sujet, voir http://homepage.mac.com/kvmagruder/flatEarth/
(2)On retrouve, appliquée à une toute autre échelle, l'apostrophe de Laplace : je n'ai pas besoin de Dieu dans mes équations.
(3) Sur l'histoire des sciences dans la Grèce Antique existent de nombreux sites consultables sur Internet. Celui de Michaël Lahanas nous a paru offrir une bonne introduction (anglais) http://www.mlahanas.de/Greeks/Greeks.htm
(4) Il faudrait pour bien faire parler d'hypothèse plutôt que de théorie. Une théorie, dans le langage courant, suppose que de nombreuses preuves expérimentales démontrent la validité de ses hypothèses, au moins dans les limites de celle-ci. Mais le terme de théorie est généralement utilisé sans de telles précautions. On parle couramment de la théorie des cordes, dont les preuves expérimentales manquent encore. Mais, comme nous le verrons, présenter les cordes ou les supercordes comme des théories signifie que l'on ne renonce pas à leur trouver des démonstrations expérimentales. A l'inverse, on ne parlerait pas d'une théorie du ciel et de l'enfer.
(5) Nous expliquons, dans l'éditorial de ce numéro, qu'après avoir été nous-mêmes très sceptiques face aux assertions de la théorie des supercordes, nous sommes désormais convertis (eh oui) à l'idée que l'homme moderne pourrait avoir grâce à elle une occasion exceptionnelle d'élargir ses conceptions du monde, de la science et bien entendu, du matérialisme scientifique…le tout sans verser dans la métaphysique.
(6) Nous avons dans notre propre ouvrage «Pour un principe matérialiste fort», utilisé le terme bien connu de réalisme pour qualifier un tel postulat, retenant celui de non-réalisme ou constructivisme pour désigner la démarche du cerveau humain par laquelle il construit, à partir d'entrées sensorielles qui sont ce qu'elles sont sur le moment, un modèle du monde pouvant lui servir de repère comportemental.
(7) Voir NewScientist : Parallel universes born again 22 septembre 2007, p. 6.
(8) D'autant moins que les énergies mises en jeu aux premiers instants excèdent largement ce que peuvent produire les accélérateurs actuels.
(9) L'auteur a longuement discuté dans l'essai les diverses versions du principe anthropique physique (c'est-à-dire à l'exclusion de sa version téléologique qui n'intéresse pas la science).
(10)Voir http://www.automatesintelligents.com/echanges/2007/aout/boltzmann.html
(11)Voir Chris Frith, Making up the Mind. How the Brain Creates our Mental World
http://www.automatesintelligents.com/biblionet/2007/juil/frith.html

Partager cet article
Repost0

Articles RÉCents

Liens