Overblog Suivre ce blog
Administration Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

22 février 2008 5 22 /02 /février /2008 17:09

Glissements progressifs...de la science à la manipulation, par Jean-Paul Baquiast

La Revue Nouvelles Clefs a organisé le 20 février, à l’Entrepôt (Paris 14e) une « confrontation » entre Jean Staune et moi à l’occasion de la sortie simultanée en 2007 de nos deux livres, « Notre existence a-t-elle un sens ? » de Jean Staune et « Pour un principe matérialiste fort " de votre serviteur. J’avais précédemment expliqué, dans un article de notre magazine Automates Intelligents
( http://www.automatesintelligents.com/echanges/2007/juin/staune.html ), que je ne voyais pas très bien l’intérêt d’une telle confrontation,. Je considère en effet que nos approches philosophiques respectives de la science sont incompatibles et qu’aucun argument rationnel ne permettrait de trancher entre nous.

J’admets en effet très bien que la science ne puisse en aucun cas prouver l’inexistence de Dieu. Mais à l’inverse, je prétend, comme la majorité des scientifiques, qu’aucun de ses résultats, passés ou actuels, ne peut prouver l’existence de Dieu. Par conséquent, toute affirmation selon laquelle la science démontrerait le bien-fondé du dualisme, c’est-à-dire l’existence d’un principe spirituel extra-matériel d’où tout proviendrait et où tout aboutirait, repose sur un véritable détournement des résultats de la science. Staune croît au théisme, moi à l’athéisme. Il s’agit bien de croyances, je n’en disconviens pas. Mais comme la science n’a rien à voir avec ces croyances, qui relèvent de l’ordre du personnel, à quoi bon en discuter ? Pour ma part, quelle que soit l’estime, voire l’amitié que j’éprouve pour des chrétiens, je ne discute pas avec eux, pas plus que je ne le ferais avec des astrologues, la façon dont ils pourraient prouver scientifiquement leur foi. En général d’ailleurs, comme ce sont des gens mesurés, ils n’abordent jamais ce sujet.

Cependant, j’ai finalement accepté de rencontrer Jean Staune à l’Entrepôt (et non bien évidemment dans un lieu dépendant de son étonnante Université interdisciplinaire de Paris (http://www.uip.edu/uip/) . Mais le débat s’est déroulé comme je prévoyais. Jean Staune a repris en rafales tous les arguments de son livre, tendant à démontrer le caractère scientifique du spiritualisme. J’ai pour ma part répété que ces arguments scientifiques ne m’impressionnaient pas, car ils étaient tout autant utilisables dans le cadre d’une « interprétation » athée des résultats de la science. J’espère que les lecteurs de cette revue auront la possibilité d’accéder à un enregistrement intégral du dialogue, pour qu’ils s’en fassent une idée par eux-mêmes. Mais sans attendre, je voudrais ici indiquer comment mes amis et moi avons ressenti la façon dont procède Jean Staune et ses semblables pour séduire tant d’esprits naïfs.

Dans la société française, le christianisme est encore assez répandu. Mais comme nous sommes (encore pour quelques temps) citoyens d’une république laïque, les athées, héritiers du siècle des Lumières, ont la possibilité de s’exprimer et défendre leur philosophie. Les croyants ont donc quelques scrupules à afficher la foi du charbonnier. Ils se cherchent des arguments rationnels. Ce n’est pas le cas dans le reste du monde. Partout dorénavant, des religions de combat affirment qu’ils faut croire sans discuter aux contenus de leurs Ecritures. Elles demandent à leurs affidés de combattre les armes à la main ceux qui émettent le moindre doute, quitte à se transformer eux-mêmes en bombes vivantes.

Les sciences offrent une vaste panoplie d’éléments permettant de justifier le spiritualisme. Ce n’est pas nouveau et ne présente rien d’étonnant. Le front des connaissances a depuis le début du 20e siècle, avec le développement de nouvelles technologies d’observation, pris un caractère à la fois subtil et mouvant. Sans être spécialisé dans l’histoire de la philosophie des sciences, on sait par exemple que la double « révolution » de la relativité et de la physique quantique a été depuis les années 1930 pain béni pour les spiritualistes, des plus honorables jusqu’aux plus manipulateurs. Enfin la science reconnaissait qu’elle devait abandonner le concept, d’ailleurs lui-même métaphysique, d’un réel dur comme le roc, que le scientifique pouvait décrire en détail. Malheureusement pour les spiritualistes, depuis plus de 70 ans maintenant, les scientifiques, dans leur écrasante majorité, n’ont jamais affirmé que la science admettait enfin la pertinence du paradigme dualiste spiritualiste. Pour ces scientifiques, baliser les nouveaux champs d’incertitude qu’ils croyaient déceler dans la modélisation du monde a toujours été pour eux l’occasion, par de nouvelles hypothèses, de mieux chercher à connaître ce monde. Ce n’était pas du tout le feu vert pour un retour aux Ecritures et aux croyances traditionnelles.

Il reste que les croyants raisonnables (encore une fois, je ne pense pas là aux populations misérables du tiers monde qui n’ont guère le loisir de faire de la philosophie critique), restent toujours en quête d’un discours qui pourraient à leurs yeux les réinsérer dans la modernité techno-scientifique. Les athées s’épuisent à leur dire qu’ils n’ont pas besoin d’un tel discours pour croire ce en quoi ils croient, puisqu’il s’agit d’autre chose que de science. Mais si grand est le prestige de la science qu’ils n’en démordent pas. Il leur faut un label estampillé du sceau de la scientificité. L’habileté d’un Jean Staune, commune à tous ceux qui de par le monde financent avec beaucoup d’argent le « dialogue constructif entre les sciences et les religions », est de leur fournir le pain béni dont ils ont besoin. Les sciences émergentes dites de la complexité s’ajoutent aux vieux chevaux de retour de la physique quantique et de la relativité, toujours valides quant il s’agit d’embrouiller l’esprit des ignorants, pour offrir matière à manipulations.

Une offensive venant de plus loin qu’il n’y paraît.

On me reprochera de parler de manipulations. Mais il s’agit bien de cela, comme une lecture attentive du livre de Jean Staune le montre. On commence par des citations présentées hors texte et prélevées dans des ouvrages de vulgarisation où l’auteur fait appel à des métaphores pour mieux se faire comprendre. Puis par des glissements progressifs, on arrive à des interprétations subjectives personnelles présentées comme des faits scientifiques. Si bien que l’on débouche sur des énormités comme celles relatives à la persistance de la conscience après la mort et à l’existence d’une conscience universelle extra-matérielle 1).

L’utilisation par Jean Staune et ses amis du thème de l’incomplétude pour justifier le divin est exemplaire à cet égard. 2) Comme le lui ont reproché des scientifiques plus avertis que moi, Jean Staune, ou bien s’appuie sur des évidences triviales qui ne devraient susciter aucun débat, ou bien avance des interprétations dont le seul objectif est d’éliminer toute possibilité d’argumentation scientifique. C’est ainsi une trivialité de dire que le cerveau humain, en l’état actuel des connaissances hébergées par nos neurones, est incapable de décrire exhaustivement l’univers ou prédire son évolution. Mais dire que le théorème de Gödel règle le débat constitue une véritable entourloupette. Le théorème de Gödel intéresse un domaine bien particulier de la logique mathématique. Personne en dehors des polémistes ne songe aujourd’hui à prétendre qu’il peut s’appliquer à une description de l’univers entier.

On peut se demander pourquoi certains spiritualistes se donnent tant de mal pour chercher dans la science des arguments à l’appui de leur croyance en Dieu. Je pense que l’une des raisons justifiant ce qu’il faut bien appeler une « masturbatio mentis » tient à ce que la science moderne décrit dorénavant très bien les bases neurales et épigénétiques du besoin de croire. Celui-ci est apparu et s’est développé chez les hominiens dès que ceux-ci se sont rendus compte qu’ils étaient mortels. Pour affronter cette réalité décourageante, leur cerveau a généré des mythes consolateurs, à base de puissances tutélaires, d’au-delà, d’éternité. La capacité à entretenir ces mythes est devenue héréditaire et a permis à l’espèce d’éviter désespoir et suicide. Les athées eux-mêmes reconnaissent que les mêmes bases neurales de la croyances sont activées chez eux quand leur cerveau évoque des croyances plus matérielles, comme la foi irraisonnée au progrès, au trimphe de la vérité, lesquelles découlent elles aussi, si on les prend au pied de la lettre, d'une interprétation subjective d’un certain nombre d’observations statistiques.

Mais ne soyons pas angéliques. En y regardant de plus près, l’érection en dogme du principe d’incomplétude, ou d’autres analogues, représente quelque chose de plus grave. Ce n’est qu’une des armes adoptées par un spiritualisme de combat loin d’être aussi désintéressé qu’il ne le dit. L’opération est perverse et vient de loin. Ses dimensions relèvent véritablement de la géopolique, c’est-à-dire de l’offensive de super-pouvoirs politiques extra-européens s’en prenant à la science européenne. La neutralité de celle-ci faisait sa force son universalité. Il faut donc prouver qu’en fait, cette neutralité cache une idéologie à détruire. Je m’en suis expliqué dans mon livre, auquel je n’aurai pas la prétention de renvoyer le lecteur. La science européenne « neutre » (comme la science américaine laïque qui est son héritière), doit disparaître, car elle est dorénavant un obstacle à la propagation d’idées politiques combattantes inspirées par les conceptions bibliques, islamiques ou, pourquoi pas, « contemplatives » du monde. Celles-ci n’ont évidemment rien de « neutre ».

Si l’incomplétude a tout dit, si Dieu est là pour répondre aux questions posées par la science, il n’y a plus besoin en Europe de scientifiques ni de crédits de recherche provenant des budgets publics républicains. Pour extrapoler sur un propos n’ayant pas malheureusement suscité le scandale qu’il méritait (3), le curé (auquel nous ajouterons pourquoi pas l’imam, le rabbin voire le scientologue) seront bientôt considérés comme mieux placés pour parler de science aux enfants que les instituteurs, survivances d’une laïcité républicaine devenue gênante. La « laïcité ouverte » que l’on nous propose sera le véritable pandémonium où pourront s’affronter les représentants de tous ces spiritualismes, au grand bénéfice des futures « guerres de civilisation ».

Notes
1) On constatera que Jean Staune s’entête à parler de la « conscience » dans les mêmes termes que les prédicateurs de tous les temps ont parlé de l’ « âme ». Mais il évite ce terme d'âme, qui l’éliminerait immédiatement du champ du débat scientifique.
2) Voir ce qu’en dit l’un de ses adhérents, Jean-François Lambert, sur le site de l’UIP (http://www.uip.edu/uip/spip.php?article629) C’est le droit de ce monsieur de croire ce qu’il écrit, comme c’était le droit du père de Chardin de croire au point oméga. Mais un document pratiquant le « names dropping », art consultant à multiplier des citations sorties de leur contexte, ne transforme pas un article polémique en démonstration rigoureuse. J’aurais pu pour ma part écrire au moins 10 livres aussi gros que celui de Staune pour expliquer que le matérialisme (ou si l’on préfère pour parler comme les Britanniques, le « naturalisme » ) a toujours inspiré la pensée scientifique.
3) Celui selon lequel le prêtre est aussi bien placé que l’instituteur pour enseigner la morale aux enfants.

 

Repost 0
8 février 2008 5 08 /02 /février /2008 09:57
L'explosion du post-anthropocène
par Jean-Paul Baquiast et Christophe Jacquemin
07/02/2008


Animaux précambriens, les lointains prédécesseurs de nos successeurs

Il devient courant d’appeler anthropocène l’ère de l’évolution de la Terre qui a débuté avec le développement à large échelle des humains et les modifications qu’ils ont progressivement apporté au milieu physique et vivant. C’est le prix Nobel Paul Cruntzen qui a proposé ce terme en 2002. Il faisait allusion à l’influence de l’humanité sur les structures géologiques terrestres. Mais le terme, au grand désespoir semble-t-il de la Commission Stratigraphique de la London Geological Society qui voulait le faire normaliser par l’Union Internationale des Sciences Géologiques afin de s’en réserver l’usage, est de plus en plus utilisé pour désigner les changements globaux que l’humanité impose au milieu terrestre. Chacun peut dater le début de l’anthropocène ainsi entendue en fonction de ses préoccupations. On peut le situer à la disparition des grands mammifères sauvages, due à une chasse intensive, vers 5.000 ans avant le présent. Mais c’est indéniablement depuis 2.000 ans, voire seulement 200 ans, que l’évolution des systèmes naturels résultant de l’activité humaine est devenue plus rapide et s'est étendue à tous les continents et les mers. Nul n’est capable de dire ce que produira cette évolution dans les prochaines années. Elle semble s’accélérer et l’on peut craindre que les milieux naturels auxquels nous sommes habitués, voire les sociétés humaines sous leurs formes actuelles, en soient gravement affectés.

Ceci dit, contrairement aux miocène, pliocène, pleistocène et holocène qui ont précédé le susdit anthropocène, cette dernière période risque d’être très courte. Sa durée sera en effet celle de l’espèce humaine sapiens sapiens ou plutôt de l’agrégat de caractères génétiques et culturels par lesquels on identifie généralement l’espèce ainsi désignée – à supposer que le concept d’une espèce unique aux traits partagés par tous ses représentants ait une signification scientifique. Or cette espèce sapiens sapiens semble désormais en voie de disparition.

En effet, à peine une définition à peu près commune de l’humain avait-elle commencé à émerger des affrontement religieux et philosophiques du dernier siècle, qu’elle recommence à s’estomper dans les brumes. On parle en effet, nous les premiers au sein de cette revue, de post-humains ou post-sapiens. Il s’agit de formes émergentes se dégageant petit à petit des multiples avatars que l’homme adopte de nos jours, du fait notamment de l’influence qu’exerce sur son évolution les nouvelles sciences et technologies. Le développement de celles-ci, bien entendu, suit ses rythmes propres en échappant quasi totalement à l’humanité ou plutôt à ceux qui s’arrogent le droit de définir ce concept flou.

Ainsi, il conviendrait donc de parler, non plus d’anthropocène mais de post-anthropocène. Bien plus, il faudrait indiquer que nous sommes déjà entrés dans cette nouvelle ère, même si peu d’entre nous ne s’en rendent compte. L’humain de l’anthropocène, celui qui faisait disparaître le mammouth comme celui qui aujourd’hui fait disparaître la vie dans les eaux océaniques n’existe pratiquement déjà plus. L’humain d’aujourd’hui est projeté dans des réseaux de haute technologie au sein desquels l’individu ne constitue que de simples nœuds ou hubs d’échanges de données numériques. Mais ces individus ont conservé un appareil corporel assez traditionnel, sans grands ajouts technologiques (à part les implants dentaires dont, signalons-le au passage, on reconnaîtra plus tard qu’ils ont bouleversé la civilisation au profit de ceux qui peuvent se les offrir).

Par contre, dans les prochaines décennies, les humains qui auront survécu aux inondations, sécheresses, famines, maladies et guerres le devront à des prothèses innombrables, physiques et mentales. Ces hommes radicalement augmentés mériteront vraiment alors d’être qualifiés de post-humains. L’on pourra donc célébrer en grandes pompes l’entrée dans le post-anthropocène.

Mais nous nous devons de dissiper à ce sujet une illusion. La croyance déjà aujourd’hui fortement contestable selon laquelle l’humanité est une (et indivisible) ne pourra plus alors être entretenue, même par les religieux les plus fondamentalistes ou par les droits-de-l’hommistes les plus invétérés. Autrement dit, la Terre sera partagée en un grand nombre de post-anthropocènes, correspondant à l’explosion plus que probable de différents types de post-humains. On pourra parler de l'explosion du post-anthropocène comme l'on parle de l'explosion du pré-cambrien.

Des environnements physiques, biologiques, technologiques, voire cosmologiques différents, résultant du foisonnement des divers types de post-humain, pourront alors être identifiés. Sans entrer dans le détail, nous dirions que ces variantes juxtaposeront les deux extrêmes. On y trouvera des post-humains retournés pour des raisons diverses à des états de nature (pour ne pas dire de bestialité) proches de ceux des sociétés animales telles qu'elles se présentent aujourd'hui, au dernier stade de la lutte pour la survie que leur imposent les humains actuels. Mais ces post-humains auront cependant gardé, post-humanité oblige, une grande expertise en armes de destruction massive peu coûteuses et faciles à utiliser.

A l’autre extrémité, on trouvera sans doute des entités ayant maîtrisé la vie artificielle, dans la suite de l’actuel Craig Venter, père du Mycoplasma artificialis. Elles auront également maîtrisé la pensée et la conscience artificielle, sur des supports non biologiques et donc capables de survivre loin de la Terre. Ces entités pourront espérer porter ailleurs quelques uns des traits survivants des actuelles cultures humaines. Rien ne prouve d’ailleurs que ce soit ceux dont, aujourd’hui, encore embourbés dans l’anthropocène, nous estimons pouvoir être les plus fiers.

 

Repost 0
JP Baquiast et Christophe Jacquemin - dans philoscience
commenter cet article
5 janvier 2008 6 05 /01 /janvier /2008 11:55

Les neurones de la lecture
Par Stanislas Dehaene
Préface de Jean Pierre Changeux

Editions Odile Jacob, 470 pages

Présentation et commentaires par Jean-Paul Baquiast
01/01/2008

 

Stanislas Dehaene est professeur au Collège de France, titulaire de la chaire de psychologie cognitive expérimentale et membre de l'Académie des Sciences

Il a publié de nombreux articles et ouvrages, dont :
- " La bosse des maths", Odile Jacob, 1997
- " Le Cerveau en action: l'imagerie cérébrale en psychologie cognitive, Paris: Presses Universitaires de France, 1997
- "The Cognitive Neuroscience of Consciousness", MIT press 2001

Un de ses élèves est Lionel Naccache, dont nous avions précédemment présenté un ouvrage remarquable: "Le nouvel inconscient"
http://www.automatesintelligents.com/biblionet/2007/jan/naccache.html

 

Avant-propos

Depuis quelques années, les progrès constants de l'imagerie cérébrale, que nous ne décrirons pas dans cet article, permettent de visualiser avec un pouvoir séparateur de plus en plus élevé l'activité des neurones du cerveau sollicités par des tâches données. Ceci aussi bien chez l'homme que chez l'animal, y compris chez de petits spécimens comme les rats ou les oiseaux. Les observations conduites chez des individus bien portants complètent celles obtenues chez des patients ayant subi des atteintes plus ou moins graves du tissu cérébral.

Il s'agit d'une révolution profonde concernant non seulement les neurosciences au sens strict mais les sciences de la vie, les sciences humaines et plus généralement la philosophie des connaissances. Le grand public et sans doute beaucoup de scientifiques ne semblent pas toujours en avoir mesuré la portée. Il est certes à peu près admis par la science moderne que le dualisme dit platonicien ou cartésien selon lequel l'esprit et le corps constituent deux mondes séparés n'a plus de signification scientifique. Il ne survit que comme acte de foi au sein des religions spiritualistes. Cependant, il est encore très difficile de faire reconnaître que les activités culturelles réputées les plus élaborées, telles celles relatives à la discussion des idées et des sentiments, puissent avoir une traduction physique (disons électromagnétique pour simplifier) immédiate et observable dans le cortex. Plus précisément, beaucoup de ceux qui sont convaincus du fait que notre cerveau est sollicité à chacune de nos interactions avec le monde extérieur peinent encore à admettre qu'il sera prochainement possible, sous réserve du perfectionnement des instruments, de dresser des cartographies précises de la trace que laisse dans notre tissu cérébral la plus infime de nos activités. Ceci qu'il s'agisse d'activités sensorimotrices simples, réagir à un son ou accomplir un mouvement ou qu'ils s'agisse à l'opposé d'activités ou coopèrent de nombreuses facultés comme l'émotion esthétique, l'amour de l'autre, la pensée philosophique et la conscience de soi.

C'est pourtant le cas. Certes, la révolution scientifique évoquée ici n'a pas encore atteint un niveau tel qu'il deviendra rapidement possible de dresser, soit au plan général d'une espèce comme l'homme ou le pigeon, soit même au plan individuel, individu par individu au sein de chacune de ces espèces, la carte en 3 dimensions des neurones qui s' «allument» lorsque le sujet se comporte en récepteur (à partir de ses organes sensoriels) ou en émetteur (à partir de ses organes dits « effecteurs » en robotique). Compte tenu du grand nombre de neurones ou groupes de neurones qui s'activent à la moindre des sollicitations, sans mentionner ceux qui s'auto-activent parce qu'ils sont en veille permanente, cette carte serait difficile à obtenir et plus difficile encore à visualiser avec des méthodes graphiques. De plus, elle ne sera jamais précise, car tout cerveau se transforme et aucun cerveau n'est exactement semblable à un autre. Par contre, rien n'interdit, pensons-nous, d'envisager dès maintenant la construction de modèles génériques rassemblant les observations relatives aux grandes fonctions cérébrales présentes depuis des temps immémoriaux dans les cerveaux des animaux supérieurs, à commencer par celles liées à l'activité des organes du corps les plus sollicités dans la compétition pour la survie.

La difficulté s'accroîtra évidemment lorsqu'il s'agira de représenter les traces cérébrales des fonctions associatives complexes dont procède ce que l'on nomme chez l'animal la conscience primaire et chez l'homme la conscience supérieure. Des fibres corticales associatives réentrantes mettent en relation, à l'état de veille et sans doute aussi dans le sommeil, un grand nombre d'aires spécialisées dont l'activation produit des messages synthétiques qui entrent en compétition incessante dans ce que certains nomment l'espace de travail neuronal global (1) pour produire la succession des états de conscience. La complexité et la vitesse de ces échanges sont telles que l'imagerie fonctionnelle peine encore à les visualiser, si elle y arrive un jour. Pourtant, comme l'on sait, il est devenu possible de faire apparaître de façon encore très grossière les correspondants neuronaux de certains comportements émergents apparemment diffus comme la méditation ou le plaisir esthétique (voire le plaisir sexuel).

Ainsi donc, dans quelques années, si le progrès des neurosciences expérimentales n'est pas interrompu par quelque événement fâcheux, il deviendra possible d'illustrer ou plutôt de compléter toutes les recherches portant sur la psychologie et la sociologie des animaux et des humains par la production de cartographies, fixes et animées, représentant la traduction en termes d'activité neuronale des comportements les plus élaborés. Ces cartographies ou scénarios faisant appel à la statistique mathématique et à l'informatique devraient pouvoir, au moins localement, être suffisamment précis pour que certains neurones porteurs de souvenirs personnels y soient identifiés et individualisés (le fameux neurone de la grand-mère, celui qui code pour le souvenir que nous conservons de notre grand-mère). Sans attendre, les différentes sciences associées aux neurosciences devraient être mises à contribution pour dresser des Atlas du cerveau répertoriant les milliers d'observations déjà faites et permettant d'y inscrire toutes les observations nouvelles. Il s'agirait là de l'équivalent du programme Génome humain en bonne voie de réalisation aujourd'hui. De plus, comme en ce qui concerne le génome, ces Atlas pourraient aussi servir à faciliter l'exploration de l'appareil cérébral, non seulement de patients à des fins thérapeutiques, mais aussi de personnes volontaires soucieuses de mieux connaître les particularités de leurs cerveaux, ceci sous réserve de précautions éthiques que nous n'évoquerons pas ici.

Des Atlas intégratifs

De tels Atlas existent déjà (2) mais ils n'ont pas encore pris la forme systématique qui serait nécessaire pour en faire un outil de coopération interdisciplinaire universel. Il est très probable que cette démarche se heurte déjà et se heurtera de plus en plus à des résistances de type métaphysique voire politique, provenant de groupes de pression pour qui il est, non seulement réducteur mais attentatoire à l'idée qu'ils se font de la dignité de la personne humaine, d'explorer trop en profondeur les arcanes du cerveau – surtout en utilisant les instruments de l'imagerie fonctionnelle qui semblent marquer l'intrusion dans les psychismes de toutes les manipulations permises par les sciences dures.

Observons pourtant que la construction de ces Atlas documentés du cerveau pourrait utilement recouper le programme qu'avait recommandé feu notre ami Gilbert Chauvet, que beaucoup considèrent comme le père de la physiologie intégrative. Son grand œuvre, malheureusement retardé par sa mort, consistait en effet à dresser un modèle mathématico-informatique de tous les échanges endocriniens ou chimiques contribuant au maintien de l'homéostasie de l'organisme vivant, à travers la hiérarchie de ses organes et de ses fonctions, ceci en interaction avec un environnement nécessairement changeant (3) 
La première version de ce modèle, lorsqu'elle sera réalisée, pourra s'enrichir en continu des observations effectuées par les physiologistes, les médecins, les pharmaciens acceptant de travailler à l'échelle de l'organisme considéré comme un tout, que ce soit au niveau de la cellule, de l'organe et du corps entier en interaction avec son milieu. On pourrait concevoir que les deux modèles, celui du système neuro-sensori-moteur et celui des fonctions physiologiques intégrées, puissent se compléter utilement, d'autant plus que beaucoup de fonctions endocriniennes essentielles dans le second système (qualifié quelquefois de «cerveau endocrinien») sont sous la dépendance du premier.

Ajoutons que si les Atlas du cerveau que nous envisageons ici n'étaient pas limités aux cerveaux humains, mais étendus comme nous le préconisons aux systèmes nerveux d'un certain nombre d'animaux jugés significatifs en tant que jalons de l'évolution, on obtiendrait ainsi des arguments tout aussi importants que les analyses génétiques ou morphologiques pour illustrer le darwinisme. On pourrait ainsi retracer l'histoire évolutive des grandes fonctions cérébrales telles que l'aptitude au traitement de certains sons ou images, depuis leur apparition au sein de certaines espèces jusqu'à leur épanouissement (ou disparition) chez d'autres, au travers de modalités liées aux contraintes du milieu dans lequel ont évolué ces espèces. Concernant l'espèce humaine, il deviendrait possible de mettre en évidence les précurseurs animaux des fonctions dont nous nous flattons d'être les représentants les plus accomplis. A l'opposé, on pourrait faire apparaître certaines fonctions animales très élaborées qui auraient dépéri dans l'espèce humaine. On obtiendra ainsi une vision dynamique, une véritable cinématique, apportant de précieuses informations à la physiologie, à la psychologie et à la sociologie évolutionnaires – celles qui recherchent les racines des comportements de l'homme moderne dans leurs antécédents animaux.

Une réserve de taille s'impose cependant, mais elle est propre à toute observation scientifique, en premier lieu la génétique. Le risque existe qu'en s'appuyant sur certaines images, des observateurs trop pressés ou guidés par des préjugés politico-philosophiques s'imaginent avoir identifié les neurones de telle ou telle activité, voire de telle ou telle inclination. De là à proposer d'intervenir dans les cerveaux pour les "guérir" de comportements jugés non corrects, il n'y aura qu'un pas. Ce risque ne condamne pas plus la neuro-imagerie que la génétique, mais il doit être présent dans les esprits.

La robotique évolutionnaire

Nous voudrions, avant d'en venir à la présentation de l'ouvrage de Stanislas Dehaene, élargir les propos précédents à la prise en considération des tendances actuelles de la robotique évolutionnaire. On désigne ainsi la robotique qui étudie non les robots pré-programmés ou asservis utilisés notamment dans de nombreux systèmes industriels mais ceux dit autonomes. Les robots autonomes (dits aussi «cognitive systems») sont conçus pour développer des capacités les rendant "aussi aptes" que les humains à réagir seuls dans des environnements complexes. Ceux qui connaissent les recherches de la robotique autonome remarqueront que les modèles fournis par les neurosciences modernes présentent de nombreuses similitudes avec la façon dont se développent les fonctions sensori-motrices, «intellectuelles» et finalement culturelles au sein de populations de robots interagissant librement entre eux et avec leur environnement (4)

Il est frappant de constater les similitudes entre la façon dont de tels robots acquièrent des «connaissances sur le monde» et celle dont les cerveaux animaux et nos propres cerveaux construisent leurs connaissances, qu'il s'agisse de croyances empiriques ou de théories scientifiques. Le livre récent du psychologue britannique Christopher Frith , «Making up the mind. How the Brain Creates our Mental World " (5) a parfaitement résumé le processus à l'œuvre dans les systèmes biologiques. Chaque système complexe évolutionnaire biologique, en compétition pour sa survie dans un monde dont il est incapable de définir la réalité en soi (à supposer qu'une telle réalité existe) élabore grâce à la synthèse des informations reçues de ses organes sensoriels ou émises par ses organes effecteurs, des «hypothèses» sur son milieu qui sont considérées comme vraies ou mieux comme pertinentes tant qu'elles ne sont pas démenties par l'expérience ou tant que de nouvelles hypothèses plus conformes à l'expérience ne sont pas élaborées et ne supplantent pas les précédentes. Ce processus s'applique aussi bien aux animaux de toutes espèces qu'aux humains.

Or c'est exactement selon le même processus, à un niveau il est vrai de complexité moindre, que les sociétés de robots évolutionnaires acquièrent leurs compétences. Chacun de ces robots, individuellement, élabore (évidemment sans intentionnalité) des cartographies de l'environnement avec lequel il interagit. Pour ce faire il met en concurrence les différents messages provenant de ses organes sensoriels et moteurs au sein d'un «espace de travail global» généralement constitué de «neurones formels» capable d'en produire des synthèses. Il retient à tout moment le programme émergent qui sera le plus apte à représenter ce milieu et donc à faciliter sa survie (par exemple l'accès à la prise électrique où il rechargera ses batteries). Concernant ses relations avec des congénères au sein de populations, le robot développe des pratiques culturelles, voire des langages spécifiques de communication qui seront sélectionnés comme les plus aptes à assurer la survie du groupe, dans le cadre par exemple de relations proies-prédateurs.

Il est relativement facile, concernant des robots qui sont des machines informatiques, d'analyser la consistance et l'évolution des informations qu'ils élaborent pour se représenter le monde et contrôler en conséquence leur comportement global. On obtient ainsi l'équivalent des IRM et autres magnéto-encéphalographies utilisées par les neurosciences. On constate alors que, dans les deux cas, celui des organismes robotiques et celui des organismes vivants, il n'y a pas lieu de se perdre en considérations philosophiques sans issues sur la «vérité» des descriptions du monde construites par ces cerveaux, au regard d'un prétendu «réel en soi». La description peut être considérée comme vraie dès lors qu'elle répond le mieux aux données de l'expérience et qu'elle assure donc au mieux la survie adaptative de l'entité, organisme individuel ou super-organisme, qui l'a construite. Un robot ne s'interroge pas sur la nature en soi d'un bord de table, il l'évite afin de ne pas tomber de la table. De même, une souris ne s'interroge pas sur la nature en soi de ce qui se trouverait derrière les messages sensoriels provenant de ce que nous, humains, qualifions de chat, elle court se cacher dans un trou. Dans les deux cas, ces savoirs, cognitifs d'abord, comportementaux ensuite, ont été sélectionnés par l'évolution comme les plus aptes à assurer la survie des robots et des souris.

Le problème de la conscience n'a pas non plus lieu d'être posé, si l'on s'en tient aux considérations qui précèdent. Appelons conscience de soi la représentation qui émerge, au sein d'un système évolutionnaire hiérarchisé, à partir des conflits darwiniens entre les représentations élémentaires générées par les composants fonctionnels inférieurs du système. Admettons que cette représentation puisse dans certaines circonstances, par effet feed-back, contrôler une partie plus ou moins importante du système tout entier, en lui imposant un comportement global cohérent. Ce sera l'équivalent d'une conscience de veille. Dans le cerveau électronique du robot, un espace de commande se trouvera progressivement dédié par apprentissage à l'acquisition et l'utilisation des informations composant cette conscience de veille, dès lors que son rôle se révélerait favorable à la survie adaptative du robot. En ce qui concerne les systèmes biologiques, l'imagerie fonctionnelle n'a pas encore mis en évidence de tels centres de commande intégrée. La capacité de générer des états de conscience de veille y semble répartie entre différents centres en compétition permanente. Mais, comme pour ce qui concerne les robots, le statut de cette fonction «supérieure» ne devrait pas susciter d'interrogations philosophiques particulières.

Les neurones de la lecture

Nous avons pensé utile de formuler cette longue introduction avant de présenter l'ouvrage remarquable de Stanislas Dehaene, « Les neurones de la lecture », dont l'auteur veille à rappeler qu'il se réfère aux recherches menées depuis au moins trente ans sur les mêmes thèmes par Jean-Pierre Changeux. L'un et l'autre sont les représentants français les plus internationalement reconnus d'une démarche très féconde visant à utiliser les apports des neurosciences pour approfondir un grand nombre de disciplines scientifiques qui les ignoraient jusqu'à ces derniers temps. En matière de sciences humaines, on obtient ainsi une neuro-mathématiques, une neuro-esthétique, une neuro-économie, une neuroscience politique, une neuroscience des croyances et religions, etc.

"Les neurones de la lecture" s''inscrit par conséquent dans le vaste travail d'exploration des bases neuronales des activités réputées culturelles de l'esprit humain conduit par Stanislas Dehaene. Après celui précédemment consacré par l'auteur au calcul («La bosse des maths»), ce nouvel ouvrage fait la synthèse d'un grand nombre de travaux de laboratoires consacrés à l'étude de la lecture, sous toutes ses formes. Par la force des choses, le livre ne peut pas «tout dire», que ce soit sur la lecture proprement dite ou sur les multiples apports que permet en ce domaine le recours aux neurosciences. L'auteur montre cependant avec un grand luxe de détails et d'illustrations la considérable complexité qui se cache sous un comportement aussi banal apparemment que la lecture. Il expose comment un certain nombre d'organes coopèrent dans cette activité, le plus important étant, après l'œil, le cerveau. Il illustre en permanence ses propos par l'appel aux techniques de l'imagerie fonctionnelle du cerveau, grâce auxquelles il fait apparaître la façon dont celui-ci traite les images reçues dans la rétine jusqu'à leur donner des sens aux implications symboliques profondes, elles-mêmes sources de la création culturelle ultérieure.

Chaque année qui passe donne à ces travaux, loin encore d'être terminés, une précision accrue, car les progrès de l'imagerie cérébrale, en termes de pouvoir discriminant, ne cessent d'augmenter. Il ne s'agit donc plus seulement, comme jadis, de se limiter à une analyse clinique très grossière des effets des lésions. Aujourd'hui, on peut identifier l'activité fonctionnelle de colonnes corticales d'1 mm de côté environ. Cela comprend encore des millions de neurones individuels et un nombre considérablement plus grand de synapses. Mais il semble que les techniciens ne désespèrent pas de pouvoir observer, sinon toujours des neurones individuels, du moins des effectifs bien plus petits. Cela permettra d'approcher progressivement le «pandemonium» selon le terme d'Olivier Selfridge repris par l'auteur, que constitue l'activité des neurones entrant en compétition pour identifier une stimulation sensorielle donnée. On notera aussi que la discrimination permise par les instruments modernes concerne aussi le facteur temps, puisqu'il est désormais courant de mesurer des temps de réponse en dizaines de milliseconde. Il n'y a donc pas de raison de penser que les processus caractérisant le fonctionnement de ce que Baars et l'auteur nomment l'espace de travail conscient ne deviendront pas identifiables prochainement.

Nous n'entreprendrons pas de résumer ici le travail extrêmement minutieux et pourtant clairement présenté auquel l'auteur s'est livré dans « Les Neurones de la lecture » pour montrer comment le cerveau du lecteur, avec une rapidité stupéfiante, peut passer de l'identification visuelle des lettres (les graphèmes) aux mots et aux sons (phonèmes) qui leur correspondent, puis finalement à leur sens, ceci malgré les nombreuses causes d'ambiguïtés qui pourraient rendre la lecture ou la compréhension impossible. Il faut lire ces chapitres en détail. On s'intéressera également aux similitudes que présentent les différentes écritures, anciennes et contemporaines, montrant bien qu'elles répondent toutes à des contraintes organisationnelles voisines, tenant de fonctionnalités neuronales identiques.

Le livre présente un autre aspect, moins connu, des travaux de l'auteur. Il s'agit de retrouver dans le cerveau des animaux les précurseurs des neurones de la lecture. Les instruments de l'imagerie cérébrale peuvent désormais être utilisés pour observer le fonctionnement du cerveau de divers animaux, ce qui est précieux puisque leur système nerveux peut dans beaucoup de cas servir de modèle pour comprendre celui de l'homme. Les animaux ne lisent évidemment pas, comme le fait l'homme moderne, mais ils isolent dans leur environnement des traits caractéristiques susceptibles de contribuer à leur survie. Stanislas Dehaene montre qu'ils utilisent pour ceci des neurones dédiés à la reconnaissance des formes, présents chez tous les animaux, dès qu'ils disposent d'un appareil visuel un tant soit peu élaboré. Comme l'on sait, l'œil n'identifie pas des objets en tant que tels, mais des formes extrêmement simples, lignes verticales, horizontales et à la rigueur angles, à partir desquelles le cerveau reconstruit, à la suite d'un long apprentissage, des paysages variés dans lesquels l'animal doit pouvoir se mouvoir avec sécurité afin d'assurer sa survie.

Stanislas Dehaene montre que l'écriture et par conséquent la lecture, qui sont des activités récentes dans l'histoire humaine, apparues il y a seulement quelques millénaires, ont pu se développer en utilisant des aires cérébrales utilisées précédemment à la reconnaissance des formes et des objets. Les bases neurales de la lecture dont tout nouveau-né humain dispose en naissant ont «recyclé», pour reprendre le terme proposé par lui, des capacités neuronales assurant précédemment des fonctions différentes. Il s'agit, comme il l'indique, d'une "exaptation", ce terme proposé par Stephen Jay Gould désignant l'utilisation d'un organe existant pour répondre à des besoins nouveaux, ce qui entraîne en retour une modification de l'organe. Cette exaptation s'est-elle faite au détriment de capacités de reconnaissances des formes existant chez l'animal et qui auraient dépéri chez l'homme ? Stanislas Dehaene pose la question sans y répondre, tout en suggérant que la souplesse de reconfiguration du cortex aurait sans doute permis de maintenir des fonctions multiples, si les exigences d'adaptation au milieu l'avaient imposé. Si l'homme moderne a perdu certaines fonctions sensorielles très présentes chez l'animal, c'est sans doute parce que ses nouveaux milieux de vie et les prothèses sociétales dont il dispose désormais ne les rendent plus nécessaires.

Les bases neurales de la lecture

Un commentaire s'impose cependant concernant l'intérêt de mettre en évidence les bases neurales de la lecture. Jean-Pierre Changeux et Stanislas Dehaene insistent sur le fait que la lecture comme le calcul et d'autres activités cognitives analogues possèdent des bases neurales désormais bien identifiées, transmises sous commande génétique d'une génération à l'autre, et ce depuis quelques millénaires au moins pour les plus récentes. Or ils rappelent que beaucoup de psychologues et cogniticiens considèrent encore la lecture, le calcul et même le langage comme des constructions entièrement culturelles, développées au sein des sociétés humaines sans lien aucun avec l'organisation cérébrale. En particulier, le cerveau de l'embryon et même celui du nouveau-né ne comporteraient pas d'aires cérébrales dédiées à ces fonctions et par conséquent organisées sous commande génétique. L'enfant naîtrait, selon l'expression devenue courante, avec une page blanche (blank slate) en matière d'aires corticales affectée aux activités culturelles. Cette page se remplirait peu à peu au fil des mois consacrés à l'apprentissage, en contact avec un acquis culturel «externalisé» par rapport aux organismes.

Jean-Pierre Changeux n'a pas tort de qualifier de tragique cette survivance du dualisme platonicien, car elle continue à établir un clivage épistémologique entre les sciences biologiques et les sciences de l'homme. Tous les travaux récents, éclairés notamment par l'imagerie fonctionnelle cérébrale, montrent au contraire qu'à partir de bases génétiquement définies, le cerveau du sujet se complexifie et se spécialise en interaction avec l'environnement de celui-ci, notamment en interaction avec les constructions sociales qu'il découvre dès sa naissance, les affects, les comportements élémentaires, le langage puis le calcul et l'écriture. On parle généralement à cet égard d'une construction épigénétique, c'est-à-dire résultant d'une co-évolution entre l'organisation neuronale et les apprentissages obligés découlant de l'insertion dans le milieu social.

Mais comment, diront les défenseurs du « tout-culturel » peut-on prétendre que les bases neurales permettant le langage, le calcul et la lecture sont inscrites dans le génome humain, alors que l'on sait (ou l'on suppose) que le génome n'a plus évolué depuis quelques centaines de milliers d'années (6) . Or le langage est bien plus récent (on ignore encore si le Néanderthalien parlait). Le calcul et la lecture le sont bien plus encore. Ces activités n'ont donc pas eu le temps de modeler le cerveau au travers de mutations génétiques adaptatives. Nous l'avons dit, Stanislas Dehaene répond à cette objection apparemment forte en montrant que ces aptitudes de l'homme en société se sont développées en utilisant et détournant des capacités cérébrales (et anatomiques) existant avant elles et servant à d'autres tâches. Ce processus absolument général voire fondamental en biologie évolutionnaire ne devrait pas étonner, car il caractérise encore massivement l'homme moderne. J'utilise mes mains (et les aires cérébrales correspondantes de mon cerveau) pour écrire cet article sur le clavier de mon ordinateur alors que mes ancêtres se servaient des leurs pour manier des armes ou des outils indispensables à leur survie.

Nous n'irons pas plus avant dans la présentation de l'ouvrage, malgré l'intérêt des questions abordées ensuite par Stanislas Dehaene, dans la suite de ses travaux sur les bases neurologiques de la lecture. Signalons seulement que l'auteur analyse de près un disfonctionnement très répandu, la dyslexie, et suggère quelques techniques permettant d'y remédier. De même, il recommande d'utiliser les conclusions de ses travaux à l'amélioration des méthode d'apprentissage de la lecture, passant ou non par une simplification relative de l'orthographe. On remarquera à cet égard qu'il condamne fermement les erreurs de la méthode globale, qui contrairement à l'historique BA Ba, contrecarrent directement la façon dont le cerveau des occidentaux apprend à lire.

Dans sa conclusion, le livre évoque le grand avenir scientifique que devraient avoir les neurosciences appliquées à un certain nombre de disciplines (dont certaines énumérées ci-dessus) que l'on associe rarement à des recherches utilisant l'imagerie fonctionnelle cérébrale.

Quelques questions que nous aimerions poser à l'auteur

Nous avons indiqué plus haut que cet ouvrage déjà important ne pouvait prétendre répondre à toutes les questions, opportunes ou maladroites, que des lecteurs s'intéressant aux thèmes évoqués par lui pourraient être conduits à se poser. Signalons cependant certaines de ces questions qui auraient mérité nous semble-t-il une discussion rapide.

Pourquoi d'abord mettre l'accent sur la lecture et non sur l'écriture. Il semble qu'il s'agisse de deux aspects complémentaires d'une même activité consistant à représenter par des symboles simples des contenus sémantiques complexes. Mais est-ce bien le cas ? Ne peut-on penser par exemple que l'acte d'écrire, par exemple tracer des lignes dans le sable avec un bâton, a pu précéder historiquement le fait d'attribuer un sens bien défini et normalisé à ces signes. Les peintures pariétales, par ailleurs, apparues vers 40.000 ou 35.000 ans BP, ne peuvent-elles être considérées comme des formes d'écriture, qui n'étaient sans doute pas destinées à être lues comme on lit un livre. Elles convoyaient des informations symboliques globales (inaugurant avant la lettre la méthode globale de lecture condamnée par l'auteur !). Quant aux premiers outils en pierre taillée, dont on estime maintenant qu'un des berceaux se trouverait dans le bassin d'El Kowm, en Syrie à la date de 1,2 millions d'années avant le présent  (7) ne pourraient-ils être considérés comme des formes primitives mais précises d'écriture et de lecture ?

Cette première considération nous conduit à regretter que le livre de Stanislas Dehaene ne replace pas davantage la lecture dans la problématique infiniment plus complexe des bases neurales et de l'histoire des symboles (notamment mythologiques) et des langages – sans élargir encore l'approche à la prise en considération des proto-langages animaux. Le lecteur potentiel ne se donne le mal de déchiffrer un graphème que s'il a l'espoir d'accéder à un monde symbolique qui enrichira sa propre bibliothèque de significations. Aussi nous pensons que des convergences auraient pu être mises en évidence, entre les conclusions de l'auteur et celles des défenseurs d'une conception épigénétique des langages. Dans un livre récent, que nous présenterons plus en détail ultérieurement (8), le linguiste Steven Pinker, dans la ligne d'un de ses ouvrages précédents « The Blank Slate», s'affirme avec autorité comme un sociobiologiste évolutionnaire convaincu. En matière de langage, il considère que celui-ci reflète l'organisation de notre cerveau, laquelle est innée, c'est-à-dire déterminée par les gènes propres à l'espèce humaine. En ce sens il est fidèle à la célèbre thèse de Chomsky selon laquelle les enfants naissent avec des capacités câblées dans le cerveau leur permettant d'apprendre très vite à parler, ce que les animaux ne peuvent pas faire. Mais il approfondit cette thèse, laquelle se limite en principe aux capacités du cerveau à comprendre et utiliser la grammaire. Dans The Stuff of Thought, il envisage que la compréhension du sens des mots soit elle-même câblée à la naissance. Elle repose sur des significations globales acquises par l'espèce tout au long de l'évolution. Si le concept de chien n'est pas câblé, celui d'animal, associé à des significations comme dangereux, mangeable, etc. le serait. La mère désignant un chien à son enfant et le qualifiant de chien permet à l'enfant d'associer immédiatement la vue et le terme de chien à une catégorie plus générale dont son cerveau était déjà porteur. De la provient la rapidité avec laquelle il apprend le mot chien et le charge d'un environnement de significations très riches. Cela ne veut pas dire que les mots décrivent le monde tel qu'il est, mais seulement la façon dont à travers l'évolution les humains (et leurs prédécesseurs) ont interagit avec lui.

Pinker rejette ainsi l'extrême nativisme à la Fodor, mais aussi l'extrême pragmatisme. Ses hypothèses semblent très recevables. Elles sont cependant contestées par les tenants de la linguistique évolutionnaire radicale. Pour eux (notamment Philip Lieberman, auteur de « The Biology and Evolution of Language », 1984) l'expérience acquise par l'individu tout au long de sa vie est indispensable à l'acquisition de ce que seront pour lui les significations des mots. Les zones cérébrales activées par les mots seraient d'ailleurs les mêmes que celles activées par la perception des choses et par les activités motrices s'exerçant à leur sujet.

On voit que ces questions rejoignent celles évoquées par Stanislas Dehaene dans « Les neurones de la lecture ». Il est donc curieux de constater qu'il ne mentionne pas Pinker dans sa bibliographie. Il est vrai que ce dernier n'est pas un neuroscientifique mais un linguiste et un psychologue évoltionnaire. Dans The Stuff of Thought, il cite cependant plusieurs fois, avec beaucoup de considération, les travaux de Stanislas Dehaene (p. 130, 138, 140) .

Une autre question aurait pu être évoquée, concernant les capacités de mémoire à long terme du cerveau humain. Nous avons compris que, pour Stanislas Dehaene, le cerveau stockait sous une forme durable sinon permanente, les milliers et millions de références acquises grâce à la lecture – ceci d'ailleurs sans que l'attention puisse toujours retrouver ces références quand le sujet en a besoin. Cette hypothèse rejoint la problématique de la mémoire en général. Certains neurologues considèrent qu'avec ses 100 milliards de neurones et un bien plus grand nombre de synapses, le cerveau d'un homme moderne peut conserver, « engrammées » quelque part, le souvenir de tous les événements, mineurs ou majeurs, vécus dans une vie d'homme moyen. Ces souvenirs resteraient pour l'essentiel inconscients, mais ils pourraient néanmoins ressurgir dans certaines circonstances et provoquer des effets dynamiques. Or la question qu'il faut se poser est la suivante : l'exploration fonctionnelle du cerveau permet-elle ou permettra-t-elle un jour de faire apparaître en tant que de besoin la localisation de tels souvenirs, et la forme sous laquelle ils sont mémorisés ? Nous aurions aimé que Stanislas Dehaene nous donne son opinion sur ce sujet.

Pour terminer, évoquons une question fondamentale, il est vrai pratiquement insoluble (ou insolvable) en l'état actuel des connaissances. Elle concerne les origines de la lecture, comme d'ailleurs celle des outils, des langages et de toutes les activités symboliques. La question peut être posée de la façon suivante : pourquoi des animaux qui possèdent indiscutablement les rudiments de ces différentes activités n'essayent-ils pas de les développer sous la forme de véritables constructions culturelles épigénétiques ? Stanislas Dehaene se pose la question et y répond, si nous l'avons bien compris, en évoquant le fait que le cerveau humain a été le seul à se doter de fibres associatives réentrantes permettant d'organiser l'espace de travail global évoqué ci-dessus. Cet espace permettrait de recycler les contenus d'aires neurales dédiées afin d'en faire les briques d'une représentation globale du monde dont l'animal n'est pas capable.

Soit, mais pourquoi les hommes ont-ils développé un tissu aussi dense de fibres associatives, alors que les animaux ne l'ont pas fait? L'explication faisant appel à la survenue d'une mutation génétique heureuse parait trop simple pour être honnête. Une autre hypothèse a été avancée par Susan Blackmore, papesse de la mémétique. Pour elle, les cerveaux des hommes ont brusquement grossi parce qu'ils étaient envahis par des mèmes, lesquels avaient besoin de nouveaux canaux pour se multiplier. Peut-être. Mais pourquoi les animaux auraient-ils échappé à cette épidémie ? Parce que les animaux, selon Susan Blackmore, ignorent l'imitation. L'argument ne nous parait pas recevable, car certains animaux sont capables d'imiter.

Signalons une hypothèse assez exotique, mais qui nous paraît mériter d'être approfondie. Les sociétés d'hominiens ayant développé à grande échelle la production de symboles l'ont fait parce que leurs membres ont découvert (par hasard, dans le cadre d'activités de recherche exploratoire propres à ces primates) la consommation de certaines plantes hallucinogènes qui sont de puissants stimulants de l'activité cérébrale. A la suite des chamans et des « illuminés » de toutes sortes ayant abusé de tels excitants, le langage complexe, l'art, l'écriture et la lecture auraient pu ainsi exploser au sein de ces sociétés «inspirées». Toute notre culture en découlerait. Elle serait encore, pour l'essentiel, «hallucinée». Les technologies de l'information participeraient aujourd'hui largement à cette production hallucinatoire. Why not ? (9)

Notes
(1) Concept présenté par Bernard Baars sous le nom de Global Workspace et repris par Stanislas Dehaene. Voir en ligne l'ouvrage "A cognitive theory of consciousness" 1988
http://nsi.edu/users/baars/BaarsConsciousnessBook1988/index.html
ainsi que , plus récemment,
http://www.ceptualinstitute.com/genre/baars/homepageBB.htm et
http://cogweb.ucla.edu/CogSci/Baars-update_03.html
(2) Voir The Whole Brain Atlas : www.med.harvard.edu/AANLIB/
(3) Voir Chauvet : http://www.gilbert-chauvet.com/
(4) Voir par exemple le programme européen ECAgents :
http://ecagents.istc.cnr.it/index.php?main=7&sub=71
Voir aussi les travaux sur la conscience artificielle d'Alain Cardon:
http://cardalain.googlepages.com/
(5) Voir notre présentation :
http://www.automatesintelligents.com/biblionet/2007/juil/frith.html
(6) Des observations anthropologiques récentes montrent que les génomes humains évoluent constamment de groupes à groupes, dans des domaines il est vrai ne remettant pas en cause la sacro-sainte appartenance à l'espèce humaine. Voir "How we adaptated to a modern world. New Scientist 15 décembre 2007, p. 8.
(7) Sciences et Avenir, janvier 2008, p.46,
(8)"The Stuff of Thought: Language As a Window into Human Nature"», Allen Lane 2007.
Sur Pinker, on pourra relire notre présentation de son livre précédent, The Blank Slate, http://www.automatesintelligents.com/biblionet/2003/sep/pinker.html
(9) Voir notre propre livre, "Pour un principe matérialiste fort", Editions JP Bayol, 2007 : http://www.editions-bayol.com/PMF/index.php

Repost 0
8 novembre 2007 4 08 /11 /novembre /2007 18:18

Le monde quantique profond serait-il déterministe ?
par Jean-Paul Baquiast 09/11/07

Dans  le NewScientist daté du 3 novembre 2007, p. 37, Mark Buchanan, diplômé en physique théorique, rédacteur scientifique et auteur de divers ouvrages sur l’importance de Dieu dans notre compréhension du monde et de la science, discute les hypothèses du physicien Joy Christian (notre photo), de l’université d’Oxford, concernant la possible existence d’une réalité déterministe sous jacente au monde quantique.1)  Celle-ci permettrait d’expliquer les « bizarreries » (weirdness) de la physique quantique, notamment la non-localité, la superposition d’états et l’intrication (entanglement).2) Ces bizarreries sont considérées par l’écrasante majorité des physiciens comme des « réalités » ne pouvant plus être discutées aujourd’hui. Des expériences théoriques et des applications technologiques innombrables ont démontré la pertinence des descriptions quantiques du monde. Aucune preuve susceptible de les falsifier n’a été apportée. La recherche de « variables cachées » n’a nulle part abouti.

Concernant l’intrication, les expériences destinées à vérifier le théorème (les inégalités) de Bell (dont celles conduites à Orsay par Alain Aspect à partir de 1982), puis celles portant sur l’intrication de photons et d’objets complexes réalisées en 2006 par Marcus Aspelmeyer de l’Académie des sciences de Vienne  3) ont toutes montré que deux particules peuvent être relié instantanément à distance, sans aucun lien entre elles et aussi que la superposition peut affecter des objets – relativement - massifs. Cela pose la question du réalisme : l’univers tel que nous le définissons existe-t-il en dehors de la mesure ? 4)

Cependant, quelques physiciens, notamment le hollandais Gerard ‘t Hooft de l’Université d’Utrecht 5) et le mathématicien Roger Penrose, d’Oxford, n’ont pas renoncé à formuler des hypothèses postulant le caractère déterministe de l’univers à un niveau encore plus fondamental que celui considéré par la physique quantique. Ces hypothèses permettraient de comprendre pourquoi le déterminisme disparaît en laissant place à l’aléatoire constaté par le physicien manipulant des entités quantiques. Pour ‘t Hooft, écrit Mark Buchanan, la physique quantique peut être comparée à la thermodynamique en ce sens qu’elle décrit les systèmes physiques par l’intermédiaire de moyennes statistiques, plutôt qu’en se plaçant à un niveau de détail plus précis. Le vide quantique pourrait de la même façon être composé d’un très grand nombre d’états distincts qui évoluerait d’une façon déterministe et dont la physique quantique ne connaîtrait que les produits statistiques. Gerard ‘t Hooft propose différentes hypothèses déterministes qui permettraient de vérifier ce postulat. On sait par ailleurs 6) que Lee Smolin et ses collègues du Perimeter Institute travaillant sur la gravitation quantique en lacet considèrent comme inévitable une remise en cause radicale de la mécanique quantique sous sa forme actuelle. Ils pensent progresser dans cette voie 7). Mais tout ceci demeure encore très hypothétique.

Les algèbres non commutatives

C’est précisément là que le travail de Joy Christian intervient. Il postule que si les vérifications du théorème de Bell ont donné les résultats que l’on sait, c’est parce que Bell avait supposé que les caractéristiques des variables cachées dont il postulait l’existence pouvaient être exprimées sous forme de nombres ordinaires, ceux de l’algèbre commune. Ces nombres seraient donc commutatifs. Ainsi, dans une multiplication, la commutation s’exprime par la notation suivante [ 2x5 = 5x2 ]. La commutation, en particulier, ne tient pas compte du temps. Une algèbre commutative ne peut donc prétendre décrire l’ensemble des phénomènes du monde physique. Comme l’a dit Alain Connes, un des pères de la géométrie non commutative 8) ouvrir une canette et en boire le contenu ne peut équivaloir à l’opération réalisée dans l’ordre inverse.

Joe Christian ne fait pas appel à la géométrie de Alain Connes mais à l’algèbre non commutative du mathématicien William Clifford. Celui-ci a généralisé, dans ce que l’on nomme désormais l’algèbre de Clifford 9)   les travaux, publiés en 1843, du mathématicien mécanicien William Rovan Hamilton. Hamilton avait proposé pour construire des modèles dans un espace à trois dimensions des extensions non commutatives des nombres complexes qu’il avait baptisé du terme de quaternions 10). Les quaternions sont désormais très utilisés par les sciences de l’ingénieur, notamment pour représenter des rotations.

Pour Joe Christian, il faut supposer que les variables cachées peuvent avoir des propriétés algébriques différentes de celles représentées par l’algèbre ordinaire et que pour les exprimer il faut faire appel à ces algèbres non commutatives. Dans ce cas, les inégalités de Bell telles qu’actuellement formulées ne seraient pas utilisables , car elles ne seraient pas dotées d’un appareil mathématique susceptible de faire apparaître des variables cachées expliquant la non-localité quantique. Notons que, pour Philippe Grangier, de l’Institut d’Optique d’Orsay, l’hypothèse, bien qu’intéressante, n’est pas encore assez argumentée pour être recevable.

Nous nous trouvons donc peut-être à un tournant, éventuellement révolutionnaire, de la physique et plus généralement des représentations, réalistes ou non, déterministes ou non, que l’on peut se faire de l’univers profond. La question des multivers serait également concernée. L’affaire est donc à suivre.

On peut penser par ailleurs que les tenants des explications religieuses du monde ne manqueront pas d’exploiter les résultats des premières expériences qui pourraient être proposés – ceci d’ailleurs quels que soient ces résultats car les interprétations théologiques sont telles qu’il est impossible de les mettre en défaut. Sans mettre en cause l’impartialité de Mark Buchanan auteur de l’article du NewScientist précité, ce n’est pas sans une petite arrière pensée que nous signalions sa foi chrétienne, puisqu’il ne cache pas qu'elle l'inspire dans le regard qu'il jette sur les sciences.

Pour en savoir plus
1) Disproof of Bell's Theorem by Clifford Algebra Valued Local Variables
Par Joy Christian (Perimeter and Oxford) http://www.arxiv.org/abs/quant-ph/0703179
2) Le monde quantique Les Dossiers de la Recherche, N° 29, Novembre 2007
3) Voir Michaël Brooks, Reality Check, NewScientist 23 juin 2007 p. 30
4) Ces questions, incluant la contribution de Mioara Mugur-Schächter, sont discutées dans le premier chapitre de notre propre livre Pour un principe matérialiste fort. JP Bayol, 2007
5) Petit précis de physique par Gerard ‘t Hooft, prix Nobel
http://www.phys.uu.nl/~thooft/theorist.html#aqmechanics
6) Lee Smolin. The Trouble with Physics
http://www.automatesintelligents.com/biblionet/2007/juil/troublewithphysicshtml.htm
7) Disordered locality in loop quantum gravity states, Fotini Markopoulou, Lee Smolin http://www.arxiv.org/abs/gr-qc/0702044
8) Géométrie non commutative Wikipedia
http://en.wikipedia.org/wiki/Non-commutative_geometry
9) L’algèbre de Clifford http://en.wikipedia.org/wiki/Clifford_algebra
10) Les Quaternions http://en.wikipedia.org/wiki/Quaternion

Repost 0
15 octobre 2007 1 15 /10 /octobre /2007 14:01
Introduction à l'hyperscience

par Jean-Paul Baquiast et Christophe Jacquemin
10/10/07

Nous proposons dans le numéro spécial de Automates Intelligents http://www.admiroutes.asso.fr/larevue/2007/84/index.html quelques articles qui nous semblent révélateurs de ce que la science pourrait devenir dans les années à venir, si les négationnistes de toutes origines n'asséchaient pas définitivement les crédits de recherche fondamentale. Il s'agit notamment d'un entretien avec l'astrophysicien Michel Cassé, de la présentation d'un essai de Aurélien Barrau, autre astrophysicien et, dans un domaine apparemment différent mais qui ne l'est pas au plan épistémologique, d'une chronique consacré au livre de Serge Boisse sur l'Intelligence Artificielle et la Singularité.

Il nous apparaît que ces auteurs annoncent tous les trois, dans des termes différents, l'avènement de ce que nous aimerions appeler l'hyperscience. Pourquoi ce terme, qui fera d'emblée monter aux créneaux les négationnistes auxquels nous faisions allusion ?

L'hyperscience, dans la définition provisoire que nous vous proposons, comporterait les traits suivants, qui la distingueraient de la science traditionnelle :

Elle multiplierait les hypothèses, sans se laisser embarrasser par des considérations de convenance. Ainsi serait remis à l'ordre du jour le concept d'anarchisme méthodologique lancé par le regretté et aujourd'hui oublié Paul Feyerabend(1).

Elle multiplierait parallèlement la mise en service d'équipements lourds ou légers destinés non seulement à tester les hypothèses déjà formulées mais à faire naître ce que Michel Cassé appelle dans son article des nuages d'incompréhension, indispensables à l'avancement de la recherche.

Elle serait radicalement transdisciplinaire. Non seulement elle naviguerait hardiment d'une spécialisation à l'autre au sein d'une discipline donnée, mais aussi d'une discipline à l'autre, et ceci en priorité si tout paraît les séparer. Pour l'aider, il faudrait multiplier les outils et les réseaux permettant le rapprochement des connaissances et des hypothèses.

Elle n'hésiterait pas, en fonction du développement des systèmes évolués d'Intelligence Artificielle et de simulation du vivant, à faire appel à leurs agents intelligents pour relancer l'esprit inventif des scientifiques humains et aussi pour collecter les fruits d'un raisonnement non-humain qui pourrait agir en interaction avec l'intelligence humaine.

Elle renoncerait au préjugé selon lequel la science doit unifier et rendre cohérents tous les paysages auxquels elle s'adresse. Le même individu pourrait se donner du monde des représentations différentes, selon qu'il décrirait les horizons de la physique théorique, de la vie, des neurosciences, des systèmes dits artificiels ou, plus immédiatement, de l'art, de la philosophie et de la morale. Le préjugé selon lequel le monde est un et doit être décrit d'une façon unique est sans doute un héritage du cerveau de nos ancêtres animaux, pour qui construire cette unité était indispensable à la survie dans la jungle. Elle a été reprise par les religions monothéistes, dont les prêtres se sont évidemment réservés la représentation du Dieu censé incarner cette unité.

Le « réalisme » qui inspire encore la plupart des sciences constitue une survivance aliénante dudit préjugé. Selon le réalisme, il existe un réel en soi, existant en dehors des hommes, dont les scientifiques, grâce à la science expérimentale déductive, pourraient donner des descriptions de plus en plus approchées. L'hyperscience, tout au contraire, postulerait le constructivisme, thèse selon laquelle la science construit l'objet de son étude, c'est-à-dire le réel subjectif, le seul qui puisse l'intéresser. Elle construit d'abord cet objet en le qualifiant comme thème de recherche puis en vérifiant expérimentalement les hypothèses qu'elle formule à son sujet. L'expérimentation a pour objet de maintenir une cohérence entre les hypothèses précédemment vérifiées et les nouvelles, sans pour autant s'interdire une remise en question (ou plutôt une extension) des premières. Elle est nécessairement et fondamentalement empirique: cela marche ou ne marche pas. Si elle cherche à regrouper et unifier les causes et leurs expressions sous forme de lois, c'est sans prétendre rechercher - et encore moins prétendre avoir trouvé - une cause première définitive (une loi fondamentale) (2).

Précisons cependant que si l'hyperscience ne devait pas chercher à imposer une vision totalitaire du monde, elle devrait cependant , pour son propre compte, s'affirmer holiste et totalisante. En ce sens, elle montrerait, face à tous les ésotérismes, les mythologies, les illusionnismes et les fondamentalismes religieux, qu'elle représente la seule attitude rationnelle digne d'une humanité qui voudrait relever dignement l'héritage du siècle des Lumières. Il s'agirait en fait d'une forme de spiritualité matérialiste très haute car elle serait une théorie de la contradiction sans transcendance, c'est-à-dire une théorie de l'immanence première et complexe qui sert de départ (et d'arrivée)(3).

Elle se doterait enfin de portes paroles suffisamment influents pour obtenir le déroutement à son profit des milliards de milliards de dollars consacrés au financement des guerres et aux dépenses de consommation somptuaire qui seront de plus en plus insupportables dans la perspective des grandes crises environnementales et géopolitiques qui s'annoncent(4). L'hyperscience, pour ce faire devrait convaincre l'humanité qu'elle représente pour cette dernière la seule opportunité d'échapper à ces crises. A défaut d'en persuader le monde, elle devrait au moins en persuader les Européens. L'hyperscience serait pour l'Europe une révolution économique, politique et épistémologique, trois conditions indispensables à la résolution des graves crises à venir. Si l'Europe, au lieu de construire des autoroutes et d'importer des 4/4, se couvrait d'Instituts de recherche fondamentale (dit en anglais Blue Sky Research) elle offrirait au monde un autre visage(5).


Notes
(1) Paul Feyerabend, Contre la méthode, esquisse d'une théorie anarchiste de la connaissance 1975
(2) Sur cette question difficile, voir Baquiast, Pour un principe matérialiste fort, notamment le chapitre consacré aux travaux de Mioara Mugur Schächter. Les sceptiques diront que le processus que nous décrivons ressemble beaucoup à ce que ferait un peintre qui s'accrocherait à son pinceau pour peindre un mur. Mais c'est exactement ainsi, selon nous, que travaillent non seulement les physiciens quantiques, mais les scientifiques en général et derrière eux, tous les locuteurs. Malheureusement, la plupart ne s'en rendent pas compte.
(3) Baquiast, ibidem.
(4) Faisons un rêve. L'humanité a décidé d'économiser plus de 1.000 milliards de dollars en supprimant ses budgets militaires. De même, devant la montée des périls résultant de l'aggravation de la grande crise environnementale, elle s'est résolue à réduire les dépenses affectées à la consommation de produits et services de luxe ne bénéficiant qu'à quelques-uns. Là encore, plus de 1.000 milliards de dollars pourront être économisés. Mais quelle affectation donner à ces sommes? Et à quoi occuper les centaines de millions de gens qui ne vivent aujourd'hui que de la guerre et des consommations somptuaires ? La réponse devrait sauter aux yeux : à l'hyperscience
(5) Pour plus de détails, voir notre article dans le numéro: spécial  Bienvenue au royaume de l'hyperscience.

Repost 0
JP Baquiast et Christophe Jacquemin - dans philoscience
commenter cet article
11 octobre 2007 4 11 /10 /octobre /2007 15:40
Interview
Michel Cassé
interview réalisé par Jean-Paul Baquiast pour le compte de Automates-Intelligents
02/10/2007

Michel Cassé est astrophysicien, directeur de recherche au Commissariat à l’Energie Atomique. Il a écrit de nombreux ouvrages scientifiques et de vulgarisation dont on trouvera une liste résumée dans cette page de la FNAC
http://www3.fnac.com/item/author.do?id=66365

Nous avions précédemment présenté son livre "Généalogie de la matière. Retour aux sources célestes des éléments". Editions Odile Jacob - octobre 2000:
http://www.automatesintelligents.com/biblionet/2001/jan/m_casse.html


Nos lecteurs portent beaucoup d’intérêt aux questions théoriques et pratiques intéressant l’astrophysique et la cosmologie. C’est la raison pour laquelle nous leur donnons une place croissante dans cette revue. On sait que depuis les origines de ces sciences, comme plus récemment depuis l’apparition de la physique quantique, les hypothèses formulées par les chercheurs ont toujours été reprises et exploitées par les défenseurs d’une conception mystique du monde. Ils y trouvent amplement matière à expliquer que ces hypothèses prouvent la vérité des affirmations des Ecritures et autres textes fondateurs dont les religions sont riches 1)  Cette attitude, qu’illustre aujourd’hui jusqu’à saturation les promoteurs du Dessein Intelligent, est évidemment inacceptable par le matérialisme scientifique. On doit toujours distinguer le travail de la science et les interprétations plus ou moins intéressées qu’en donnent les religions. Notre revue se fait un devoir d’ajouter sa voix à ceux qui refusent toute exploitation idéologique des travaux scientifiques.

Cependant, même entre scientifiques, des débats ont toujours existé entre ceux qui considèrent avec méfiance les hypothèses les plus contraires au sens commun formulées par les théoriciens et ceux pour qui la science n’avance que grâce à de telles hypothèses. C’est évidemment l’expérimentation instrumentale qui sert de pierre de touche. Un fait constaté par un instrument et non explicable par les modèles dominants ne peut être négligé, même s’il conduit à des hypothèses explicatives « bizarres » (weird ou spooky, en anglais). Si réciproquement, une hypothèse bizarre ne peut être immédiatement confirmée par une preuve expérimentale, elle ne doit pas pour autant être rejetée. Cette preuve peut être apportée des années plus tard.

Nul n’ignore que ce débat est au plus fort actuellement à propos de la théorie des cordes ou supercordes, ainsi qu’aux hypothèses en partie liées à la précédente concernant l’ « existence » des univers multiples. Nous avions précédemment donné la parole à l’astrophysicien Christian Magnan pour qui ces hypothèses ouvrent grande la porte de la cosmologie aux spiritualistes, faute de pouvoir être démontrées, dans l’état actuel de l’instrumentation 2) . Nous avons également présenté le dernier livre de Lee Smolin, pour qui la théorie des cordes éloigne la recherche de voies plus immédiates permettant de faire progresser la gravitation quantique 3). Mais à l’inverse, car ce n’est pas à nous de trancher dans ce débat, nous avons présenté chaque fois que le thème était évoqué en termes nouveaux, les articles des défenseurs de la théorie des cordes et du Multivers 4.

Dans le camp, si l’on peut dire, de ces derniers se trouve l’astrophysicien français Michel Cassé. Connaissant la renommée internationale de ses travaux, nous sommes heureux d'éditer l’entretien qu’il a bien voulu nous accorder sur ces sujets. Il n’échappera pas que c’est la conception que l’on peut se faire non seulement de l’univers, mais plus généralement des sciences en général, qui en découle. Automates Intelligents


Jean-Paul Baquiast, pour Automates Intelligents (JPB):
La cosmologie contemporaine, comme d’ailleurs la physique quantique, reposent sur des modèles du monde dont le moins que l’on puisse dire est qu’ils sont contre-intuitifs. Mais certains le sont plus que d’autres.

Michel Cassé (MC)
La cosmologie a atteint un certain niveau de consensus, dont la notion d’expansion de l’univers constitue la base. Mais il faut établir une distinction entre cosmologie physique, relativement bien établie (l’expansion et l’accélération tardive de celle-ci) et la cosmologie spéculative (inflation cosmologique, plurivers).

JPB. : Vous évoquez par exemple ce que l’on nomme désormais la matière noire et l’énergie noire ?

MC. On assiste aujourd’hui, en effet, à une extension considérable des concepts de matière et d’univers, Le contenu de l’univers s’est enrichi de deux composantes, la matière noire (de gravité attractive, associée le plus souvent par les physiciens des particules au neutralino, objet hypothétique, relevant de la supersymétrie, tout aussi insaisissable que le neutrino, mais beaucoup plus lourd ) et l’énergie noire (de gravité répulsive, associée par certains au vide quantique ou encore à un champ scalaire –de spin nul- appelé quintessence, et par d’autres à la constante cosmologique d’Einstein).

L’inflation cosmologique (brève période d’expansion frénétique qui efface toute courbure initiale et défroisse l’espace-temps) est censée servir de prélude au Big-Bang, elle est, dit-on, motorisée par un substrat répulsif du type énergie noire mais de densité d’énergie supérieure, et de beaucoup. Sa vertu est d’uniformiser et d’aplanir l’espace. En un clin d’œil une perle d’espace-temps enfle pour se faire plus grosse que notre univers observable. Les fluctuations quantiques du champ moteur de l’inflation servent de germe aux galaxies à naître. L’inflation a un statut épistémologique intermédiaire, car certaines de ses prédictions sont vérifiées, concernant notamment la distribution à grande échelle de la matière dans l’univers.

Le concept de plurivers, quant à lui, occupe le sommet de la spéculation. C’est le fruit du mariage de la théorie des supercordes qui fait proliférer les univers possibles (on peut en faire figurer un petit échantillon dans un « paysage » ou « landscape » à titre illustratif) et de l’inflation éternelle, mécanisme qui est censée les réaliser, c’est-à-dire les pousser à l’existence. Si ce montage théorique est vrai, l’Univers (majuscule) est un champagne généralisé dont nous n’occupons qu’une bulle (un cosmos) parmi d’autres et de fait le Big-Bang est banalisé. La création des cosmos est permanente, hasardeuse et multiple. Chaque bulle déployant un certain nombre de dimensions d’espace (3 dans le nôtre), posséde en propre sa constante cosmologique (exceptionnellement faible en ce qui nous concerne) et son jeu de particules et de forces (6 quarks, 6 leptons et 4 forces dans notre bulle d’univers). L’hypothèse du plurivers fait donc valoir l’existence d’une infinité de cosmos, tous différents les uns des autres mais tout aussi cohérents et légitimes. Elle est difficilement réfutable, ce qui rend son statut scientifique contestable. Mais c’est une bien belle idée car elle va dans le sens de la tolérance en accréditant l’idée d’altérité cosmique.


JPB. : Chacun de ces cosmos est-il doté de ses propres lois fondamentales ?

MC. : Tout dépend de ce que l’on appelle loi. On suppose que le plurivers, dans son ensemble et dans toutes ses parties est régenté par la physique quantique, la relativité générale et, en toute logique, par l’union des deux, la gravitation quantique. Il serait donc gouverné par une meta -loi dont on ne peut expliquer l’origine.

Cependant, les modalités que prend la législation physique dans les bulles d’univers sont différentes du fait que la théorie des supercordes implique l’existence, outre les trois dimensions d’espace-temps que nous éprouvons, de dimensions supplémentaires extrêmement petites et enroulées, invisibles et impalpables. Selon la manière dont elles ont été repliées dans les temps premiers, émergent des particules de masses variées et des interactions plus ou moins intenses. Si on appelle physique la somme des particules et de leurs interactions, ce qui correspond à la vision matérialiste des choses, les propriétés des particules et le nombre des dimensions d’espace n’ont aucune raison d’être identiques et peuvent varier d’un cosmos à l’autre.

JPB. : Voilà bien ce qui inquiète l’homme se voulant raisonnable. Comment faire cohabiter la raison avec l’existence d’un tel arrière-monde ?

MC. : La cosmologie ne demande pas à croire sans preuve. Je pense que l’arrière -monde en question est ou sera accessible à l’expérimentation, d’une manière ou d’une autre, certainement partielle, certes, mais dans un premier temps, il faudra s’en contenter. C’est sur ce point que je veux prendre position. L’existence de supercordes infimes dont les vibrations engendrent les particules ne peut être testée directement, c’est un fait, mais il semble possible, tout au moins, de mettre à l’épreuve les éléments particuliers de cette théorie à savoir la supersymétrie et les dimensions supplémentaires (à condition que certaines d’entre elles soient suffisamment déployées).

La supersymétrie met en relations les bosons qui véhiculent les forces et les fermions qui en sont les réceptacles. S’il existe des contreparties supersymétriques aux électrons, photons, quarks …etc…, (sélectrons, photinos, squarks) et si ces particules ne sont pas excessivement lourdes, nous devrions les voir apparaître, parmi les produits de collision de protons de haute énergie. Ces sparticules auraient les mêmes propriétés que les particules de notre monde (même masse, même charge, même spin) mais des comportement sociaux différents : prenez le sélectron, au lieu d’être un fermion régi par le principe d’exclusion de Pauli, qui interdit de mettre deux fermions dans le même état quantique, ce serait un boson, qui échappe à ce diktat.

Or le sélectron n’a pas encore été découvert. Cela veut-il dire que la supersymétrie n’est qu’un vœu pieux ? Il est de fait que si le sélectron avait la même masse que l’électron, on l’aurait déjà vu jaillir d’une collision de particules. Comme ce n’est pas le cas, on doit supposer qu’il dispose d’une masse bien plus grande que celle de l’électron. On va donc rechercher le sélectron au moyen du LHC, collisionneur à protons du CERN, ainsi que les autres sparticules dès que celui-ci entrera en service en 2008. Si on trouve une quelconque sparticule, l’hypothèse de la supersymétrie sera validée et la théorie des supercordes consolidée, à la satisfaction du théoricien car elle est bien pratique dans la mesure où elle ramène l’espace-temps de la théorie des supercordes de 26 dimensions à 10, voire 11 selon la théorie M (M Theory) d’ Edouard Witten 5) . Il est important de noter que la théorie des supercordes prédit l’existence de 10 ou 11 dimensions d’espace. En ceci elle n’est pas creuse.

JPB. : Toutes ces hypothèses ne sont évidemment pas gratuites. On essaye de faire apparaître certaines de leurs conséquences dans les appareils. C’est ce qui sépare la science de la mythologie.

Ne pas condamner la pensée spéculative

MC. Oui. Je comprends que l’on se méfie de la pensée spéculative pure (« métaphysique ») et que l’on fasse valoir le primat de l’observation et de la mesure, c’est l’essence même de la science (du moins jusqu’ici). Mais une mise à l’index hâtive serait fort dangereuse. Ainsi aurait-on stupidement jeté à la corbeille les travaux d’Einstein. Fort heureusement la relativité générale n’a pas tardée à être confirmée par l’observation. La prédiction de Dirac d’un monde d’anti-matière, quasiment symétrique au nôtre, l’a été au bout de deux ans. Faut-il s’alarmer du fait que la supersymétrie soit si longue à vérifier ? La supermatière a été prédite il y a trente ans, c’est un fait, et trois décennies cela peut sembler long. Souvenons nous cependant que le neutrino est sorti de la tête de Pauli dans les années trente mais qu’il a été mis en évidence auprès d’un réacteur nucléaire en 1957. La patience en physique, comme ailleurs, est avantageuse.

JPB. : Les discussions entre matérialistes et non-matérialistes (ou spiritualistes) proviennent en partie de différences dans la définition de ce que l’on appelle la matière. Pour les premiers, les manifestations de ce que l’on appelle l'esprit font partie de la matière.

MC. : De mon point de vue, la métaphysique ne doit pas précéder la physique, mais doit, tout au contraire, la suivre. Elle doit être ajustée à la compréhension (parfois partielle, admettons le) que nous avons de cette dernière, laquelle évolue sans cesse compte tenu des progrès théoriques et instrumentaux. Nous devons donc être très ouverts quant à la définition de la matière. La théorie des supercordes insinue que les particules de la matière ne sont que de simples notes, émanant de cordes vibrantes d’une petitesse extrême, de l’ordre de la longueur de Planck (10-33 cm), impossible donc à mettre en évidence directement. Nous voici revenus à Pythagore, peut-être, mais pas à Platon. Car ces cordes ne sont pas dans l’arrière -monde. Elles ne sont pas au delà ou en deçà de l’espace- temps. Elles sont dans l’espace-temps. La matière est ce qui est dans l’espace-temps. Si on étend le nombre de dimensions de l’espace-temps, on doit développer une autre conception de la matière. Mais il n’y a pas lieu d’évoquer une quelconque transcendance. Bref, le statut de la matière est à repenser en permanence.

JPB. : Comme il faut repenser le statut de la science. Et donner pour cela en priorité la parole aux physiciens. Pouvez-vous nous rappeler à ce niveau de notre entretien votre itinéraire de chercheur ?

MC. : Je me suis d’abord intéressé à l’origine et à l’évolution des atomes de la matière normale, celle qui constitue le monde visible, donc à la nucléosynthèse dans les étoiles, à la synthèse des éléments légers par le rayonnement cosmique qui fragmente les noyaux de carbone et d’oxygène produits par les étoiles, puis enfin à la nucléosynthèse dans le Big Bang, initié en cela par l’astrophysicienne Elisabeth Vangioni de l’Institut d’Astrophysique de Paris. A mon sens tout ceci est aujourd’hui compris, d’une façon que je qualifierais d’admirable – mais qui est loin d’être encore admise par le grand public. C’est ainsi que l’astrologie, toujours si populaire, établit un rapport scandaleux entre les planètes et les éléments chimiques. Ces derniers ne proviennent pas des planètes mais des étoiles. Il est bon de le marteler.

Je me suis tourné plus récemment vers la matière noire, qui est peut-être faite de particules sypersymétriques mais peut-être d’autres choses. J’ai proposé, en liaison avec l’observation, en l’occurrence celle du satellite européen Integral 6) une théorie de la matière noire, avec Pierre Fayet de l’ENS 7)  La raison en est qu’on observe un rayonnement d’annihilation électron-positon dans la région centrale de la galaxie, que ne peut expliquer aucune théorie d’astrophysique classique. D’où l’hypothèse de l’existence d’une autre forme de matière noire (légère, en vérité, et qui serait sa propre antimatière) dont l’annihilation produirait des positons qui, rencontrant des électrons sur leur passage, se convertiraient en rayons gamma. La légèreté de cette matière noire là serait telle que son annihilation ne produirait que des électrons et des positons, rien d’autre, et donc éviterait de jeter dans le ciel des particules indésirables.

Je travaille encore sur ce sujet, mais ma préoccupation profonde est l’énergie noire qui constitue 70% du contenu de l’univers. En elle réside la plus grande énigme du moment. On constate à ce sujet des désaccords flagrants entre la physique des particules et la cosmologie. Mais s’il y a contradiction, c’est une bénédiction. Les deux petits nuages d’incompréhension qui flottaient au dessus de la physique de la fin du 19e siècle ont donné naissance à la physique quantique et à la relativité. Aujourd’hui, nous sommes en présence d’un nuage épistémologique qui couve une pluie de concepts nouveaux, c’est du moins ce que nous pouvons espérer.

JPB. : Pour travailler sur l’énergie noire, je suppose que vous restez ce que vous êtes, c’est-à-dire un astrophysicien observateur ?

MC. : De manière générale j’essaie de ramener au monde les théories les plus spéculatives. Par exemple la prédiction de Hawking selon lequel les trous noirs ne sont ni trous ni noirs mais qu’ils brillent peut être mise à l’épreuve des faits. Les plus petits d’entre eux (les plus chauds et les plus durables) devraient émettre des rayons gamma. Voilà qui m’intéresse. Cette supputation peut elle être élargie au monde surdimensionné des supercordes ? S’il existe des dimensions supplémentaires, comment affectent-elles la manière de briller d’éventuels trous noirs microscopiques formés dans le big-bang? Peut-on les détecter ? C’est à cette question que nous tentons de répondre avec Roland Lehoucq du service d’Astrophysique du CEA.

Le développement des connaissances sur le mode darwinien

Revenons sur les rapports mutuels de la physique et de l’astrophysique. L’astrophysique est le fruit du mariage du ciel et de la terre dans la pensée humaine. Pour comprendre les astres, on a fait usage des grands principes de la physique. Aujourd’hui, la tendance est au retournement. L’astronomie se met au service de la physique pour tester ses théories spéculatives, ceci pour faire revenir au monde les théories les plus abstraites sur la matière et l’espace-temps. Si l’espace- temps comporte 10 dimensions, dont 6 sont cachées, s’il existe une ou plusieurs formes de matière que l’on ne voit pas, cela m’intéresse et je pense ne pas être le seul.

JPB. : Cela parait évident. Ce n’est pas parce que nos sens, même prolongés par des prothèses, sont limités, qu’il faut limiter l’univers à ce qu’ils voient. Les prothèses sont des instruments. Les instruments évoluent en fonction de développements technologiques qui obéissent à des lois propres, rarement volontaristes. On voit donc se développer un monde instrumental qui fourni aux cerveaux humains, de façon presque aléatoire, des éléments pour se représenter le monde. Nous sommes en face d’un système que l’on pourrait presque qualifier d’auto-complexificateur.

MC. C’est exact. Mais il est bon de savoir que ce système, tout aussi angélique qu’il puisse paraître, répond souvent à des besoins militaires. Une partie des découvertes en astrophysique a été obtenue à partir de satellites militaires. C’est ainsi que les sursauts gamma ont été découvert par des instruments américains qui surveillaient la Terre afin d’y détecter des explosions atomiques soviétiques.

JPB. : Quand on disposera un jour prochain de robots dotés de sens très évolués et interagissant entre eux pour mettre en forme leurs expériences, on obtiendra des conceptions du monde qui ne seront pas nécessairement celles des humains. Ceux-ci devront y réagir comme ils le feraient pas exemple face à des conceptions du monde produites par des extraterrestres.

MC : Oui, bien sûr.

JPB : Nous sommes donc dans un monde de connaissance qui ne se développe pas selon un plan préétabli.

MC. : Tout à fait. Il s’agit, à mon sens, d’un mécanisme quasi darwinien. Concernant les univers multiples, je voudrais insister sur un point qui aura peut-être des résonances pour vous. La théorie des multivers a au moins un avantage : elle supprime le mirage de la création unique et donc miraculeuse, pour lui donner une forme multiple et hasardeuse (quantique) où peut opérer un principe de sélection, d’adaptation. Tout se joue éternellement partout. La nécessité de grand Dessein s’efface. Les physiciens réécrivent la multi -genèse sous forme d’une création hasardeuse de multiples cosmos. Dans l’un d’entre eux émerge la vie et la conscience pour la raison que les étoiles, génératrices de carbone, azote, oxygène, entre autres, peuvent y exister, de manière contingente, voila tout.

JPB. : Encore que les croyants répondront que tout cela fait partie d’un mégamonde créé par Dieu.

MC. : Je ne crois pas, pour la raison que la mécanique quantique (véritable génératrice de monde) n’est pas intentionnelle. Les fluctuations (quantique est synonyme de fluctuant) sont purement hasardeuses. Mais, me demanderez-vous, pourquoi le monde est-il quantique, après tout ? Les religions diront : voilà, vous ne pouvez pas l’expliquer. Je dirai : je ne peux pas l’expliquer, mais ce n’est pas mon problème. Je n’ai jamais imaginé trouver l’explication d’une loi. Lorsqu’une loi tombe, je ne pleure pas, c’est qu’on en a trouvé une meilleure. Les meilleures lois sont à naître. Et je me dis, pour m’amuser, qu’il peut y avoir d’autres mécaniques, d’autres mathématiques. Pourquoi le principe darwinien ne s’appliquerait-il pas aux mathématiques ? Mais là je dépasse les bornes, j’en conviens.

JPB. : Je suppose que pour vous, puisque nous en parlons, les mathématiques elles-mêmes sont liées à l’organisation du cerveau humain ? Il n’y a pas d’entités mathématiques existant pour soi dans le cosmos. On entend pourtant parfois dire que l’univers est mathématique…8)

MC. : Cela n’a pas de sens pour moi. Les mathématiques sont dans l’espace-temps, comme les supercordes. Dans l’espace-temps de nos cerveaux en l’occurrence, mais là j’ai peur de m’égarer, je dépasse le domaine de ma compétence.

Vérifier les supercordes au CERN

JPB. : Revenons sur celles-ci, si vous voulez bien. Vous êtes tout à fait favorable à la théorie des supercordes, un cordiste convaincu, comme on dit parfois.

MC. : Oui et non. Je suis cordelièrement agnostique. J’ai traduit un livre qui va résolument contre cette théorie « Not even Wrong » de Peter Woit, qui paraîtra en français sous le titre « Pas même fausse ». Il place les supercordes d’un côté et la physique de l’autre. J’ai considéré qu’il était de mon devoir de le traduire car c’est une attaque sensée. Maintenant, quelle est sa portée ? Pour ma part, je reste absolument ouvert sur cette question. La théorie des supercordes est la seule aujourd’hui qui unifie la physique quantique et la relativité générale, en ceci elle est admirable. Certains estiment de surcroît qu’elle aurait des conséquences vérifiables par l’expérimentation, comme la possibilité de créer des mini-trous noirs dans des collisions violentes de particules. Ces minuscules trous noirs se désintégreraient aussitôt sans créer le moindre risque. Aujourd’hui certains programmes du CERN sont orientés dans le but de mettre en évidence le phénomène. On ne peut donc pas dire que la théorie des supercordes (ou tout au moins les théories à dimensions supplémentaires du type Kaluza-Klein) soit coupée de toute réalité.

JPB. : Comme quoi, la dépense engagée par le CERN, qui met l’Europe en pointe sur ce sujet essentiel, ne sera pas inutile, quoi qu’il arrive.

MC. : Bien sûr. J’en profite pour dire qu’indépendamment des conséquences qu’aura le LHC sur l’avancement des connaissances, l’infrastructure qui a été développée pour concevoir et mettre en œuvre le collisionneur aura des retombées considérables. Il convient de se souvenir qu’internet a pris naissance au CERN.

Mais revenons à notre propos. Pour la physique fondamentale, comme vous savez, les enjeux de recherche sont le(s) boson(s) de Higgs, les particules supersymétriques, les superdimensions. Si on ne trouve rien, ce sera déjà une indication précieuse. Concernant la cosmologie, je suis pour ma part déjà en alerte. Je me demande si, avec l’astronomie gamma et celle des neutrinos, on ne serait pas déjà en mesure de mettre en évidence ou, au contraire, de déclarer l’absence d’effets que ces théories physiques limites sont conduites à prédire. J’utiliserai donc l’astrophysique pour tester les théories abstraites.

J’essaye comme vous voyez de poser des traits d’union entre théorie à dimensions supplémentaires, astrophysique et cosmologie. Et au plus profond, je voudrais faire apparaître une forme de pensée nouvelle qui ne soit pas pur ésotérisme.


Notes (ces notes sont proposées par JPB)
(1) On sait que le pape Pie XII avait avancé devant l’Académie Pontificale des Sciences, en 1951, l’idée que le Big Bang, alors hypothèse toute neuve, illustrait la « vérité » du Fiat Lux. L’abbé Georges Lemaître, un des pères de cette hypothèse, lui avait conseillé de renoncer à une telle confusion des genres, entre science et religion. Voir La Recherche, N° 412, Dictionnaire des idées reçus en sciences.
(2) "Pour mieux connaître Christian Magnan"
http://www.automatesintelligents.com/echanges/2006/nov/cosmologie.html
(3)Smolin, "The Trouble with Physics, the Rise of String Theory,
the Fall of a Science and what comes next "
http://www.automatesintelligents.com/biblionet/2007/juil/troublewithphysicshtml.htm
(4) Voir par exemple David Deutsch http://www.automatesintelligents.com/biblionet/2004/jan/deutsch.html
- Voir aussi dans ce numéro l'article consacré à Aurélien Barrau, Quelques éléments de physique et de philosophie des multivers
http://www.admiroutes.asso.fr/larevue/2007/84/barrau.htm
(5) Edward Witten, né en 1951, professeur de physique théorique à l'Institute for Advanced Study de Princeton. Il a reçu la Médaille Fields en 1990. Il a présenté sa Théorie M en 1995, ce qui a généré un grand nombre de nouveaux développements au sein de la théorie des cordes. On a parlé d’une seconde révolution des supercordes.
(6) Le satellite Integral http://isdc.unige.ch/index.cgi?Outreach+integral_fr
(7) Voir Cassé " L’énigme des positons du bulbe galactique "
http://clrwww.in2p3.fr/jet04/transpa/Casse.doc.pdf
(8) Voir “Reality by numbers. What is the universe really made of”, par Max Tegmark , NewScientist 15 septembre 2007, p. 38. Voir aussi du même auteur « The mathematical universe » http://www.arxiv.org/abs/0704.0646

Repost 0
7 octobre 2007 7 07 /10 /octobre /2007 14:20
 

Quelques éléments de physique et de philosophie des multivers
Par Aurélien Barrau
Essai publié en libre-accès http://lpsc.in2p3.fr/ams/aurelien/aurelien/multivers_lpsc.pdf
130 pages

Présentation par Jean-Paul Baquiast
06/10/2007

The "Flat-Earth Wood-Cut"
The "Flat-Earth Wood-Cut" 1)

 

Aurélien BarrauAurélien Barrau est astrophysicien, maître de conférence au Laboratoire de Physique Subatomique et de Cosmologie, CNRS /IN2P3 /UJF

Ses recherches sont :
- expérimentales (astroparticules) :
CAT - Astronomie gamma (1995-1998)
AMS - Rayons cosmiques, antimatière et matière noire (depuis 1998)
CREAM - Particules à très haute énergie dans la Galaxie (depuis 2006)
Etude de l'énergie noire : en projet
- et théoriques : champs quantiques en espace courbe, trous noirs et quelques aspects de cosmologie et de physique des particules.

Pour en savoir plus
Pages personnelles (très complètes et didactiques)
http://lpsc.in2p3.fr/ams/aurelien/

 

Nous avons découvert Aurélien Barrau à l'occasion de son entretien avec Stéphane Deligeorges, sur France Culture, Continent Sciences, le 24 octobre 2007. Dans cet entretien, en grande partie consacré à l'hypothèse des multivers ou plurivers, il présentait une démarche remarquable, entre science et philosophie. Par cette démarche, pour reprendre une de ses expressions, il " essaie de créer une porosité entre l'espace scientifique et le monde mythique, de penser la plurivocité intrinsèque du réel, sans pour autant rien renier de la rigueur physico-mathématique et sans recourir aux métaphores
élégantes mais inexactes".
En un sens, il s'agit de ré-enchanter une pensée de l'immanence et de la contingence.

Il nous avoue ne pas savoir s'il y parvient. La lecture de son mémoire, en libre accès sur son site et présenté ici, nous permet de lui assurer qu'à nos yeux du moins, il y parvient excellemment. Les très nombreuses références fournies en appendice du mémoire permettront aux lecteurs curieux d'approfondir un sujet jugé jusqu'à présent difficile d'accès.

Nous n'allons pas ici résumer ce texte intitulé « Quelques éléments de physique et de philosophie des multivers », puisque chacun peut se reporter à l'original en ligne. Le document n'est certes pas toujours aisément compréhensible par les non-physiciens, à moins qu'ils n'aient quelques connaissances en relativité et en physique des particules. On pourrait souhaiter que l'auteur présente le même travail sous une forme plus aisément accessible, mais il ne faut pas se dissimuler l'importance de la tâche, qui le distrairait certainement de recherches autrement plus fécondes, pour lui comme pour nous.

Aurélien Barrau veut montrer la continuité entre les hypothèses des philosophes de l'Antiquité et les recherches les plus modernes, sur un thème qui a été et redevient d'actualité, celui joliment baptisé par Fontenelle (l'origine du terme est plus ancienne) de « pluralité des mondes » et qu'illustre d'une façon extraordinairement visionnaire la remarquable gravure reprise par l'auteur et que nous reproduisons à notre tour ici. Contrairement à ce que pense souvent le public, de telles hypothèses n'ont pas attendu pour s'exprimer les concepts qui sont désormais dans tous les esprits : Big Bang, Trous noirs, univers parallèles et/ou multiples. Bien avant la relativité générale, la physique quantique et la théorie des cordes qui leur donnent désormais une consistance réellement scientifique, la pluralité des mondes, le caractère relatif du temps, l'infini avaient été évoqués par un grand nombre de penseurs de l'Antiquité ou du haut Moyen Age, jusqu'à ce que le retour d'obscurantisme ayant accompagné la prise du pouvoir temporel par la Chrétienté en Occident les ait pendant plusieurs siècles obligés à la clandestinité. .

Le thème essentiel qui inspire l'auteur, thème présenté dès l'introduction du mémoire, est celui du «retour de la contingence». Qu'entend-il par cette expression un peu ésotérique? Il s'agit d'une véritable rupture épistémologique, qui devrait bouleverser non seulement les sciences physiques mais les connaissances scientifiques en général, dont cependant l'immense majorité des scientifiques et des philosophes des sciences ne semblent pas encore avoir pris conscience. On dit d'un évènement contingent qu'il est survenu au hasard, d'une façon non déterminé à l'avance. Il a surgi de façon aléatoire d'une multitude de possibilités. Une infinité d'autres évènements analogues ou différents peuvent se produire de la même façon. C'est ainsi que serait apparu l'univers particulier dont nous sommes des parties. Il présente la caractéristique de comporter des lois permettant la vie et la conscience. D'autres univers, permettant eux aussi des formes de vie et de conscience éventuellement différentes, ou au contraire n'en comportant pas, émergent et disparaissent en permanence. Il n'y a donc pas de grand Dessein, voulu à l'avance par une volonté supérieure pour créer un Homme doté d'une conscience faite à son image, puisque le méta-monde ainsi défini ne laisse pas de place pour une telle volonté 2).

Nous l'avons vu, ces supputations n'avaient pas attendu la physique moderne pour se faire jour. D'innombrables mystiques panthéistes, de nombreux philosophes en avaient eu l'intuition 3). Mais, fait nouveau considérable, les hypothèses sur le multivers, jusque là fondées sur l'imagination prémonitoire de penseurs n'ayant que leurs yeux pour observer le monde, découlent dorénavant des théories physiques les plus élaborées de la science moderne, elles-mêmes suggérées par un ensemble d'instruments de plus en plus sophistiqués. Nous passons donc de la construction philosophique, dont les frontières avec les croyances religieuses peuvent se révéler floues, à une véritable démarche scientifique expérimentale, celle qui a fait le succès de la pensée matérialiste occidentale. Là est la rupture épistémologique.

Or de cette rupture beaucoup de gens précisément doutent encore. Selon eux, la théorie du multivers 4) ne serait pas scientifique. A tout le moins, elle ne le serait pas encore, tant qu'elle n'aurait pas été démontrée par des expériences objectives indiscutables. Dans ce cas, il serait prudent de ne pas l'évoquer dans les travaux sérieux, car l'on risquerait de relancer l'audience des mythologies 5)

C'est une telle prudence qu'Aurélien Barrau, comme Michel Cassé et d'autres astrophysiciens à la pointe de la recherche dans ce domaine, veulent contester. Il va devenir possible, si ce n'est déjà fait, de démontrer que le multivers est une théorie scientifique – sans rien perdre cependant de ses dimensions mythiques ou imaginaires. L'entrée en fonction prochaine du grand collisionneur à hadrons du CERN devrait dans cette perspective se révéler fructueuse – ceci quels que soient les résultats, prévus ou imprévus, qui sortiront des premières expériences destinées à vérifier ou falsifier certaines conséquences de la théorie.

L'histoire de la pensée

Pour comprendre comment aujourd'hui se pose la question du multivers, le retour à l'histoire de la pensée s'impose. Dans le premier chapitre de son essai, Aurélien Barrau montre que, depuis Anaximandre jusqu'aux penseurs des temps modernes, les thèmes de la pluralité des mondes, d'un renouvellement toujours recommencé, du caractère relatif de l'espace-temps tel que nous le percevons, ont toujours parcouru les sociétés humaines. Aux origines de celles-ci, le pressentiment qu'il y avait quelque chose au-delà des apparences du monde physique avait sans doute suscité de grandes angoisses. Croire en des divinités certes omnipotentes mais à l'image de l'homme permettait de calmer ces angoisses. Lorsque le cerveau ne peut trouver d'explication rationnelle à certaines de ses intuitions, il invente une entité dont il fait la cause immédiate de ce qu'il ne comprend pas et il cesse de rechercher des causes plus profondes.

Cependant, dès la plus haute antiquité, un certain nombre de philosophes courageux ont refusé cette facilité et ont poursuivi l'effort de préciser et discuter leurs premières intuitions métaphysiques. Ils l'ont fait souvent à leurs risques et périls, car ils remettaient ainsi en question, non seulement les affirmations et le pouvoir des religions, mais ce que l'on pourrait appeler la tyrannie du bon sens et le jugement des « honnêtes gens ».

Aurélien Barrau montre que de nos jours, la critique philosophique des illusions du prétendu bon sens s'est élargie et rejoint celle des sciences physiques modernes. La réflexion menée par les deux auteurs qu'il a choisi de nous présenter, Nelson Goodman et David Lewis, dont la lecture est malheureusement assez difficile, le montre. Leurs travaux de déconstruction-construction appliqués aux mondes créés par le langage et les assertions logiques rejoint ce que la théorie de l'information et la physique, notamment la mécanique quantique et la relativité, avaient déjà affirmé pour leur compte depuis maintenant un siècle.

Nous nous trouvons ainsi confrontés à une double approche mettant fortement en doute le postulat de base des sciences du monde macroscopique, auquel se réfèrent encore la plupart des chercheurs. Selon ce postulat, dit "réaliste", il existe un univers extérieur à l'homme, indépendant de l'esprit de celui-ci, qu'il est possible de décrire par des modèles constamment affinés grâce à l'expérience 6) . Montrer le relativisme du « réalisme », autrement dit la non-consistance ontologique des contenus de connaissance ouvrait donc ainsi en grand la voie dans laquelle peuvent aujourd'hui s'épanouir les hypothèses cosmologiques toutes récentes sur le multivers.

Pour bien comprendre comment ces hypothèses sur le multivers paraissent dorénavant incontournables, il faut avoir fait précédemment l'effort – difficile – de bien comprendre la démarche et les résultats actuels des différentes théories physiques modernes qui y conduisent : le modèle standard de la cosmologie physique, le modèle des particules élémentaires, la théorie des cordes (forme considéré généralement comme la plus accomplie de l'effort visant à unifier la relativité et la physique quantique), la mécanique quantique elle-même, d'autres hypothèses encore. … Il est impressionnant de constater que, quelque soient les points de départ de ces diverses recherches, toutes finissent, naturellement si l'on peut dire, par évoquer l'hypothèse du multivers comme la plus simple (au regard du fameux rasoir d'Ockham) et aussi la plus nécessaire.

Les théories physiques modernes

L'essai d'Aurélien Barrau a le grand mérite de ne pas renoncer à nous présenter les principales théories physiques énumérées ci-dessus. La lecture devient là fort ardue et découragera beaucoup de lecteurs, bien qu'elle n'approche pas en complexité ce que sont les publications des revues de physique proprement dites, dont le site de l'auteur nous donne un aperçu. Nous pensons cependant qu'il ne faudra pas se laisser rebuter et entrer dans le corps du texte, en se référant à l'occasion aux nombreuses notes qui l'accompagnent. En fait les passages véritablement difficiles concernent, nul ne s'en étonnera, la présentation de la théorie des cordes, dont le caractère contre-intuitif a fait la réputation.

Il n'est pas utile ici de paraphraser l'auteur quand il nous montre comment la théorie des cordes, d'un côté, la mécanique quantique de l'autre, tout au moins dans l'interprétation d'Hugh Everett aujourd'hui reprise par David Deutsch et al 7) aboutissent au multivers. Il nous suffira d'indiquer comment, pour Aurélien Barrau, la description de l'univers relativement innocente et bien connue dite du modèle standard de la cosmologie physique ou du Big Bang chaud (à ne pas confondre avec le modèle standard de la théorie des particules élémentaires), recèle de nombreuses « bombes conceptuelles » dont le bon sens populaire semble s'être accommodé, mais qui devraient au contraire l'inquiéter et le conduire à réfléchir davantage.

Ce modèle standard de la cosmologie physique a l'avantage, comme le montre l'auteur, de nous obliger à poser la question fondamentale, que l'on retrouve partout aujourd'hui, y compris dans les sciences macroscopiques, de ce que peut être la connaissance scientifique face à un supposé «réel» . La cosmologie physique est la représentation que l'astrophysicien, qui est à la fois théoricien et astronome, c'est-à-dire observateur instrumental, se donne de notre univers. Aurélien Barrau rappelle que la possibilité d'une description scientifique de celui-ci est souvent mise en doute, du fait notamment que l'observateur est inclus dans l'objet observé (on ne peut sortir de l'univers pour le décrire de l'extérieur et le comparer éventuellement à d'autres), du fait que l'expérience n'y est pas reproductible 8)  et du fait enfin que les conditions initiales (les constantes universelles) ne sont pas contingentes. Autrement dit, elles paraissent déterminées. Toute modification, même infimes de celles-ci entraînerait une modification de notre univers, de telle sorte que notre existence n'y serait plus possible. Or si on ne peut modifier les conditions initiales, comme faire apparaître une super-loi qui les contiendrait toutes ?

Malgré ces difficultés, rien n'est venu jusqu'à présent contredire le postulat selon lequel l'univers cosmologique pouvait être étudié scientifiquement comme n'importe quel objet physique. Des expériences convergentes prouvant ce que l'on pourrait appeler la « réalité » du Big Bang et des Trous noirs ne sont plus mises en doute. Les observations récentes relatives à des phénomènes encore inexpliqués et dénommés matière noire et énergie noire obligent à reprendre certains modèles mais ne nécessitent pas leur refonte complète. Preuve en est la théorie de l'inflation qui, malgré ses aspects surprenants, a permis d'expliquer des phénomènes que ne prévoyait pas la théorie du Big Bang standard.

Notons cependant que, pour Aurélien Barrau et nombre de ses collègues, l'inflation (telle que décrite par Andrei Linde et ses successeurs) n'est pas une théorie. C'est plutôt une sorte de paradigme, sur le mode du « tout ce passe comme si une telle inflation s'était effectivement produite ». Celle-ci peut ou pourra être testée mais des lacunes subsisteront sans doute. De plus, l'inflation pourrait étendre son influence au delà du rayon observé de notre univers (rayon de Hubble) et induire, selon des suites complexes de réchauffements et d'expansions, un méta-univers en auto-reproduction infinie et en éternelle expansion. Il n'y aurait plus un Big Bang mais une infinité de Big Bangs. Ceci montre qu'avec l'inflation, on a déjà dépassé les limites d'une interprétation réaliste de la cosmologie, laquelle obligeait à s'arrêter à la singularité du Big Bang sans chercher à voir au-delà. On débouche en plein dans une des versions de la théorie du multivers – sans rien concéder pour autant à la métaphysique et moins encore à la mythologie.

Les différents types de multivers

L'étude du multivers est si avancée que les spécialistes sont depuis déjà quelques années en mesure de proposer une typologie des différentes formes et contenus qu'il peut adopter, en fonction des théories. Aurélien Barrau nous en donne une liste détaillée, à partir de la page 72. Nous invitons notre lecteur à s'y reporter. Il pourra à cette occasion réviser utilement ses connaissances relatives aux différentes hypothèses théoriques autour desquelles s'organisent non seulement les descriptions mathématiques mais les recherches expérimentales menées par la physique et l'astronomie contemporaine. On peut distinguer plusieurs niveaux d'univers parallèles ou multivers, proposant une sorte de hiérarchie. Dans les niveaux les plus simples, les lois de la physique sont les mêmes en tout point du multivers. Ceci veut dire qu'en principe des êtres vivants et/ou intelligents comme nous pourraient s'y rencontrer 9) . A des niveaux supérieurs, le multivers est constitué de régions présentant (ou pouvant présenter) des lois physiques différentes. La vie et l'intelligence n'en seraient pas exclues par principe, en fonction des définitions données à ces propriétés. Mais leurs formes nous seraient profondément étrangères. Une méta-théorie ou méta-loi continuerait cependant à régir l'ensemble. A des niveaux encore plus grands de complexité, correspondant par exemple aux différents embranchements apparaissant suite à la réduction de la fonction d'onde quantique dans l'interprétation d' Everett, le paysage serait encore plus diversifié et ondoyant – diapré, selon l'expression d' Aurélien Barrau.

Cette typologie n'a pas pour objet de mettre en question l'existence du multivers. Les différentes théories, nous dit l'auteur, prédisent son existence sans ambiguïtés. Le multivers n'est pas une théorie, mais une prédiction faite par un certain nombre de théories. Il faut donc envisager les différents indices observationnels qui permettraient de confirmer ou infirmer cette prédiction et donc de valider les théories ayant abouti à elle.

Pourquoi prédire le multivers ? A l'inverse, pourquoi ne pas le prédire ?

Aurélien Barrau rappelle que, pour beaucoup de personnes, il n'y a pas de raisons de faire des prévisions sur le multivers puisque ces prévisions, pour le moment, ne peuvent être vérifiées. Il faudrait donc s'en tenir à une vision étroite des choses, ne permettant aucune heuristique. Mais il pose la question autrement : pourquoi ne pas prédire le multivers ? Il rappelle que de telles prédictions sont les conséquences les plus simples et les plus élégantes, au regard du rasoir d'Ockham, découlant des principales théories contemporaines. Mais, bien plus, elles sont dans la logique même de la cosmologie. Celle-ci passe progressivement de prédictions relatives à des objets entrant dans notre champ instrumental, par exemple les astres visibles, jusqu'à des prédictions relatives à des objets hors de notre cône de visibilité, soit qu'ils n'y soient pas encore entrés, soit qu'ils en soient sortis. Faudrait-il renoncer à les traiter en objets d'étude ? De proche en proche, en suivant cette démarche, il est légitime d'en arriver à étudier le multivers et au sein de celui-ci, des objets qui risquent de n'être jamais observables par nous, ni même concevables en détail.

La question de la vérification expérimentale de la prédiction sur le multivers soulève d'immenses difficultés méthodologiques et pratiques, dont l'essai nous donne un aperçu vertigineux. Mais elle n'est pas impossible. L'apparition de nouveaux instruments, tel que le LHC du CERN précité ou l'observation satellitaire du ciel donnera de nouveaux indices. La difficulté la plus grande n'est donc ni méthodologique ni pratique. Elle est bien plus fondamentale encore. Elle oblige à une nouvelle révolution épistémologique de grande ampleur, celle qui impose non seulement de nouvelles conceptions des contenus de connaissances, mais de nouvelles conceptions relatives à ce qu'est la connaissance scientifique elle-même. Notre cerveau a évolué – comme celui des animaux d'ailleurs - de façon à nous donner des vues cohérentes et unifiées de notre environnement, sans lesquelles la survie ne serait pas possible. Face à des informations nouvelles sur le monde qui obligeraient à se représenter des arrières mondes ne répondant à aucunes des exigences logiques auxquelles nous sommes habitués, il a beaucoup de mal à s'adapter.

Mais pourquoi, dira-t-on, devrait il s'adapter ? Nous ne vivrons ni mieux ni plus mal en restant persuadés que l'univers s'arrête aux limites du visible. Une des réponses à cette question, que suggère l'essai d'Aurélien Barrau, est que la science, comme toute activité caractérisant le vivant, que ce soit la prolifération bactérienne ou l'art, ne peut s'auto-limiter. Constamment, elle remet en cause ses acquis et dépasse ses frontières. Nous sommes en fait emportés par un flot qui nous dépasse et auquel, que nous le voulions ou non, nous sommes obligés de céder. Mieux vaut donc en prendre conscience et s'y résoudre, plutôt que se laisser enfermer dans des a priori cognitifs devenus sans issus.

Les dernières pages de l'essai constituent une remarquable illustration d'une conception d'un multivers, le nôtre, où tout est possible et où tout ce qui est possible a lieu. La science y rejoint le merveilleux, l'une appuyant l'autre et réciproquement. Nous ne les paraphraserons pas, encourageant au contraire notre lecteur à s'y reporter, sans se laisser rebuter par d'inévitables difficultés mettant à rude épreuve la façon traditionnelle de penser.

Questions

Le thème du multivers est si riche et si nouveau que les questions abondent, pertinentes ou non. Sans prétendre épuiser le sujet, en voici quelques-unes:

- Peut-on envisager que se produisent, même avec une probabilité infime, des évènements marquant l’irruption dans notre monde macroscopique de fluctuations venues d’un infra-monde ? On retrouve là l’hypothèse des « cerveaux de Boltzmann » que nous avions évoqué dans un article précédent. Cette dernière concerne le monde quantique 10).

- Plus généralement, que devraient être les conséquences sur les comportements scientifiques quotidiens de la révolution paradigmatique découlant de l’ouverture à la physique du multivers ? Faudrait-t-il en revenir à l’anarchisme épistémologique recommandé par Paul Feyerabend ? Cela se traduirait par une plus grande attention à l’insolite et plus généralement par la multiplication des hypothèses. Le coût en serait important mais les bénéfices pourraient être très grands. La question doit d’abord être posée en ce qui concerne les sciences physiques, mais elle peut aussi l’être dans l'ensemble des domaines scientifiques. On ne devra pas se cacher cependant qu’une telle ouverture stimulerait l’imagination de tous les vendeurs de fausses sciences et de tous les faiseurs de miracles. Il faudra consacrer beaucoup d’argent et de temps à les combattre par des arguments scientifiques.

- Ne devrait-on pas, en étendant cette réflexion, se poser la question de ce que l'on pourrait appeler le statut cosmologique du cerveau. Elle nous parait si importante que nous nous étonnons de voir qu'elle ne semble pas préoccuper les cosmologistes, comme s'ils oubliaient que c'est leur cerveau qui pense à leur place 11) Par cerveau, nous désignons l'organe cérébral lui-même, que ce soit celui de l'homme, de l'animal ou du robot intelligent. On peut l'étendre au réseau d'échanges d'information qu'il tisse avec ses semblables. Nous disons bien cerveau et non esprit ou conscience qui ne sont que des manifestations du fonctionnement de l'organe. Nous préférons d'ailleurs éviter ici ces termes d'esprit et de conscience car employés sans précautions, ils ouvrent la porte à toutes les dérives spiritualistes.

S'interroger sur le statut cosmologique du cerveau consiste à se demander comment un organe certes très complexe mais fini peut créer des modèles ou simulations de mondes s'étendant sur des milliards d'années lumière, voire imaginer des univers multiples infinis ne présentant aucune référence avec ce que ce même organe est habitué à traiter. C'est tout le problème, dira-t-on, de l'apparition d'entités dites intelligentes dans le cosmos. Peut-être. Mais justement. Les systèmes d'informations que créent ces entités ont-ils un rôle dans l'évolution cosmologique? Les cerveaux créent-ils de nouveaux univers qui s'ajouteraient à ceux déjà existants? Seraient-ils, d'une façon qui resterait à montrer, organisés en fonction de méta-lois régnant dans les infra-univers, ce qui leur permettrait d'en parler avec pertinence ? Et si oui, comment ces méta-lois pourraient-elles influencer en quoique ce soit leur organisation ou leur fonctionnement? De telles suggestions risquent de conduire de nouveau certains à évoquer l'existence d'une divinité qui inspirerait le monde global. Mais il va de soi que nous voudrions nous limiter à poser la question en termes scientifiques.

- Sur un plan plus pratique, ne faudrait-il pas envisager la réalisation de systèmes artificiels simulant le multivers. On évoque souvent, comme l’a rappelé Aurélien Barrau, la possibilité que notre monde soit une simulation se déroulant à l'intérieur d'un univers plus important, tel qu'un Trou noir en expansion. Nous pensons que, sans nécessairement approfondir cette hypothèse, les cosmologistes défendant la thèse du multivers devraient, aujourd'hui ou plus tard, essayer d’en simuler sur ordinateur telle ou telle version. Laisser ces systèmes évoluer librement pourrait sans doute enseigner beaucoup de choses. De plus, des multivers artificiels pourraient interagir avec les consciences artificielles, proches ou différentes de la conscience caractérisant les animaux et les humains, qui sont en cours de réalisation dans les laboratoires. L'apparition de ces dernières dans la vie quotidienne, sauf catastrophes, se produira dans les prochaines décennies. Elles créeront peut-être aussi leurs propres univers.


Post scriptum: Nous avons reçu d' Aurélien Barrau, à qui nous avions soumis le texte ci-dessus en relecture, le commentaire suivant:

" Je suis impressionné par cette synthèse et les interrogations profondes qui la suivent. Mais peut-être pourriez-vous ajouter à propos des multivers que l'un des points centraux, à mon sens, de cette approche vient de ce qu'elle conduit inéluctablement à des mondes "merveilleux" (au sens strict qui n'est évidemment ni le magique ni le miraculeux, on demeure dans l'ordre naturel) car invisibles et pluriels mais que ces derniers apparaissent comme une conséquence d'un raisonnement purement scientifique et déductif. Autrement dit, c'est une nouvelle forme de genèse du mythe.

Celle-ci est d'autant plus magnifique qu'elle peut effectivement être mise à l'épreuve d'une façon (contrairement à ce qui est souvent dit) strictement analogue dans ses fondements à ce qui se pratique dans la science "usuelle" au sein d'un monde unique. « Ce n'est pas le moindre des charmes d'une théorie que d'être réfutable » disait le grand Nitzsche, bien avant Popper !"
. A.B. 07/10/07


Notes
(1) L'histoire de cette extraordinaire image, dite « Flat-Earth Wood Cut » mériterait à elle seule toute une étude. Elle a été popularisée par Camille Flammarion dans son Astronomie populaire de 1888: un audacieux astronome découvre que la Terre n'est pas plate et qu'elle est entourée d'un grand nombre d'astres orbitant d'elle. Mais curieusement, ce n'est pas le système solaire seul que découvre l'astronome, mais la galaxie, sinon le cosmos tout entier. Le système solaire et les étoiles proches sont en effet représentés sur la première sphère, celle de l'univers visible de la Terre. Le regard de l‘astronome va bien au-delà. Il embrasse une pluralité de mondes, d'ailleurs différents les uns des autres. On peut donc dire que l'image préfigure la vision moderne des univers multiples.
Mais qui fut l'auteur de cette gravure sur bois, coloriée après coup ? Les quelques recherches que j'ai pu faire rapidement ne me permettent pas de conclure. S'agit-il d'une œuvre des XVIIe ou XVIIIe siècles, reprise par Flammarion, ou d'une création originale de ce dernier ?
Quoi qu'il en soit, la gravure par son puissant pouvoir évocateur a été utilisée de nombreuses fois depuis, en illustration d'ouvrages très différents. Elle a même servi de logo commercial. Nous pouvons dire qu'il s'agit d'un « mème » dont le pouvoir d'auto-réplication darwinien ne cesse de s'exercer. La preuve en est que nous la reprenons nous-mêmes, après Aurélien Barrau, lui donnant ainsi la possibilité de contaminer de nouveaux esprits. Sur ce sujet, voir http://homepage.mac.com/kvmagruder/flatEarth/
(2)On retrouve, appliquée à une toute autre échelle, l'apostrophe de Laplace : je n'ai pas besoin de Dieu dans mes équations.
(3) Sur l'histoire des sciences dans la Grèce Antique existent de nombreux sites consultables sur Internet. Celui de Michaël Lahanas nous a paru offrir une bonne introduction (anglais) http://www.mlahanas.de/Greeks/Greeks.htm
(4) Il faudrait pour bien faire parler d'hypothèse plutôt que de théorie. Une théorie, dans le langage courant, suppose que de nombreuses preuves expérimentales démontrent la validité de ses hypothèses, au moins dans les limites de celle-ci. Mais le terme de théorie est généralement utilisé sans de telles précautions. On parle couramment de la théorie des cordes, dont les preuves expérimentales manquent encore. Mais, comme nous le verrons, présenter les cordes ou les supercordes comme des théories signifie que l'on ne renonce pas à leur trouver des démonstrations expérimentales. A l'inverse, on ne parlerait pas d'une théorie du ciel et de l'enfer.
(5) Nous expliquons, dans l'éditorial de ce numéro, qu'après avoir été nous-mêmes très sceptiques face aux assertions de la théorie des supercordes, nous sommes désormais convertis (eh oui) à l'idée que l'homme moderne pourrait avoir grâce à elle une occasion exceptionnelle d'élargir ses conceptions du monde, de la science et bien entendu, du matérialisme scientifique…le tout sans verser dans la métaphysique.
(6) Nous avons dans notre propre ouvrage «Pour un principe matérialiste fort», utilisé le terme bien connu de réalisme pour qualifier un tel postulat, retenant celui de non-réalisme ou constructivisme pour désigner la démarche du cerveau humain par laquelle il construit, à partir d'entrées sensorielles qui sont ce qu'elles sont sur le moment, un modèle du monde pouvant lui servir de repère comportemental.
(7) Voir NewScientist : Parallel universes born again 22 septembre 2007, p. 6.
(8) D'autant moins que les énergies mises en jeu aux premiers instants excèdent largement ce que peuvent produire les accélérateurs actuels.
(9) L'auteur a longuement discuté dans l'essai les diverses versions du principe anthropique physique (c'est-à-dire à l'exclusion de sa version téléologique qui n'intéresse pas la science).
(10)Voir http://www.automatesintelligents.com/echanges/2007/aout/boltzmann.html
(11)Voir Chris Frith, Making up the Mind. How the Brain Creates our Mental World
http://www.automatesintelligents.com/biblionet/2007/juil/frith.html

Repost 0
21 août 2007 2 21 /08 /août /2007 21:48
Sur les cerveaux de Boltzmann

par Jean-Paul Baquiast

22/08/07

Voir aussi notre article : Pourquoi les lois fondamentales de la physique paraissent-elles ajustées pour permettre la vie et la conscience ?
http://www.admiroutes.asso.fr/larevue/2007/82/anthropique.htm

Ludwig Eduard Boltzmann

Un article récent de Mason Inman, dans le NewScientist du 18 août 2007, p. 20 (voir Spooks in Space ) soulève un curieux problème, qui ne semble intéresser que quelques rares cosmologistes théoriciens du multivers, tels Don Page et Andrei Linde. Il s’agit d’une hypothèse selon laquelle les fluctuations de l’énergie du vide pourraient faire apparaître de façon aléatoire des « observateurs » dits Boltzmann Brains, lesquels pourraient venir en concurrence avec les observateurs humains dans l’observation de l’univers.

Le concept de cerveau de Boltzmann, ou Boltzmann Brain, dénommé aussi paradoxe du cerveau de Boltzmann (qu’il ne faut pas confondre avec le concept de machine de Boltzmann désignant un certain type de réseaux de neurones) a été développé récemment à partir d’une intuition déjà ancienne due à Ludwig Boltzmann (1844-1906).

Un cerveau de Boltzmann serait une entité consciente née d’une fluctuation aléatoire provenant d’un état fondamental de chaos thermique. Boltzmann ne connaissait évidemment pas la physique quantique. Mais il avait cherché à comprendre pourquoi nous observons un haut degré d’organisation dans l’univers (ou bas niveau d’entropie) alors que la seconde loi de la thermodynamique professe que l’entropie devrait augmenter sans cesse. Dans ce cas, l’état le plus probable de l’univers devrait être proche de l’uniformité, dépouvu d’ordre et présentant par conséquent une entropie élevée.

Boltzmann avait formulé l’hypothèse selon laquelle nous-mêmes et notre univers, nous serions les résultats de fluctuations se produisant au hasard au sein d’un univers à entropie élevée. Même au sein d’un état proche de l’équilibre, on ne peut exclure de telles fluctuations dans le niveau de l’entropie. Les plus fréquentes seraient relativement petites et ne produiraient que de bas niveau d’organisation. Mais occasionnellement, et de façon de plus en plus improbable en fonction de l’élévation du niveau d’organisation, des entités plus organisées pourraient apparaître. Pourquoi n’en observons-nous pas davantage ? Parce que vu les dimensions considérables de l’univers ces entités hautement organisées sont très rares à notre échelle d’espace-temps. De plus, par un effet de « sélection », nous ne voyons que le type d’univers hautement improbable qui nous a donné naissance, et non d’autres éventuellement différents. Il s’agit là de l’application avant la lettre, par Boltzmann, du principe anthropique faible.

La concurrence de niveaux d’organisation moins élevés

Ceci conduit au concept de cerveau de Boltzmann. Si le niveau d’organisation de notre univers, comportant de nombreuses entités conscientes, est le résultat d’une fluctuation au hasard, son émergence est bien moins probable que celle de niveaux d’organisation moins élevés, seulement capables de générer une seule entité consciente, elle-même plutôt rustique. Ces entités devraient donc être d’autant plus nombreuses que serait élevée la probabilité de leur apparition. Ainsi devraient exister des millions de cerveaux de Boltzmann isolés flottant dans des univers faiblement organisés. Il ne s’agirait pas nécessairement de cerveaux tels que nous les connaissons, mais seulement de structures suffisamment organisées capables de jouer le rôle d’observateurs tels que le sont les humains quand ils observent leur univers.

C’est ici que l’on rejoint la science moderne, notamment la cosmologie. Celle-ci postule que ce que nous observons, donnant naissance aux lois de la physique, s’applique à l’univers tout entier. Dans la physique « réaliste », l’univers « en soi », existant indépendamment des observateurs, est donc conforme à ce que nous observons. Pour notre part, dans le présent article, afin prendre en compte la relation entre l’observateur et l’observé introduite par la physique quantique, nous dirions que ce que nous observons décrit un certain type de relations entre l’observateur et l’observé, typique de l’univers tel qu’il nous apparaît. Si nous retenons l’hypothèse constructiviste développée par certains physiciens quantiques, nous irons plus loin. Nous supposerons que ce que nous observons décrit un univers créé par la relation entre l’observateur que nous sommes et l’observé que nos instruments nous permettent de caractériser. Mais dans tous les cas, la position unique d’observateur qui est la nôtre devrait nous permettre d’affirmer que l’univers tel que nous l’observons (ou le construisons) est lui-même unique.

Ce ne serrait plus le cas si, conformément à l’hypothèse des cerveaux de Boltzmann, il existait des myriades d’observateurs observant un univers plus global que celui que nous observons. Ceux-ci pourraient être si nombreux, dans un futur de plusieurs milliards d’années, qu’ils nous remplaceraient en tant qu’observateurs. De ce fait, l’univers que nous avons cru pouvoir décrire perdrait toute pertinence. Des visions du cosmos profondément différentes de celles que nous en avons pourraient remplacer la nôtre. Il ne s’agirait d’ailleurs pas de simples visions virtuelles mais en fait d’univers différents qui se substitueraient au nôtre, si l’on retient l’hypothèse que les univers naissent de l’interaction entre observé et observateur.

Des fluctuations dans l’énergie du vide

Selon Andréi Linde, de Stanford, cité par Mason Inman, ce ne sont plus des fluctuations dans le niveau d’entropie qui généreraient des cerveaux de Boltzmann, mais des fluctuations dans la force répulsive, qualifiée d’énergie noire, constante cosmologique ou énergie du vide. On retrouve là les hypothèses déjà familières relatives à l’énergie du vide. Il est à peu près admis que le vide quantique fluctue puisque par définition, les « particules » qui le peuplent ne peuvent être au repos. Il peut en émerger de façon aléatoire des couples de particules-antiparticules qui s’annihilent, mais aussi des photons voire des atomes qui interagissent avec la matière ordinaire. Rien n’interdit de penser que sur une durée de temps suffisante, puisse se produire une émergence d’objets plus complexes. Il s’agirait de phénomènes très improbables mais non entièrement impossibles.

La probabilité d’apparition d’une entité consciente répondant aux caractéristiques du cerveau de Boltzmann serait si faible qu’aucune d’entre elles, dit-on, n’aurait eu la chance de se matérialiser pendant les 13,7 milliards d’années correspondant à l’histoire de notre univers. Mais si celui-ci s’étend indéfiniment sous la pression de l’énergie noire, sa durée de vie s’étend elle-même sans limites et les chances de voir apparaître des cerveaux de Boltzmann augmentent considérablement. Ces cerveaux, il est vrai, n’observerait plus un univers tel que nous connaissons, mais des espaces uniformes, froids et noirs, inhospitaliers pour nos formes de vie. Alors nos propres intelligences auraient depuis longtemps disparu et la forme d’intelligence incarnée par ces cerveaux dominerait le cosmos entier.

Nous n'évoquerons pas dans ce court article les tentatives des cosmologistes pour qui l’hypothèse des cerveaux de Boltzmann mérite d’être approfondie. Ils s’efforcent de rendre compatible cette hypothèse avec d’autres plus traditionnelles, mettant en scène l’inflation (une inflation éventuellement non limitée dans le temps) et l’émergence de bébés-univers au sein d’un multivers plus général. Nous avons plusieurs fois dans cette revue indiqué notre défiance vis-à-vis de tels modèles, qui pour le moment ne paraissent pas pouvoir être testés expérimentalement.

Les cerveaux de Boltzmann peuvent-ils être déjà parmi nous ?

Mais il nous semble que, plus immédiatement, des hypothèses exploitant le concept des cerveaux de Boltzmann mériteraient d’être formulées. Peut-être même pourrait on essayer de les vérifier. La possibilité de voir émerger, dans notre monde matériel, à partir de l’énergie du vide, des objets complexes pouvant éventuellement prendre la forme d’entités intelligentes ne serait pas à exclure. Le fait que cette émergence soit hautement improbable, sur la trop courte période de 14 milliards d’années, n’interdit pas en effet qu’elle ait pu se produire, au moins une fois. Point n’aurait été pour cela besoin d’attendre des trilliards d’années. Ainsi, si mes chances de gagner à la loterie sont infimes, rien ne m’interdit en termes de probabilités de gagner dès le premier coup, quitte à ce que cette éventualité ne se reproduise plus avant des millions d’années.

Autrement dit, un ou plusieurs cerveaux de Boltzmann, incorporés à des ensembles d’atomes plus ou moins organisés, auraient déjà pu apparaître dans notre monde à partir de l’énergie du vide. Certains d’entre eux se sont peut-être développés dans des parties de l’univers que nous ne connaissons pas ou que nous ne connaîtrons jamais, compte tenu de l’expansion. Pourquoi, de la même façon, ne pas faire l’hypothèse que l’intelligence des systèmes biologiques dont nous sommes des composants puisse être née d’une émergence de cette nature. Dans cette même ligne de conjectures, nous ne pouvons pas exclure la possibilité de voir un cerveau de Boltzmann se matérialiser dans notre monde sous une forme et dans des circonstances que nous n’aurions évidemment pas pu prévoir. Il serait paradoxal que si ce phénomène pour le moins surprenant se produisait sous nos yeux, nous l’attribuions à la manifestation d’un extra-terrestre – voire pour les esprits religieux à un miracle – alors qu’il ne s’agirait que d’une manifestation banale du monde quantique sous-jacent, monde dont nous ne connaissons encore pratiquement rien.

Dans l’article sur les lois fondamentales de la physique, référencé en exergue, nous évoquions plusieurs hypothèses pouvant justifier le fait que ces lois sont ce qu’elles sont. Certaines de ces hypothèses pourraient utilement être rapprochées de celle des cerveaux de Boltzmann telle que présentée dans ce dernier paragraphe du présent article. L’une de ces hypothèses, qualifiée de darwinisme quantique, s’accommoderait très bien du concept de cerveau de Boltzmann. Nous écrivions dans cet article : " Autrement dit, des «bulles d'univers», dotées de temps et d'espace locaux, sont aléatoirement créées (à partir du vide quantique). Certaines sont annihilées, d'autres se développent. On peut faire l'hypothèse que notre univers a été le produit d'une de ces fluctuations. Une particule quantique aurait vu sa fonction d'onde réduite et se serait retrouvée sous la forme d'une particule matérielle ou macroscopique dont les propriétés auraient été favorables à la création de particules plus complexes par « observation » du monde quantique environnant. Des décohérences et des computations en chaîne en auraient résulté, d'où seraient sortis le monde que nous connaissons et les lois d'organisation des objets physiques, biologiques et même mentaux qui régulent son développement."

Dans l’hypothèse du darwinisme quantique, les décohérences en chaînes se seraient produites à partir de l’ « observation » des entités quantiques fondamentales qu’aurait réalisé une première particule matérialisée. On comprendrait mieux les pouvoirs générateurs de cette observation si, à la place d’une particule unique, c’eut été un cerveau de Boltzmann tout armé, c’est-à-dire un observateur disposant déjà d’une organisation matérielle complexe, avec ses règles émergentes, qui aurait observé le monde quantique. Ce cerveau-observateur aurait généré de ce fait notre univers actuel, régulé par les lois que nous connaissons. Ces lois elles-mêmes ne seraient autres que celles selon lequel aurait été organisé (de façon évidemment totalement aléatoire) le cerveau-observateur de Boltzmann originaire du tout premier instant de notre temps et de la toute première particule de notre espace.

Pour en savoir plus
Voir, concernant Boltzmann et l'entropie, un l’article de Wikipedia dont nous nous sommes inspirés. Voir aussi les textes cités en référence.
http://en.wikipedia.org/wiki/Boltzmann_brain
Predicting the Cosmological Constant from the Causal Entropic Principle
par Raphael Bousso, Roni Harnik, Graham D. Kribs, Gilad Perez
http://www.arxiv.org/abs/hep-th/0702115

Repost 0
1 août 2007 3 01 /08 /août /2007 10:15


The trouble with physicsThe Trouble with Physics
The Rise of String Theory,
the Fall of a Science and what comes next
par Lee Smolin
Houghton Mifflin Cie
2006

Rien ne va  plus en physiqueTraduit en français par Alexeï Grinbaum sous le titre
Rien ne va plus en physique !
L'échec de la théorie des cordes,


avec une préface d'Alain Connes
18 avril 2007


Présentation et commentaires par Jean-Paul Baquiast (d'après l'original en anglais). Texte relu et complété par Philippe Lequesne 01/08/07

Lee SmolinLee Smolin est un physicien théoricien la vaste culture. C'est aussi, même s'il ne l'affiche pas, un philosophe, un sociologue et un pédagogue de la science remarquable. Il est actuellement chercheur au Perimeter Institute, dans la province canadienne de l'Ontario, qu'il a contribué à fonder afin d'encourager les remises en question et idées nouvelles en science, venant de la part de ceux qu'il appelle des visionnaires (seers) dans son livre.

Ouvrages précédents:
* 1999. The Life of the Cosmos
* 2001. Three Roads to Quantum Gravity (voir notre présentation http://www.automatesintelligents.com/biblionet/2002/oct/smolin.html. Nous renvoyons le lecteur à cet article. Il y constatera que dès 2002 nous avions voulu rendre hommage au travail profondément original de Lee Smolin.

Pour en savoir plus
Page personnelle : http://www.leesmolin.com/
Le site du livre :http://www.thetroublewithphysics.com/
Les spécialistes étudieront sur ce site deux séries de réponses faites par l'auteur à diverses observations et critiques:
* In a recent letter to friends and colleagues I emphase the main themes and conclusions of TTWP.
* Here is a response to a review by Joe Polchinski that several people asked for.
Le Perimeter Institute :http://www.perimeterinstitute.ca/

 


On pourrait croire, si l’on s’en tenait au titre du livre, The Trouble with Physics (TTWP) que Lee Smolin ne se borne pas à constater l’impasse dans laquelle se trouverait selon lui la théorie des cordes, mais qu’il étend ce constat d’échec à la physique fondamentale toute entière. Il est vrai que si, loin d’apparaître comme la théorie ultime en physique, la théorie des cordes se révélait incapable de fournir de preuves, après bientôt quarante ans de recherches, à l’appui des visions profondément contre-intuitives du monde qu’elle propose, l’ensemble de la physique fondamentale en souffrirait. Jusqu’alors en effet, pour les physiciens en général et les cosmologistes à en particulier, c’est l’expérience instrumentale, et non la production de modèles mathématiques aussi élégants soient-ils mais non vérifiables, qui constitue la première source du savoir sur le monde. Il en est de même d’ailleurs pour toutes les sciences.

Mais TTWP (bien que l’auteur s’en défende) n’est pas seulement une critique sévère de la théorie des cordes. C’est aussi un acte de foi dans l’avenir de la physique, à condition que celle-ci sache renouveler en profondeur les questions qu’elle pose à la nature. Lee Smolin consacre plusieurs chapitres importants de son livre à recenser les directions dans lesquelles pourrait se développer une nouvelle physique, à la fois théorique et expérimentale, capable de dépasser les blocages actuels. Pour ce qui nous concerne, comme la présentation de la théorie des cordes a déjà fait l’objet de nombreuses publications, c’est à la discussion des nouvelles voies de recherche présentées par l’auteur que nous voudrions consacrer l’essentiel de cet article.

Avant cependant d’en venir à ce thème, qui est de la plus haute actualité, nous devons indiquer que TTWP comporte plusieurs chapitres de réflexion sur la science, sur les scientifiques et sur les divers intérêts qui la financent. Ce travail est intéressant, mais il nous paraît faire montre d’une certaine naïveté. Disons seulement ici, sans entrer dans la discussion, que Lee Smolin ne va sans doute pas encore assez au fond des critiques nécessaires. Si l’on considère en effet que l’essentiel des crédits de recherche dans le monde intéressent les applications militaires et économiques dites de puissance, on peut craindre que la recherche fondamentale, y compris en physique, soit de moins en moins bien dotée. Or, comme Lee Smolin le montre, pour aboutir à des résultats susceptibles de préciser les nouvelles visions du monde physique qu’il appelle de ses vœux, il faudrait admettre que seuls 10% des projets pourraient éventuellement apporter des changements de paradigme, les 90% restant n’aboutissant pas. Si les universités et plus généralement les Etats acceptaient de tels ratios pour la recherche fondamentale, tout à fait reconnus par les capital-risqueurs en matière industrielle et commerciale, il faudrait multiplier par 10 les crédits de recherche fondamentale. Il faudrait aussi sans doute créer des structures de recherche non finalisée (blue sky research) beaucoup plus nombreuses et mieux dotées que les quelques rares fondations et instituts existant actuellement. Comme rien ne laisse espérer que cela sera fait, on ne pourra donc compter que sur des hasards heureux pour imposer de nouvelles révolutions conceptuelles, notamment avec l’entrée en service des nouvelles générations d’instrument – et aussi de nouvelles générations de chercheurs moins enfermés dans leurs spécificités disciplinaires.

Les cinq grands problèmes non résolus par la physique contemporaine

Lee Smolin commence son ouvrage par le recensement des cinq grands problèmes qui se posent aujourd’hui à la physique théorique (que nous préférerions appeler physique fondamentale, pour la distinguer de la physique appliquée). Ce recensement est de la plus haute importance, non seulement parce que dans la suite du livre, Lee Smolin montrera que la théorie des cordes n’offre à ce jour de perspectives sérieuses que pour la résolution d‘un seul de ces problèmes, mais aussi parce que ce catalogue de nos ignorances doit rester présent à l’esprit lorsque l’on s’interrogera sur les nouvelles solutions que pourraient proposer de nouveaux concepts appuyés sur de nouvelles observations expérimentales. Nous dirions pour notre part, en nous adressant aux lecteurs de notre revue, que garder constamment en esprit la liste de ces problèmes constitue la seule façon d’évaluer l’intérêt des innombrables événements qui constituent l’actualité de la physique contemporaine. Bien évidemment, les questions fondamentales que pose la physique, à la frontière de la métaphysique, sont bien plus nombreuses. Mais cette liste à l’intérêt de mettre l’accent sur les problèmes vraiment « chauds », compte-tenu de l’actualité. Reprenons donc la liste de Smolin, sans entrer dans la définition des termes employés, supposée connue de nos lecteurs.

* Premier problème : unifier la relativité générale et la mécanique quantique dans une théorie générale de la nature qui a déjà été baptisée du terme de gravitation quantique. Celle-ci n’a jamais encore été produite à ce jour. Or la nature est une et devrait donc relever d’une théorie unifiée. Une telle unification devrait en particulier faire disparaître l’apparition de valeurs infinies qui perturbent chacune de ces deux théories dans son domaine, alors que la nature n’a jamais présenté de phénomènes infinis. Il s’agirait alors d’obtenir avec la gravitation quantique une théorie finie (finite theory).

On pourra discuter évidemment de cette exigence d’unification. La nature est-elle vraiment une ? On discutera aussi le postulat « réaliste » posé implicitement par cette question : existe-t-il une nature en soi que l’on pourrait décrire comme l’on décrit une chaise ou un organisme vivant ? Nos concepts scientifiques ne sont-ils pas seulement construits par notre cerveau, en fonction du degré de développement du « super-organisme scientifique » dont nous faisons partie ?

* Second problème : donner des fondements « réalistes » à la physique quantique. Si celle-ci a ouvert des domaines d’applications en grand nombre, elle n’a jamais voulu ni pu décrire les phénomènes en termes déterministes. En particulier, elle ne cherche pas à définir précisément l’entité observée, la mesure, l’observateur. Elle se borne à présenter des probabilités d’occurrence. Une théorie unifiée de la gravitation quantique devrait pouvoir résoudre ce problème.

La encore, on discutera de l’intérêt soit de donner une interprétation « réaliste » à la physique quantique, soit d’inventer une nouvelle physique quantique qui soit déterministe (on retrouve là la question des variables cachées). Mais Lee Smolin reconnaît qu’il se range dans la vaste classe des physiciens réalistes, pour qui l’indétermination de la physique quantique reste une tare. Dans la suite du livre, il montre que les fondements de la relativité comme ceux de la théorie quantique ne paraissent pas aujourd’hui aussi établis que l’on pense généralement. Comment alors construire une théorie de la gravitation quantique sur de telles bases ?

* Troisième problème : décrire par une seule théorie les diverses particules et forces identifiées par la physique. Dans un premier temps, se pose la question de la pertinence du modèle dit standard des particules élémentaires formulé dans les années 1970. Celui-ci, considéré comme un des grands succès de la physique de ces années, décrit les interactions forte, faible et électromagnétique, ainsi que l'ensemble des particules élémentaires qui constituent la matière. Il regroupe six espèces de quarks (composants des protons et neutrons) et six espèces de leptons (incluant l’électron et le neutrino). Les forces d’interactions connues, auxquelles correspondent des bosons, sont l’électromagnétisme, les forces nucléaires faibles et fortes et la gravité. Développé entre les années 1970 et 1973, c'est une théorie quantique des champs compatible avec les principes de la mécanique quantique et de la relativité, en bon accord avec les données expérimentales. Mais il ne s’agit pas d’une théorie complète des interactions fondamentales principalement parce qu'il ne décrit pas la particule supposée correspondant à la force de gravitation, le graviton, qui n’a pas encore été identifiée. De plus et surtout, il présente une longue liste de constantes ajustables ou paramètres libres, qui décrivent entre autres les masses des particules élémentaires ainsi que leurs différents couplages. Ces paramètres doivent être déterminés expérimentalement car le modèle standard n’est pas une théorie fondamentale permettant de comprendre pourquoi les valeurs observées sont ce qu’elles sont.

* Quatrième problème : expliquer comment et pourquoi les variables ajustables du modèle standard sont déterminées par la nature. Il serait nécessaire d’obtenir une théorie unifiée des particules et de leurs forces d’interaction, comportant toutes les particules actuellement observées ou susceptibles de l’être prochainement avec l’arrivée de nouveaux instruments. Rappelons que ces particules et forces ne sont généralement pas considérées comme existant en elles-mêmes, mais comme des phénomènes manifestant l’existence de dynamiques plus profondes encore inconnues. Cependant, comme elles ne se produisent pas au hasard, elles doivent bien obéir à quelque chose qu’il faudrait faire apparaître, existant soit dans la nature, soit dans ce que nous appelions dans un paragraphe précédent le super-organisme scientifique.

* Cinquième problème, particulièrement d’actualité : obtenir une théorie qui explique les phénomènes dits de la matière noire et de l’énergie noire. Ceux-ci sont considérés comme de grands succès récents de l’observation expérimentale du cosmos, montrant que les modèles théoriques purement mathématiques ne peuvent jamais prétendre donner des prévisions complètes de ce qu’est la nature. L’observation surprend toujours. On sait, concernant la matière noire, que l’observation des vitesses orbitales des étoiles dans les galaxies ne correspond pas à ce qu’elle doive être compte tenu des masses visibles. L’erreur est dans un facteur de plus de 10, ce qui laisse supposer l’existence de formes de matière ou d’énergie non encore détectables. Concernant l’énergie noire, il s’agit d’une force d’expansion (dite aussi constante cosmologique, pour des raisons que nous ne rappellerons pas ici) qui s’ajoutant à l’expansion du cosmos depuis le Big Bang, a été récemment observée et paraît responsable d’une accélération uniforme du cosmos tout entier. Ainsi, il apparaît dorénavant que 96% des propriétés observées de l’univers, propriétés que l’on regroupe désormais dans un « modèle standard de la cosmologie », correspondent à des phénomènes dont on ne sait absolument rien.

Ou bien la matière noire et l’énergie noire existent et il faut expliquer à quoi elles correspondent. Ou bien elles n’existent pas, mais alors il faut expliquer pourquoi la gravité apparaît modifiée sur de grandes échelles. A nouveau se pose la question inhérente à la physique fondamentale : pourquoi les constantes du modèle standard (ici le modèle standard de cosmologie, incluant l’énergie noire), ont les valeurs qu’elles présentent à l’observation – étant supposé, évidemment, que cette dernière soit fiable ?

Le rêve de l’unification

Les chapitres suivants de TTWP (2, 3 et 4) explicitent, avec la clarté pédagogique caractéristique de l’auteur, le développement des théories d’unification en cosmologie et en physique. Cette histoire commence vraiment avec l’affirmation de Giordano Bruno, selon laquelle les étoiles étaient des soleils comme le nôtre (affirmation qui causa sa condamnation à mort et son exécution par l'Inquisition). Elle se poursuit encore aujourd’hui, jusqu’à la dernière hypothèse en date, la théorie des cordes. Lee Smolin s’interroge sur la pertinence du besoin d’unifier les théories. En dehors du fait que les hypothèses unificatrices répondent à un besoin d’esthétique, elles correspondent le plus souvent à des avancées conceptuelles et paradigmatiques, entraînant de nouvelles hypothèses et de nouvelles découvertes. Mais il arrive qu’elles induisent des erreurs, surtout lorsqu’elles ne sont pas démontrables par l’expérience.

La théorie de la relativité générale d’Einstein a fait plus qu’unifier, elle a introduit une géométrie de l’espace et du temps indépendante de l’arrière-plan (background independent). Ce caractère est fondamental pour Lee Smolin et devrait être retrouvé par toutes les théories unificatrices futures, visant notamment à intégrer mécanique quantique et relativité dans la future gravitation quantique. Dire que la théorie de la relativité générale est indépendante de l’arrière plan (background) signifie qu’elle peut être formulée sans fixer auparavant une métrique. Tous les champs y sont dynamiques, tous interagissent, tous s’influencent respectivement. Cependant Einstein échoua dans sa tentative de créer une géométrie de l’espace-temps capable d’unifier la gravité et l’électromagnétisme. Avec le développement de la physique quantique après 1930, il ne lui fut pas davantage possible d’unifier cette nouvelle physique avec les autres forces. Lee Smolin raconte comment Einstein perdit tout crédit dans cette tentative vaine, alors que l’élite de la physique mondiale se tournait vers la physique quantique.

Dans le cadre des deux grandes théories de physique fondamentale du XXème siècle, la relativité et la mécanique quantique, notons que la culture et la formation de Smolin sont essentiellement orientées vers la relativité, à contre courant de la plupart des physiciens théoriciens contemporains. Il est étonnant d’ailleurs, que lors qu’il parle de mécanique quantique, il ne cite que très rarement le nom de Paul Dirac dont les travaux sur l’anti-matière et l’équation relativiste de l’électron ont à la fois couronné les débuts de la mécanique quantique des années 1930, et servi de point de départ à l’électrodynamique quantique, continuée par la suite, entre autres par Richard Feynmann.

Les efforts d’unification se poursuivirent néanmoins, à partir de la physique quantique, dans la direction des forces autre que la gravitation : l’électromagnétisme : théorie quantique des champs, électrodynamique quantique) …jusqu’au modèle standard des particules élémentaires proposé en 1970. Mais au-delà, les tentatives d’unification, dites de grande unification, ne purent aboutir. Il fallait inventer une symétrie capable de transformer les quarks, constituant des protons, en leptons. Le nom de code en est SU(5). Mais il n’a pas été possible à ce jour de prouver la désintégration du proton prévue par la théorie. Il paraît nécessaire à Lee Smolin d’en conclure que la grande unification SU(5) était une hypothèse fausse.

La rupture enre théorie et expérience

L’échec des premières théories de grande unification n’a pas empêché les théoriciens de formuler de nouvelles hypothèses, mais cet échec a, selon l’expression de Lee Smolin, ouvert en physique une crise qui se poursuit encore. La théorie et l’expérimentation ont cessé de travailler main dans la main comme elles l’avaient toujours fait jusqu’alors. A partir des années 80, un certain nombre de physiciens restés fidèles à l’expérimentation se sont contentés d’approfondir le modèle standard. Cependant la plupart des théoriciens se sont engagées dans des hypothèses encore plus ambitieuses que celles concernant la grande unification. Le chapitre 5 du livre décrit les orientations retenues, hormis la théorie des cordes examinée dans les chapitres suivants. Il s’agit d’une histoire compliquée que nous n’évoquerons évidemment pas ici. Bornons-nous à dire que ces hypothèses ont principalement visé à unir les deux grandes classes d’objets supposés construire le monde : les particules (quarks et leptons) et les champs (ou forces) au sein desquels elles interagissent. Selon la théorie quantique, les particules sont aussi des ondes mais la théorie n’unifie pas pour autant les particules et les champs. La théorie distingue au contraire deux grandes classes de particules élémentaires, les fermions et les bosons. Les fermions sont les particules de matière (électrons, photons, neutrinos). Les bosons sont les particules associées au champ. Le photon est un boson, de même que les bosons faibles W+, W- et Z° de la force nucléaire faible et les gluons de l’interaction nucléaire forte (voir encadré ci-dessous).

Pour poursuivre les tentatives d’unification, il a paru nécessaire de définir un processus dit de supersymétrie dans lequel il serait possible de remplacer un fermion par le boson correspondant sans changer les conditions de l’expérimentation. Dans ce cas, chaque particule aurait un superpartenaire à découvrir, dit « s », par exemple le sélectron pour l’électron. L’encore hypothétique « boson de Higgs », objet de toute l’attention de la presse technique, serait le boson correspondant, dans les théories de supersymétrie, à la force électrofaible (interaction entre électromagnétisme et force nucléaire faible du modèle standard). C’est la seule particule de ce modèle non encore observée. Sa découverte aurait un rôle capital car elle permettrait d’expliquer la différence de masse entre les autres particules élémentaires, particulièrement entre le photon sans masse et les bosons W et Z. Elle légitimerait ainsi l’ensemble du modèle standard des particules élémentaires, alors que sa non-découverte remettrait en cause beaucoup des hypothèses correspondantes. D’où l’intérêt qui s’attache à ce que montrera le futur LHC du Cern quand il entrera en fonction dans les prochains mois.

En attendant, la supersymétrie reste une hypothèse. Mais même au cas où l’hypothèse serait vérifiée, Lee Smolin considère qu’elle ne répondrait à aucun des cinq problèmes qu’il a identifiés au début de son livre, notamment pourquoi les constantes du modèle standard sont ce qu’elles sont. En effet, la supersymétrie comporte un grand nombre de variables libres, que le théoricien peut fixer à son gré pour justifier ses choix de modélisation.

Les bosons de jauge (source Le journal du Net
http://www.journaldunet.com/science/divers/dossiers/06/particules-elementaires/9.shtml )

Comment la matière tient-elle ensemble ?

La réponse résulte dans l'interaction des quatre forces physiques : la gravité, la force nucléaire forte, la force nucléaire faible et la force électromagnétique.

Ces forces agissent sur les fermions élémentaires par l'échange de bosons de jauge, l'autre classe de particules élémentaires. On appelle aussi les bosons de jauge des "particules de rayonnement".

Responsables des forces de la nature
Il existe 12 bosons de jauge dans le modèle standard : le photon, 8 gluons et 3 bosons faibles. En plus, on prédit l'existence du graviton qui n'a pas encore été observé, et celle du boson de Higgs.

Chaque boson de jauge est associé à une force. Le photon transmet la force électromagnétique. Les gluons transmettent la force nucléaire forte. on peut comparer cette force à un élastique incassable : il faudrait une force infinie pour séparer les quarks qui sont unis grâce aux gluons. Enfin, les bosons faibles transmettent la force nucléaire faible, et le rôle du graviton est de transmettre la force gravitationnelle.

Notons que le graviton ne fait pas partie du modèle standard. Son existence est purement théorique et aucune expérience n'a encore démontré sa présence.

Quant au boson de Higgs, il serait responsable de la masse des autres particules. Son existence n'a jamais été démontrée non plus. C’est en particulier l’enjeu du futur grand accélérateur LHC du Cern, qui devrait démarrer fin 2007.

Pour en savoir plus
• le modele standard par Gilles Cohen-Tannoudji
http://gicotan.club.fr/modelestandard.htm
• Cours en ligne "Voyage vers l'infiniment petit" de l'Ecole Normale Supérieure http://www.diffusion.ens.fr/vip/pageA01.html

 


Le chapitre 6 évoque les tentatives, engagées aussi dans les années 1989, pour développer une théorie consistante de la gravitation quantique. Lee Smolin y reprend les grandes lignes de son précédent ouvrage, Three Roads to Quantum Gravity, référencié en introduction. Il y rappelle que pour lui une telle théorie doit être indépendante de l’arrière-plan comme l’est la théorie de la relativité. Ceci veut dire que la géométrie de l’espace ne doit pas y être fixée à l’avance. L’espace évolue dynamiquement selon les mouvements de la matière en son sein. Il existe aussi des ondes gravitationnelles qui parcourent la géométrie de l’espace. L’espace peut avoir dans certains cas plus de trois dimensions. Il n’y a pas de loi qui définisse ce que doit être une fois et pour toutes la géométrie de l’espace, il y a seulement une loi qui définit comment la géométrie évolue. Ainsi la géométrie de l’espace ne fait pas partie des lois fondamentales de la nature. Elle évolue en fonction de lois plus profondes. Il en est de même du temps. Le monde doit être décrit en termes d’événements et de relations, d’où découlent des causalités. Mais ces événements ne sont pas référencés à un temps défini de l’extérieur.

Lee Smolin observe que les hypothèses relatives à la gravitation quantique proposées à partir des années 1970 sont toutes du type « indépendant de l’arrière-plan », sauf la théorie des cordes. C’est là pour lui le plus grand défaut de celle-ci. La responsabilité en a incombé à Einstein et aux relativistes qui ne surent pas dès l’apparition de la mécanique quantique obliger celle-ci à prendre en compte l’hypothèse de l’existence d’ondes gravitationnelles (il est vrai particulièrement faibles, si elles existent et jusqu’à ce jour inobservées) et faire ainsi de la mécanique quantique une théorie indépendante de l’arrière-plan. Elle ne l’est toujours pas, ce qui limite nécessairement ses ambitions cosmologiques. D’intéressantes recherches sont conduites aujourd’hui autour des trous noirs, qui disposent de champs gravitationnels suffisamment forts pour y étudier la supergravité. Mais rien de substantiel ne permet encore d’en tirer les bases d’une théorie substantielle de la gravitation quantique.

Les révolutions avortées de la théorie des cordes

La seconde partie de TTWP est consacrée à la théorie des cordes. On sait que pour Lee Smolin, il s’agit essentiellement d’une impasse, pour la raison principale que les hypothèses qu’elle propose ne sont pas testables. Elles sont de toutes façons en si grand nombre que les théoriciens des cordes peuvent toujours prétendre, face à un résultat contredisant telle variante, qu’il en existe une autre susceptible d’être ultérieurement confirmée. Lee Smolin au contraire s’en tient fermement aux considérations de Karl Popper, selon lesquelles une bonne théorie scientifique doit, non seulement être prouvable, mais aussi falsifiable. Il a été décrit comme un « popperrazzi », ce qu’il accepte volontiers d’être. Là encore, nous n’entrerons pas dans les nombreux arguments permettant à Smolin et ceux qui, de plus en plus nombreux, prennent leurs distances vis-à-vis de la théorie des cordes, de justifier leur refus d’y voir la Théorie du Tout que ses promoteurs ont voulu faire.

Toujours d’un point de vue épistémologique, ce livre est d’ailleurs aussi un remarquable exemple d’application, sur un cas contemporain, des thèses de Thomas Kuhn dans son œuvre célèbre « La structure des révolutions scientifiques » : on assiste « en direct » à la fissure d’un « paradigme » de science « normale »

Les chapitres 7, 8, 9, 10 et 11 du livre analysent ce que Lee Smolin appelle les prémisses, la première révolution et la seconde révolution de la théorie des cordes, ainsi que les développements ayant suivi de la part des défenseurs de la théorie. Le Chapitre 12 suivant recense les points que la théorie des cordes expliquerait, c’est-à-dire les apports positifs qu’elle aurait fait à la cosmologie et à la gravitation quantique. Mais on verra que ses apports sont pour lui limités. La théorie ne répond à aucun des 5 grands problèmes de la physique contemporaine qu’il a identifiés au début de son livre, sauf au troisième de ces problèmes : l’unification des particules et des forces, ceci il est vrai dans une perspective « dépendante de l’arrière-plan qui limite la portée de la démarche. Ce faisant, la théorie des cordes évoque une « simple loi » permettant de comprendre pourquoi les particules sont ce qu’elles sont à l’observation. C’est que les cordes qui leur correspondent se déplacent dans l’espace-temps de façon à minimiser l’aire qu’elles occupent (comme le font des bulles de savon). On retrouverait là une loi fondamentale des théories constructales selon laquelle les formes de la nature sont ce qu’elles sont du fait que la concurrence entre elles les obligent à minimiser l’énergie qu’elles consomment.

Rappelons rapidement que pour la théorie des cordes, toutes les particules et les forces (bosons) que l’on observe découlent de la vibration d’objets minuscules en forme de cordes, linéaires ou bouclées. La théorie des cordes se veut une théorie de la gravitation quantique puisqu’elle intègre dans son approche les forces gravitationnelles. Les différentes espèces de particules correspondent à des modes différents de vibration de ces cordes élémentaires. Pour produire les formes complexes correspondant à ces particules, les cordes se développent dans des espaces dotés d’un plus grand nombre de dimensions que l’espace ordinaire, au moins six dimensions supplémentaires. Mais celles-ci n’ont pas été observables à ce jour du fait de leurs tailles submicroscopiques. De plus, les formes pouvant être ainsi adoptées sont en très grand nombre, correspondant à différents univers, avec des particules différentes et des constantes fondamentales également différentes. On ajoutera que pour les théoriciens des cordes les trois dimensions de l’espace sont confinées à la surface de membranes ou branes flottant dans un espace multidimensionnel. Ces branes peuvent entrer en collision et provoquer des explosions d’énergie analogue à la collision matière-anti-matière.

Les défenseurs de la théorie des cordes (il en reste) dont notamment Joe Polchinski, de l’université de Californie, à qui Lee Smolin répond sur le site de son livre (voir notre encadré introductif), ne désespèrent pas cependant d’obtenir prochainement certaines preuves, sinon décisives, du moins encourageantes. Un article d’ Amanda Gefter, dans le New Scientist du 14 juillet 2007, p. 30, les énumère. Les possibilités sont les suivantes :

- détecter des supercordes ayant subi une forme d’inflation leur ayant donné des dimensions cosmologiques. Ces objets exerceraient un effet de lentille gravitationnelle, au cas où ils s’interposeraient entre la Terre et une étoile lointaine. Plus généralement, ils devraient produire des ondes gravitationnelles très puissantes, détectables dans l’ observatoire LIGO et le futur LISA. De telles ondes devraient aussi perturber le rythme des émissions radio émanant d’un pulsar.
A l’inverse, des ondes gravitationnelles trop fortes, qui seraient observées dans les image micro-ondes du fonds de ciel (CMB) obtenues par l’observatoire orbital Wilkinson ou le futur observatoire européen Planck seraient incompatibles avec la théorie des cordes.

- expliquer pourquoi des plasmas de quarks et gluons obtenus dans les collisions entre atomes d’or dans le Relativistic Heavy Ion Collider de Brookhaven se comportent non comme le gaz prévu par la chromodynamique quantique mais comme un liquide auquel correspondrait un trou noir prévu par la théorie des cordes. Cela ne serait pas une preuve définitive de la validité de cette dernière, mais pourrait en être un indice fort.

- prouver l’existence des extra-dimensions prédites par la théorie des cordes au cas où le futur LHC du Cern montrerait que des débris résultant des collisions organisées par ce dernier seraient « avalés » au lieu d’être conservés. Ils pourraient l’être au sein des extra-dimensions de la théorie des cordes. Au-delà, si le LHC prouve la supersymétrie en faisant apparaître de superparticules, il fournirait un nouvel indice fort en faveur de la théorie des cordes.


Lee Smolin prend soin, dans son livre et ses articles, de ne pas condamner à l’avance toutes perspectives expérimentales pouvant apporter des preuves à la théorie des cordes. Il est plus prudent et, en bon scientifique, il réserve l’avenir. Mais il nous prévient du fait, déjà signalé dans cet article, qu’existant non pas une mais des millions de théories des cordes ou de modèles en découlant, il est trop facile aux théoriciens de trouver l’explication ponctuelle à telle ou telle observation pouvant être considérée comme une preuve de la théorie. De même, les expériences qui la contrediraient explicitement peuvent toujours être considérées comme invalidant telle version de la théorie et non les autres.

Pour notre part, nous pensons, avec Lee Smolin, que la cause de la théorie des cordes est entendue. Elle est fausse ou, en tous cas, gravement inadéquate. Il en est de même de la théorie du Tout et la M.théorie qui en sont des versions « journalistiques », destinées à encourager de généreux donateurs. Il est temps, comme le fait TTWP, de passer à autre chose, c’est-à-dire aux hypothèses, reposant sur de nouvelles observations, pouvant montrer que des approches résolument révolutionnaires doivent dorénavant être poursuivies pour comprendre l’univers ou, tout au moins, pour interpréter les nouvelles expériences qui s’accumulent en ce moment. Ce ne seront pas alors les seuls fondements de la théorie des cordes qui seront remis en cause, mais ceux des piliers désormais centenaires de la physique fondamentale, les deux relativités et la mécanique quantique.

Vers une nouvelle physique

La Troisième partie de TTWP, avec les chapitres 13, 14 et 15, vise à évoquer les différentes approches que Lee Smolin recommande aux lecteurs d’analyser, s’ils veulent interpréter correctement les nombreux articles publiés par la littérature scientifique et qui contribuent, soit ponctuellement, soit plus systématiquement, à définir les contours d’une nouvelle physique. Celle-ci n’est pas encore fixée sous forme d’un paradigme susceptible de remplacer les paradigmes relativiste et quantique, mais les visionnaires (ceux que Smolin appellent des « seers » dans son livre), commencent à en faire apercevoir les contours.

Comme visionnaires, outre des physiciens qu’il côtoie, Lee Smolin prend l’exemple d’un mathématicien français contemporain (il a 79 ans) , Alexander Grothendieck, médaille Fields, génie des mathématiques du XXème siecle, dont les concepts – théorie des motifs, topos..- sont repris par Alain Connes, préfacier de TTWP, dans un livre de physique mathématique de plus de 600 pages qui vient de sortir mi-juillet « Non commutative geometry, Quantum fields and motives ». Alain Connes, pour traiter en mathématicien de la physique fondamentale, s’appuie aussi sur les concepts formulés en 1832 par un autre génie mathématique visionnaire de 20 ans : Evariste Galois.

Le paysage reste complexe, sans directions encore privilégiées, car la nouvelle physique explore de nombreuses voies. Ces voies peuvent apparaître contradictoires mais rien n’exclut qu’elles convergent à terme dans une nouvelle grande synthèse. Parmi les visionnaires, Lee Smolin range un certain nombre de chercheurs travaillant autour du Perimeter Institute ou provenant des laboratoires européens dont la culture scientifique s’oppose nettement, selon lui, à la culture américaine dominante trop impliquée dans la théorie des cordes. Nous n’hésiterons pas, pour notre part, à ranger Lee Smolin au premier rang des visionnaires sur lesquels il compte pour renouveler la physique. Il n’a peut-être pas encore produit une hypothèse théorique appuyée sur une preuve expérimentale capable de lui mériter le prix Nobel. Mais il est un des seuls à pouvoir décrire la physique avec la hauteur de vue qui s’impose non seulement à un physicien digne de ce nom mais à ce qu’il est aussi sans le reconnaître, c’est-à-dire un philosophe des sciences.

A nouveau, nous ne pouvons entrer dans les détails des directions de recherche évoquées par TTWP, dont chacune mériterait un article circonstancié. Inutile de dire que la plupart ne sont pas compatibles avec la théorie des cordes. Bornons-nous à en donner une liste abrégée, en suivant l’ordre du livre :

* Les régularités étonnantes pouvant apparaître suite aux analyses de plus en plus précises de la température de fond de ciel cosmique (CMB) résultant des données recueillies par l’observatoire orbital Wilkinson, en attendant celles du futur observatoire européen Planck. Des pics et des axes privilégiés de radiation (axe du Diable) semblent contredire l’hypothèse encore généralement admise de l’inflation supposée avoir homogénéisé le paysage à grande échelle.

* Les différences d’accélération entre étoiles au sein des galaxies pouvant laisser suspecter l’existence d’une modification, dans certaines conditions, de la loi de Newton. Il s’agit de la désormais célèbre MOND ou Modified Newtonian Dynamics dont la prise en compte obligerait de modifier la relativité générale à certaines échelles.

* Les expériences susceptibles de remettre en cause les constantes dites fondamentales de l’univers. De plus en plus, comme nous l’avons nous-mêmes indiqué dans divers articles, il serait peu scientifique de considérer qu’à toutes les échelles, celles-ci soient effectivement et à jamais invariables. C’est en premier lieu le cas de la vitesse de la lumière, qui pourrait être dépassée aux très grandes énergies, comme le montre notamment l’observation des rayons cosmiques extrêmement énergétiques arrivant sur Terre. Le détecteur de rayons cosmique Pierre Auger, qui commence à fonctionner en Argentine, apportera prochainement des informations décisives. L’observation des sursauts ou explosions gamma pourrait donner des éléments comparables. Le prochain Gamma Ray Large Area Space Telescope permettra de préciser les informations reçues de l’espace.

Rappelons que nous avons dans cette revue présenté le livre « Faster than the Speed of Light », dans lequel João Magueijo avait défendu une première version de sa thèse, d’ailleurs toujours controversée, relative au caractère non absolu de la vitesse de la lumière http://www.automatesintelligents.com/biblionet/2003/mai/magueijo.html

* Si la vitesse de la lumière n’était plus une constante, ce serait à son tour la relativité restreinte d’Einstein qui devrait être modifiée ou, tout au moins approfondie. On sait que celle-ci repose sur deux principes : la relativité du mouvement et le caractère absolu de la vitesse de la lumière. Remettre en cause ce dernier principe conduit à ce que l’on désigne du terme de relativité doublement restreinte (en anglais, DDR, deformed ou doubly special relativity). Celle-ci entraînerait à son tour une remise en cause de la valeur absolue de la longueur de Planck. Encore controversée, cette hypothèse postulée pour la première fois par Giovanni Amelino-Camelia, rejoint par João Magueijo et Lee Smolin, postule qu’une échelle basée sur celle de Planck devrait rester invariante dans les transformations relativistes, et serait donc indépendante de la vitesse de l’observateur et de l’unité de mesure qu’il utilise. Lee Smolin a rattaché ces points à l’exploration qu’il continue à faire de la gravitation quantique en boucles. Les promoteurs de la DDR espèrent bientôt pouvoir tester ses prédictions.

* Les nouveaux développements de la gravitation quantique, reposant sur une théorie indépendante de l’arrière-plan, et respectant ainsi le postulat fondamental de la relativité générale. De nouvelles hypothèses ne font pas de l’espace ou de ce qui s’y déplace le cadre à considérer en premier. Elles s’inspirent de la physique quantique. L’espace pour elles doit être une propriété émergente, comme la température d’un corps émerge du mouvement des atomes qui le constituent. Les propriétés fondamentales seraient alors discrètes et s’organiseraient autour de relations où la causalité jouerait un rôle premier. Lee Smolin consacre plusieurs pages à l’état actuel de la théorie de la gravitation quantique en boucles qui, s’inspirant de ces considérations et contrairement à la théorie des cordes, représente à ses yeux et à ceux de beaucoup de théoriciens renommés, dont semble-t-il le mathématicien français Alain Connes, inventeur de la géométrie non commutative, une perspective crédible.

Nous observerons ici pour notre part que l’hypothèse selon laquelle le monde physique que nous connaissons, avec ses constantes fondamentales, serait constitué de propriétés émergentes d’un monde quantique sous-jacent, est de plus en plus explorée. L’article que nous publions dans ce même numéro en fournit un exemple, avec notamment le thème qui nous paraît très prometteur du darwinisme quantique, que Lee Smolin ne pouvait pas connaître en 2005, quand il écrivait son livre.

* Nous mentionnerons pour finir les hypothèses, non citées par Lee Smolin, mais révélatrices de l’effervescence de la jeune physique, relatives aux particules dites Axion et Chameleon susceptibles d’expliquer l’énergie noire (voir notamment le NewScientist, 21 juillet 2007, p. 10).

En conclusion, les visionnaires

Le chapitre final 18 du livre élargit le regard en présentant une série de visionnaires de la physique dont les approches, même si elles ne sont pas toujours reconnues par la science dominante (mainstream), lui paraissent devoir elles-aussi contribuer au renouveau des fondements conceptuels et paradigmatiques de la physique. Nous retiendrons ici les noms de Roger Penrose, Robert Laughlin, Holger Bench Nielsen (inventeur des random dynamics), Gerard ‘t Hooft, Julian Barbour (auteur de The End of Time, 2001), David Finkelstein, Antony Valentini (auteur de Pilot-wave Theory of Physics and Cosmologie, à paraître, où il reprend et généralise l’hypothèse des variables cachées en physique quantique)…sans oublier David Deutsch et Seth Lloyd, dont nous avions en leur temps présenté les ouvrages.

Cette liste, comme les noms que nous n’avons pas cités ici, sont pour Lee Smolin comme pour nous la preuve que la physique fondamentale, loin d’être en crise, à la suite des errements de la théorie des cordes, serait au contraire en plein renouveau. Voici qui devrait exciter les imaginations des jeunes chercheurs, s’il en reste dans un monde dominé par la Télé-réalité.

Repost 0
12 juillet 2007 4 12 /07 /juillet /2007 15:20
Pourquoi les lois fondamentales de la physique paraissent-elles ajustées pour permettre la vie et la conscience ?
Jean Paul Baquiast 11/07/07

Mots clefs : lois fondamentales bio-friendly, principe anthropique, multivers, quantum post-selection, flexi-laws, darwinisme quantique, décohérence.

Résumé. Une série d’articles publiés indépendamment les uns des autres par la revue NewScientist du mois de juin 2007 signale des recherches récentes permettant d’entrevoir quelques pistes en réponse à la question fondamentale posée par le principe anthropique : pourquoi les lois de la physique paraissent-elles favorables à la vie (telle que nous la connaissons) ? Ces pistes font appel aux interprétations de la physique quantique selon lesquelles - pour simplifier - c’est l’observateur macroscopique qui crée l’univers observé à partir d’un indéterminisme quantique primordial. La plus fructueuse, en termes scientifiques comme philosophiques, a été baptisé le ” Darwinisme quantique “.

On sait que la question qui donne son titre à cet article est posée aujourd’hui avec de plus en plus d’insistance. Par lois fondamentales, on entend les lois, découvertes progressivement par les physiciens, qui définissent les conditions nécessaires à la construction des particules matérielles. Elles régulent l’organisation de la matière aussi bien en vastes structures cosmologiques qu’en organismes vivants de type terrestre, y compris ceux qui, comme nous, dotés de conscience, peuvent se donner des représentations d’eux-mêmes dans l’univers et modifier l’ordonnancement de cet univers en faisant appel à la science. On dit que les lois fondamentales sont « bio-friendly ». Elles sont réglées à quelques millièmes d’unités près (fine-tuned) d’une façon telle qu’elles sont compatibles les unes avec les autres et, finalement, avec la vie telle que nous la connaissons sur Terre. Ainsi, si le proton était plus lourd que le neutron de 0,1%, tous les protons produits dans les suites du Big bang n’auraient pu acquérir de charge électrique et auraient dégénéré en neutrons. De ce fait les atomes n’auraient pas existé et la chimie aurait été rendue impossible.

Cette propriété des lois fondamentales a été exploitée par les tenants du principe anthropique fort qui en déduisent que l’univers aurait pu, dès le début, avoir été conçu par une super-intelligence voulant faire apparaître la vie et l’homme. Inutile de dire que cette hypothèse d’une super-intelligence n’a aucun intérêt scientifique puisqu’elle n’est pas démontrable. Elle permet seulement aux spiritualistes de justifier la création telle que racontée dans les Ecritures. Le principe anthropique faible est plus modeste. Il se borne à constater que, dans l’univers tel qu’il est défini par les lois de la physique, des organismes vivants tels que nous ont pu se développer. Il n’exclut d’ailleurs pas que dans d’autres cantons de l’univers, à partir des mêmes lois fondamentales, d’autres formes de vie et de conscience soient possibles. Mais là encore, le principe anthropique faible n’a guère d’intérêt scientifique. Il n’ouvre pas de pistes pour rechercher derrière l’ensemble des lois fondamentales de la physique un principe explicatif unique qui permettrait de comprendre pourquoi ces lois sont ce qu’elles sont et grâce auquel la science, le cas échéant, pourrait imaginer ou construire des univers différents.

Faut-il alors que les scientifiques matérialistes – ceux qui excluent le recours à la divinité comme principe explicatif - ne puissent faire autre chose que constater l’existence des lois fondamentales, aux origines inexpliquées, flottant si l’on peut dire comme autant de principes organisateurs au-delà (ou au dessus) du monde matériel et du monde biologique. On retrouverait là une sorte d’idéalisme ou réalisme des essences, de type platonicien, qui inspire aujourd’hui encore, dans un domaine voisin, beaucoup de mathématiciens. Pour certains de ces derniers, les lois mathématiques constituent un univers situé en dehors du nôtre, qu’ils découvrent peu à peu et dont d’ailleurs ils retrouvent les grandes règles logiques à l’œuvre dans les lois de la physique. Au contraire, pour d’autres mathématiciens, que nous qualifierions d’évolutionnaires ou darwinistes, les lois mathématiques sont des produits de l’architecture des cerveaux. Ceux-ci auraient progressivement acquis, dès le règne animal, la capacité de qualifier et quantifier des « objets » à partir d’un continuum de signaux physiques émanant du monde extérieur.

Une variante du principe anthropique faible vise à expliquer pourquoi nous nous trouvons dans un univers favorable à la vie, sans faire appel à la simple lapalissade selon laquelle si nous sommes là, c’est parce que nous sommes là. Il s’agit de l’hypothèse bien connue du multivers. Selon cette dernière, le monde quantique fondamental générerait en permanence des bulles d’univers qui s’organiseraient en évoluant selon des modes différents, intégrant plus ou moins de complexité. Le monde quantique n’étant pas limité par des facteurs temporels ni par le nombre des combinaisons que peut produire l’émergence de particules physiques à partir des entités quantiques, un nombre infini d’univers, présentant un nombre infini d’organisations différentes, pourrait résulter des fluctuations quantiques produites par la supposée énergie du vide. De cette infinité de tirages de la loterie quantique, rien n’interdit de penser qu’un bon numéro, celui d’un univers permettant la vie, ait pu apparaître. Mais à nouveau cette explication n’est pas satisfaisante. Non seulement parce qu’il n’a pas été à ce jour possible de prouver l’existence d’univers multiples, mais surtout parce que les lois primordiales ou méta-lois, autrement dit le mécanisme générateur permettant aux multi-univers d’apparaître, y compris en comportant de « bons numéros » favorables à la vie, ne sont pas plus connaissables ni explicables, dans cette hypothèse, que dans les précédentes.

Cependant, aujourd’hui, une série d’articles publiés indépendamment les uns des autres par la revue NewScientist du mois de juin 2007 permettent d’entrevoir quelques réponses à la question fondamentale posée par le principe anthropique : pourquoi les lois de la physique paraissent-elles favorables à la vie (telle que nous la connaissons) ? Ces réponses font appel, comme l’on pouvait s’en douter, aux interprétations de la physique quantique selon lesquelles - pour simplifier - c’est l’observateur macroscopique qui crée l’univers observé à partir d’un indéterminisme quantique primordial.

La post-sélection quantique

Une première de ces réponses 1) a été baptisée du terme de post-sélection quantique ( quantum post-selection). Elle repose sur une expérience proposée il y a une vingtaine d’années par le physicien John Wheeler reprenant le fameux dispositif des fentes de Young. Cependant la création du réel par l’observateur, dans l’expérience de Wheeler, ne concerne pas le réel d’aujourd’hui, mais celui du passé. On sait que dans le système de Young classique, le fait de placer un détecteur derrière une des fentes détruit la nature quantique des micro-états (par exemple des photons) envoyés sur ces fentes. Autrement dit, au lieu de se comporter en onde et de générer des franges d’interférences sur un écran, les photons se comportent en particules et génèrent des points d’impacts ponctuels. On dit aussi que l’observation réduit leur fonction d’onde ou les oblige à décohérer. Dans l’expérience de Wheeler, des télescopes placés derrière l’écran et observant les photons une fois qu’ils ont interféré et produit des franges sur l’écran détruit ces franges. Autrement dit, l’observation remonte dans le temps et modifie rétroactivement le résultat de l’expérience. Stephen Hawking et Thomas Hertog en ont conclu, dans un article de février 2006 2)  que « l’histoire de l’univers – autrement dit (c’est nous qui le disons) les phénomènes par lesquels cette histoire se manifeste – dépend des questions qu’on lui pose ». L’existence des observateurs et de la vie aujourd’hui a un effet sur le passé. En formulant la chose autrement, avec un peu d’extrapolation, on pourrait dire que si les lois de la physique nous paraissent favorables à la vie, c’est parce que ce sont des êtres vivants qui observent le monde quantique primordial et y ont vu, ou plutôt créé, des lois favorables à la vie.

Les lois de la physique seraient donc flexibles. Elles dépendent des observateurs. On parle de « flexi-laws ». Paul Davies, auteur de l’article, et des collègues tentent actuellement de donner une base mathématique cohérente au concept de lois flexibles et de sélection post quantique. Il faut en effet tenter d’expliquer pourquoi le processus ainsi décrit produit des résultats déterminés au lieu de générer un désordre total. La question est encore à l’étude. 3)

Le darwinisme quantique

L’hypothèse selon laquelle l’observateur d’aujourd’hui définirait ce qu’était l’univers avant lui parait cependant assez « tirée par les cheveux », si l’on peut employer cette expression. Une hypothèse plus simple est présentée dans ce même numéro du NewScientist 4). Elle fait appel au principe bien connu de la superposition, selon lequel une particule ne peut être décrite que par sa fonction d’onde, tant du moins que celle-ci n’a pas été réduite par un observateur. La particule, de quantique et indéterminée, devient alors, une fois observée, physique (on dit aussi macroscopique) et sujette aux lois physiques que nous connaissons. Mais qui observe ? S’agit-il seulement d’un physicien armé d’un instrument adéquat ?

Les chercheurs Robin Blume-Kohout et Wojciech Zurek ont proposé récemment d’admettre que ce serait l’environnement de la particule qui jouerait le rôle d’observateur. Ils ont nommé ce phénomène le darwinisme quantique. Les physiciens quantiques, quand ils isolent des bits quantiques, pour faire notamment de la cryptologie quantique, les maintiennent à l’abri de l’environnement, composé de particules macroscopiques, car celles-ci provoqueraient la décohérence des q.bits. Mais au lieu de considérer l’environnement comme exerçant un effet négatif, les auteurs proposent de voir dans celui-ci un agent de sélection permettant de stabiliser dans un sens favorable à la « survie » de cet environnement les propriétés quantiques des particules avec lesquelles il interfère. Ainsi, progressivement, les produits de ces interactions, c’est-à-dire des particules quantiques décohérées (dont la fonction d’onde aura été réduite), seront intégrés aux systèmes macroscopiques et copiés en grand nombre, avec leurs nouvelles caractéristiques physiques et chimiques, s’ils sont favorables à la survie de ces systèmes. Les auteurs de l’hypothèse ont construit un dispositif expérimental utilisant un objet quantique oscillant interagissant avec son environnement, que nous ne décrirons pas ici en détail et qui illustre ce processus 5) .

On voit le grand intérêt de cette approche. Si nous nous appuyons sur elle, nous n’aurions plus à nous étonner du fait que l’univers physique tel qu’il nous apparaît (au niveau des lois macroscopiques que nous y observons) soit favorable à la vie et à la pensée, puisque c’est cet univers qui, à partir des multiples possibilités permises depuis son origine par l’interaction avec le réservoir infini de possibles propre au monde quantique, a provoqué la décohérence dans le sens favorable à sa croissance des particules quantiques avec lesquelles il interagissait (qu’il « observait »). Nos lecteurs se souviennent peut-être que le biologiste quantique John John MacFadden avait suggéré une hypothèse voisine pour expliquer l’introduction d’une variation orientée dans les mutations, à l’occasion d’interaction entre des particules quantiques et les atomes du génome 6). Bien évidemment, une telle approche est strictement darwinienne. Elle exclue tout finalisme. Elle postule seulement que les systèmes macroscopiques, qu’ils soient physiques, biologiques ou mentaux, se construisent par des variations au hasard résultant des décohérences favorables à la survie qu’ils provoquent en interagissant avec le monde quantique. Ne sont conservées que les variations physiques, chimiques …et biologiques…favorables au développement de ces systèmes.

Mais les auteurs de l’hypothèse du darwinisme quantique ne semblent pas encore s’être posée la question des origines tout à fait première de la construction de l’univers macroscopique et des lois que nous y observons. Pour cela, il faudrait remonter au niveau de la première des particules quantiques décohérée à partir de laquelle le Big Bang se serait déchaîné. Pourquoi cette particule primitive supposée a-t-elle adopté tel état macroscopique et non tel autre, alors qu’aucun “observateur” ne l’observait. On peut penser qu’il s’est agi d’un simple hasard, parmi de nombreux autres choix surgissant en permanence du vide quantique - et pouvant donner naissance à d’autres bulles d’univers que nous ne connaîtront jamais. Pour comprendre cela, il semble que les hypothèses proposées par Seth Lloyd concernant les origines de l’univers à partir du vide quantique peuvent alors être appelées à la rescousse 7). Le postulat retenu par Seth Lloyd, qui ne se distingue pas en ceci de la grande majorité des cosmologistes contemporains, est que notre univers serait né, au sein d’une infinité d’autres, d’une fluctuation dans l’énergie du vide quantique (ou énergie de point zéro).

Ce terme d’énergie du vide désigne un univers sous-jacent à tous les univers possibles, notamment à notre univers. Il est dénué de temps, d’espace et de masse. Son entropie est maximum (infinie ?) dans la mesure où il est impossible de donner la moindre information concernant ce qui s’y trouve. Mais cet univers sous-jacent se manifeste en permanence au niveau de notre univers. D’abord par l’existence des trous noirs, si on conserve l’hypothèse de l’existence de ceux-ci. Mais aussi simplement parce que toutes les particules matérielles qu’étudie notre physique doivent être considérées comme résultant de la décohérence de processus ondes-particules quantiques appartenant au monde quantique. Selon certaines hypothèses de la physique quantique, l’énergie du vide n’est pas statique. Elle est bouillonnante. A grande échelle, elle manifeste des fluctuations imprévisibles (création de paires particules-anti-particules). En permanence, des particules ou bouffées d’énergie sont créées et d’autres annihilées. Autrement dit, des «bulles d’univers», dotées de temps et d’espace locaux, sont aléatoirement créées. Certaines sont annihilées, d’autres se développent. On peut faire l’hypothèse que notre univers a été le produit d’une de ces fluctuations. Une particule quantique aurait vu sa fonction d’onde réduite et se serait retrouvée sous la forme d’une particule matérielle ou macroscopique dont les propriétés auraient été favorables à la création de particules plus complexes par « observation » du monde quantique environnant. Des décohérences et des computations en chaîne en auraient résulté, d’où seraient sortis le monde que nous connaissons et les lois d’organisation des objets physiques, biologiques et même mentaux qui régulent son développement.

L’apport de Seth Lloyd à ce schéma est que l’univers primordial se serait comporté comme un ordinateur quantique et aurait calculé son propre développement, ce qui expliquerait la vitesse avec laquelle il aurait exploré toutes les possibilités physiques, chimiques puis biologiques macroscopiques offertes par la décohérence de la particule initiale.

L’observateur crée-t-il la réalité ?

Peut-on déduire de ce qui précède que l’observateur crée la réalité et que le monde n’a pas d’existence en dehors de lui ? 8) Nous pensons qu’il faut distinguer selon les temps de l’ “observation”. Les objets du monde macroscopique, ceux avec lesquels nous sommes en contact tous les jours, n’ont pas été créés en premier lieu par des observateurs humains. Dans l’hypothèse de la décohérence en chaîne à partir d’une particule quantique matérialisée, l’ « observation » a été provoquée par les ensembles macroscopiques apparus progressivement. Il s’agissait d’abord de systèmes matériels, puis, sur Terre, de systèmes biologiques et d’objets mentaux. Ce sont tous ces systèmes qui ont créé le monde matériel et ses lois par interactions et sélections croisées.

Aujourd’hui cependant, au moins sur Terre, le processus se poursuit et s’amplifie du fait de l’apparition d’observateurs humains qui observent aussi bien les objets macroscopiques que le monde quantique. On notera là une intéressante boucle étrange (pour reprendre le terme de Douglas Hofstadter (voir un article précédent) puisque ces observateurs sont les produits d’un processus physique d’observation antérieur et qu’ils se retournent sur ce processsus pour l’étudier. Ceci notamment dans le cadre de la recherche scientifique expérimentale. Nous avons indiqué à d’autres occasions, dans cette revue, qu’il s’agit d’un mécanisme constructiviste. La science, les technologies, les idées créent de la complexité dans le monde macroscopique, à partir de leurs activités quotidiennes. Cette complexité, comme l’on sait, n’est d’ailleurs pas toujours intelligible par cette même science. Il nous semble que Miora Mugur-Schächter ne dise pas autre chose lorsqu’elle analyse la façon dont l’observateur humain isole et qualifie de micro-états quantiques afin d’en faire des réalités matérielles 9).

Mais peut-on pour autant dire que l’interaction des particules quantiques avec des particules matérielles et à plus forte raison des observateurs humains puisse créer le monde quantique ? Ceci supposerait que notre univers matériel et plus précisément que les observateurs humains qui s’y trouvent, soient capables d’imposer leurs lois au monde quantique. Il s’agirait évidemment d’une erreur. Tout au plus peuvent-ils constater quelques régularités dans le monde quantique, exploitées dans les technologies récentes. Mais ils ne créent pas d’hypothétiques lois quantiques fondamentales, à supposer qu’il en existe. Ou tout au moins ils n’en sont pas encore capables.

Aujourd’hui la physique, qu’elle soit simplement quantique ou qu’elle s’inspire des hypothèses nouvelles de la gravitation quantique, ne peut produire des hypothèses testables relativement à de telles lois. Les expériences actuelles sur l’intrication, notamment, ne permettent pas de comprendre ce qui se cache derrière les phénomènes observés 10). L’esprit humain y arrivera-t-il un jour ? Beaucoup de physiciens sont confiants et pensent que la physique fondamentale est aujourd’hui à un tournant. Elle devrait enregistrer tôt ou tard un changement important de paradigme. Certains comptent sur ce que révélera le Large Hadron Collider du Cern quand il entrera en service, mais pour le moment il s’agit de simples vœux de leur part. Il n’est pas exclu non plus, autre possibilité, qu’une illumination vienne un jour d’une direction totalement inattendue. Quand on dit que la science ne fait pas rêver…

Notes
1) Voir Paul Davies, Laying down the laws, Newscientist, 30 juin 2007, p. 32
2) Voir Hawking-Hertog, Populating the Landscape: A Top Down Approach http://www.arxiv.org/abs/hepth/0602091
3) Voir Aharonov et Tollaksen, Juin 2007, New insights on time symmetry in quantum mechanics, http://www.arxiv.org/abs/0706.1232
4) Voir Zeeva Merali, Quantum reality, Darwinian style, NewScientist, 30 juin 2007, p. 18.
5) Voir Avril 2007, Robin Blume-Kohout et Wojciech H. Zure, Quantum Darwinism in quantum Brownian motion: the vacuum as a witness http://eprintweb.org/S/authors/All/zu/Zurek/2 aussi http://www.arxiv.org/abs/0704.3615
6) Voir notre article : John John Mac Fadden, Quantum Evolution http://www.automatesintelligents.com/interviews/2002/mai/mcfadden.html
7) Voir notre article : Seth Lloyd, Programming the Universe http://www.automatesintelligents.com/biblionet/2006/avr/lloyd.html
8) Voir Michaël Brooks, Reality Check, NewScientist, 23 juin 2007 p. 30
9) Voir notre article: MMS, Sur le tissage des connaissances http://www.automatesintelligents.com/biblionet/2006/sep/mms.html
10) Voir Lee Smolin et Fotini Markopoulou, Disordered locality in loop quantum gravity states http://www.arxiv.org/abs/gr-qc/0702044

Repost 0
Jean-Paul Baquiast - dans philoscience
commenter cet article

Articles Récents

Liens