Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

3 avril 2014 4 03 /04 /avril /2014 18:37

Consciousness and the Brain: Deciphering How the Brain Codes Our Thoughts.

Viking Adult, 2014
par Stanislas Dehae
ne

présentation par Jean-Paul Baquiast 31/03/2014

On pourrait penser, à voir l'abondante littérature consacrée dans le monde entier aux sciences du cerveau, y compris à la conscience de soi (le Hard problem selon le philosophe Chalmers), que la France tient une faible part dans ces recherches. Ce serait une erreur, comme le montre la lecture du dernier livre du neuroscientifique français Stanislas Dehaene, consacré à ce sujet.

Non seulement celui-ci, dans la ligne de pensée initialisée par Jean-Pierre Changeux, est un expérientateur et un théoricien remarquable, mais il dirige, au sein d'une équipe principalement localisée au centre Neurospin de Neuroimagerie cognitive à Saclay, les recherches les plus avancées sur ce vaste thème.

Son livre, malheureusement à ce jour encore seulement disponible en anglais, Consciousness and the Brain: Deciphering How the Brain Codes Our Thoughts , examine les réponses possibles aux questions fondamentales, comment notre cerveau génére-t-il une pensée consciente? Pourquoi l'essentiel de notre expérience du monde demeure-t-il inconscient? Comment notre cerveau évoluera-t-il dans un proche avenir?

Ces questions, qui ont fait de tout temps l'objet des réflexions des philosophes, ont donné lieu depuis une cinquantaine d'années à de nombreuses expériences cliniques visant à identifier les centres nerveux impliqués dans les démarches cognitives, quand ils étaient détruits ou amoindris par des accidents. Des expériences plus ou moins destructives sur les animaux avaient aussi été menées depuis longtemps. Mais, comme le montre clairement l'auteur, c'est depuis 20 ans, voire même depuis 10 ans, que les progrès de la neuroimagerie ont permis de faire progresser les recherches d'une façon décisive. Ces progrès se poursuivent tous les jours et obligent à mettre à jour ou modifier les conclusions acquises.

Le livre

Consciousness and the Brain: Deciphering How the Brain Codes Our Thoughts nous convie à un voyage passionnant, depuis le cerveau inconscient jusqu'aux formes les plus élaborées de ce que l'on nomme la conscience humaine. La lecture demande un minimum de connaissance de l'anatomie et du fonctionnement du cerveau. De même il faut déjà sommairement connaître ce que sont les neurones et les formes qu'ils ont adopté, au cours d'une évolution qui a commencé dès l'apparition des premiers vertébrés. Il faut aussi savoir se repérer dans les différentes techniques de neuro-imagerie, ceci jusqu'aux plus récentes d'entre elles. Mais pour le reste l'auteur fait montre d'une telle aptitude pédagogique que chacun en le lisant pourra s'imaginer devenir un tant soit peu psychologue cognitif.

L'ouvrage comporte 7 chapitres , respectivement consacrés à la conscience telle que vue par les laboratoires, à l'inconscient, à l'utilité de la conscience, notamment dans une perspective évolutionnaire, aux « signatures » par lesquelles ont reconnaît un processus conscient afin de les différencier des processus inconscients, aux modes d'analyse de la conscience en termes théoriques, aux moyens d'en identifier la présence chez les personnes frappées d'attaques cérébrales et d'accidents corporels, à l'avenir enfin des travaux sur la conscience, notamment dans la perspective des cerveaux artificiels.

Les recherches de Stanislas Dehaene ont été inspirées par celles de Francis Crick (dans la 2e partie de sa vie) et de Cristof Koch. Celles-ci portaient sur « les corrélations neurales de la conscience », autrement dit sur les parties du cerveau qui s'activent chez une personne quand celle-ci devient consciente de quelque chose. Pour distinguer les phases durant lesquelles la conscience de cette chose apparaît, des phases les précédant, pendant lesquelles la chose demeure inconsciente, Stanislas Dehaene et son équipe ont abondamment utilisé ou mis au point divers stimulus visuels ou sonores conçus pour se situer au seuil précis (quelques millisecondes) à partir duquel l'information sensorielle recueillie devient consciente.

L'une des méthode employées consiste à « flasher » très rapidement une image ou un son correspondant à un stimulus identifiable par le sujet, stimulus pris en sandwich entre une paire d'images ou de sons non significatifs. Si la durée du stimulus est convenablement ajustée, celui-ci pénétrera la conscience du sujet, qui pourra faire un geste le signalant. Sinon il ne réagira pas. Pendant ce temps, différentes méthodes d'imagerie cérébrale observeront le cerveau de l'intéressé et réagiront aux signaux électriques émis par les différentes zones du cerveau s'activant lors de l'expérience.

La première conclusion de ces expériences est qu'un très grand nombre de stimulus demeurent inconscients, bien que perçus. Ceci même lorsque ces stimulus entraînent une réaction de l'organisme. Cette réaction à son tour demeure généralement inconsciente. On peut en conclure que l'essentiel des informations recueillies par nos sens sur nous-mêmes ou sur le monde ne franchissent pas le seuil de la conscience, tout en orientant plus ou moins profondément nos comportements. Il ne s'agit pas de « l'inconscient » théorisé par Freud, et que Lacan avait prétendu être « structuré comme un langage ». Il s'agit cependant d'un monde extrêmement riche de représentations et de symboles, au sein duquel nous nous mouvons sans le savoir, que ce soit durant la veille ou durant le sommeil.

Cependant, lorsque le seuil de la conscience est franchi, il se produit ce que Stanislas Dehaene appelle une « avalanche » ou un tsunami dans le cerveau. L'activité électrique dans les neurones des aires sensorielles du cortex supérieur se répand massivement dans les régions du cortex pariétal et préfrontal considérées comme responsables de la « prise de conscience », au sein desquelles l'information sensorielle primaire ne pénètre jamais. Des aires de plus en plus larges du cortex se trouvent affectées, des parties du cerveau de plus en plus éloignées sont activées. L'EEG révèle alors des ondes caractéristiques dites P3 correspondant à cette « avalanche ». Des neurones dits « réentrants » selon le terme d'Edelman, dotés de longs axones, envoie des messages vers les zones éloignées du cerveau, dans le sens descendant ou le sens montant.

Il faut bien voir, pour mesurer la complexité des faits de conscience, que le cortex cérébral comporte selon Dehaene 18 milliards de neurones, et qu'il traite en temps presque réel des dizaines voire centaines de stimulus. Cependant, de ces traitements en parallèle, seules n'émergent à la conscience que des informations dont l'une à la fois devient perceptible. Elles peuvent cependant se succéder très rapidement. Les unes sont évanescentes. D'autres peuvent être mémorisées plus ou moins longuement. Tout dépend de l'attention, autre propriété de la conscience, que le cerveau leur porte.

Stanislas Dehaene a baptisé espace de travail global l'espèce de web qui se construit dans la totalité du cortex, voire au delà, à l'occasion des échanges à courtes et longue distances qui s'établissent ainsi. Le terme a été emprunté, mais considérablement précisé, des travaux du neuropsychologue américain Bernard Baars. Ce dernier avait cherché à comprendre comment des contenus neuronaux très différents pouvaient se rencontrer et s'harmoniser. On avait reprochée à Bernard Baars une conception un peu réductrice du cerveau, pouvant l'assimiler à un ordinateur fonctionnant en parallèle, et incapable de faire percevoir les valeurs subjectives (la sensation de bleu ou de rouge qu'éprouve en son for intérieur tel individu). Mais pour Stanislas Dehaene l'objection ne tient pas, si l'on considère les millions de représentations du monde créées à tout moment par le cerveau inconscient.

La conscience, comme indiqué ci-dessus, sélectionne à tous moments l'une d'elles et la répercute (broadcast) au sein du cerveau tout entier, vers les systèmes de décision globaux. Ce sont ces réseaux d'échanges, plus ou moins temporaires, ou au contraire plus ou moins permanents, qui définissent l'espace de travail global. On peut identifier dans le cerveau ce qu'il appelle de vastes « hubs » de dendrites auxquels se connectent des milliers voir des millions d'autres cellules. Ceci permet d'envisager le terme d' « intelligence collective ». Chaque neurone individuel peut s'y trouver impliqué, de même qu'à une toute autre échelle chaque abeille est impliquée dans l'intelligence collective de la ruche. Ajoutons que tout neurone individuel, accédant par ses dendrites à des milliers ou centaines de milliers de synapses, peut lui-même être considéré comme doté à lui seul d'une intelligence collective.

Nous renvoyons le lecteur au livre pour découvrir les quatre principales « signatures » de la conscience identifiées par Dehaene et révélant à l'observation l'existence et le fonctionnement de celle-ci. De même, il faudra se reporter au livre pour l'analyse des différentes fonctions de la conscience, ainsi que leur rôle dans l'adaptation des espèces vivantes au contraintes de l'évolution. La conscience, qui est présente sous des formes plus rudimentaires, selon Dehaene, chez toutes les espèces dotées d'un cerveau, voire d'un système nerveux central, s'est développée chez les hominiens du fait de l'utilisation des premiers outils et par l' émergence consécutive des premiers langages symboliques, eux-mêmes organisés en concepts transmissibles et en phrases.

Un chapitre, un peu long pour qui n'est pas médecin, examine les différentes formes d'incapacité ou de coma, affectant les cerveaux. L'accident de ski survenu récemment au coureur automobile Michael Schumacher, ayant entrainé un coma dont il n'est pas à ce jour sorti, montre cependant à tous l'utilité de ces recherches

Ajoutons que, dans le chapitre final, Stanislas Dehaene fait preuve d'une très grande ouverture aux perspectives de la construction de cerveaux artificiels. Il en a lui-même, avec des collègues, établit des modèles réduits. Bien que de taille limitée, ces modèles informatiques simulent avec une grande fidélité ce qui se passe au sein de certains réseaux de neurones. Il n'a pas précisé cependant les techniques utilisées. S'agit-il de neurones formels?

Observations

Nous aurions quelque soit la richesse du livre, quelques questions supplémentaires à formuler à l'attention de l'auteur. En voici quelques unes:

* Le livre mentionne en une phrase les travaux du projet européen Human Brain Project (HBP). L'auteur dit leur attacher une grande importance. L'évolution de ce projet, où s'est impliquée massivement l'Ecole Polytechique Fédérale de Lausane, sous la direction du Pr. Henry Markram et avec un support massif d'IBM, tient-elle ses promesses? Le projet réussit-il en pratique à entrainer la collaboration effective, comme envisagée, de milliers de chercheurs au sein de dizaines de disciplines?

* De la même façon, des rapprochements utiles se produisent-ils entre ce projet et les projets américains BRAIN et Human connectome project? (cf liens ci-dessous)

* Ces projets, et notamment l'HBP, bénéficient-ils de retombées provenant des milliards de dollars consacrés par la Darpa américaine à la réalisation de cerveaux militaires intelligents? On peut en douter. L'expérience a montré que, dans de nombreux cas, si échanges d'informations il y a, ils se réalisent dans un seul sens, du civil vers le militaire.

* Ne faut-il pas, de la même façon, s'inquiéter des investissements considérables mais encore silencieux de Google pour se doter de cerveaux artificiels globaux, associés à des champs robotisés aux ambitions considérables? Rappelons que Ray Kurzweil est devenu l'un des responsables de ces recherches. Il y a apporté ses compétences étendues et la capacité de faire collaborer des chercheurs provenant de disciplines différentes, ce qui est pratiquement hors de portée des laboratoires universitaires. Nous pensons pour notre part que si dans 10 à 30 ans, un cerveau artificiel propre à dominer le monde voyait le jour, il serait aux mains de Google et des agences de renseignement américaines qui appuient massivement les « géants du web » dont cette société offre la référence la plus significative.

* Comment se fait il que Stanislas Dehaene ne fasse pas allusion, dans l'abondante bibliographie qu'il fournit, aux travaux réalisés par Alain Cardon dans le domaine de la conscience artificielle? Est-ce parce que ce dernier est un professeur d'informatique et comme tel, ignoré des neuroscientifiques travaillant sur la matière vivante? Nous pensons pour notre part que beaucoup des modèles de processus établis par Alain Cardon seraient très utiles pour simuler ce qui se passe au coeur des réseaux neuronaux, encore inobservables par l'imagerie cérébrale ou méthodes analogues. Y compris si l'on voulait mieux comprendre le fonctionnement interne du neurone isolé, qu'il faudrait sans doute, comme nous l'avons indiqué, considérer comme constituant à lui seul un système d'intelligence collective associant ses diverses composantes, quasiment au niveau moléculaire.

De plus, selon Alain Cardon, les observateurs du fonctionnement du cerveau n'ont pas élucidé certains points caractéristiques de la pensée consciente, par exemple comment un système qui génère des formes de pensées peut-il les éprouver? Que signifie précisément alors « éprouver ? » . Traiter un tel problème ne se fait pas par de l'observation mais par une modélisation constructiviste fine. Celle-ci suggère des hypothèses que l'on vérifie ensuite.

De même un autre point doit être défini par le modèle (sinon il n'y aurait pas de modèle) : quel est l'élément minimal constituant telle pensée que l'on éprouve, par exemple à la vue d'une certaine chose que l'on reconnaît et apprécie? Il ne s'agit pas seulement d'un groupe de neurones actifs à un certain endroit ? Là encore il faut modéliser le système avec des objets informatiques et mathématiques construisant une forme complexe, dont l'on vérifie ensuite la pertinence par l'observation du cerveau.

* Sur un point précis, mais qui n'est pas de simple détail, nous pensons que Stanislas Dehaene balaye un peu vite les apports de la physique quantique à la compréhension des mécanismes neuronaux. Selon des publications récentes, des qu-bits interviennent dans la fonction chlorophyllienne, le fonctionnement des organes sensoriels de certaines espèces et, pourquoi pas, celui des neurones.

Cela ne signifierait pas que des processus aléatoires pourraient expliquer, à une tout autre échelle, le mécanisme dit du libre arbitre. Chacun aujourd'hui, à l'exception des spiritualistes, conviendra que les choix dits volontaires procèdent de mécanismes déterministes certes complexes mais qui pourraient être analysables avec des outils appropriés.

NB. L'auteur m'a indiqué qu'il préparait une version française de son livre, qui sera éditée par Odile Jacob.

Pour en savoir plus

* Human Brain Project https://www.humanbrainproject.eu/fr
* US BRAIN Initiative http://www.nih.gov/science/brain/
* Human connectome project http://www.humanconnectomeproject.org/

Publications de Automates Intelligents
* Nous avons précédemment ici interrogé Stanislas Dehaene sur ces questions (voir interview 16 janvier 2008).
* Nous avons par ailleurs présenté deux ouvrages remarquables de Lionel Naccache, « Le nouvel inconscient » (janvier 2007) et « Perdons nous connaissance » (Janvier 2010) . Le professeur de médecine Lionel Naccache, dans la ligne de Jean Pierre Changeux et Stanislas Dehaene, poursuit à La Pitié Salpêtrière des recherches sur ces sujets, en les éclairants d'observations cliniques.
* Par ailleurs, nous avions examiné deux ouvrages de Jean-Pierre Changeux, « L'homme de vérité (2002) et « Du vrai du beau et du bien (2008)

Parallèlement, nous avons recensé quelques uns des ouvrages anglais ou américains consacrés au cerveau et à la conscience. NB: ce document nécessite d'être mis à jour. (Voir notre dossier de 2008 « Le cerveau et les neurosciences » )

En ce qui concerne le cerveau artificiel et la conscience artificielle, nous avons ici même édité plusieurs ouvrages du Professeur Alain Cardon
* "Modélisation constructiviste pour l'autonomie des systèmes"
24 mai 2012
* " Vers le système de contrôle total"
20 octobre 2011
* Un modèle constructible de système psychique"
Préface du Dr Pierre Marchais
25 janvier 2011

* Nous avons par ailleurs discuté plusieurs fois les travaux de Ray Kurzweil sur ces sujets, dans la perspective de la Singularité, notamment « How to create a mind » 2012.. Nous avons par ailleurs signalé la collaboration toute récente de Ray Kurzweil avec Google, que nous évoquons dans le présent article (voir Can Google save Death ? )
Nous renvoyons le lecteur à tous ces articles, s'il le souhaite, ne pouvant les reprendre ici, même sommairement.

Partager cet article

25 mars 2014 2 25 /03 /mars /2014 18:16

25 mars 2014 | Par Jean-Paul Baquiast


This image captured on July 23, 2012 at 12:24 a.m. EDT shows a coronal mass ejection that left the sun at the unusually fast speeds of over 1,800 miles per second (credit: NASA/STEREO)

Les Terriens considèrent généralement que les évènements cataclysmiques de grande taille, tels la rencontre avec un astéroïde tel que celui censé avoir provoqué une extinction majeure d'espèces vivantes il a 60 millions d'années, sont très rares et par ailleurs inévitables. Il ne serait donc pas utile de s'en préoccuper, en comptant sur la chance pour qu'ils ne surviennent pas dans les prochains siècles.

Cela n'est pas le cas des éjections de masse coronale (EMC) provenant de la couronne solaire. Celles ci, dont les causes semblent assez diverses, prennent la forme de flux de plasmas (particules électriquement chargées et électrons) pouvant atteindre la taille de plusieurs diamètres solaires et se déplaçant dans le système solaire à très grande vitesse. Elles se produisent régulièrement, mais le plus souvent n'affectent pas la Terre car elles ressemblent au rayon lumineux d'une lampe de poche, n'éclairant que les objets directement ciblés. Vu le diamètre du soleil, il y a peu de chance d'une rencontre avec notre planète.

Cependant de telles rencontres sont fréquentes. La plupart ne sont pas d'une très grande intensité. Elles perturbent les réseaux radio-électriques, sans infliger de dommages graves. L'histoire se souvient cependant d'une série d'éruptions solaires de grande violence, dite Carrington Event, parce qu'elle fut étudiée par l'astronome anglais de ce nom. L'EMC a eu lieu en 1859, mettant à mal les réseaux télégraphiques, notamment aux Etats-Unis. Un télégraphiste aurait même péri électrocuté à son poste

Aujourd'hui, une telle EMC aurait provoqué des dommages majeurs dans tous les réseaux électriques et radio-électriques dont la Terre est désormais entourée. Il en aurait résulté de nombreuses pertes de vies humaines et des dégâts, temporaires ou durables, se chiffrant par milliers de milliards.

Or des astronomes américain et chinois ont analysé une telle tempête magnétique survenue récemment. Ils ont publié un article à ce sujet le 18 mars dans le journal Nature (voir référence ci-dessous). L'évènement a été détecté par la sonde de la Nasa STEREO A, destinée, avec sa jumelle STEREO B placée de l'autre côté de la Terre, à l'étude de la couronne solaire, des perturbations du vent solaire et des EMC.

Le 22 juillet 2013, une large éruption solaire a propulsé un nuage magnétique à travers le vent solaire. Sa vitesse était de 2000 km/s, quatre fois celle d'une EMC plus usuelle. L'émission a coupé l'orbite de la Terre, mais par chance celle-ci, comme les autres planètes du système solaire, se trouvait à ce moment là de l'autre côté du soleil. Les chercheurs ont estimé que l'énergie éjectée, en deux fois, à un intervalle de 15 mn, équivalait à celle d'un milliard de bombes à hydrogène. Si la Terre s'était située dans sa direction, son champ magnétique aurait littéralement éclaté, provoquant des dégâts immenses.

Les physiciens s'efforcent actuellement de mieux comprendre la cause de tels phénomènes. Mais cela ne permettra pas de proposer des moyens pour les prévenir. Nous nous étions fait l'écho, dans un article précédent, des nombreux investissements qui seraient nécessaires pour minimiser leurs effets, par exemple ne pas construire de vastes réseaux interconnectés. Mais les coûts pour les usagers et la gène qu'ils ressentiraient seraient tels que rien vraisemblablement ne sera décidé en ce sens. Il nous restera à compter, dans ce domaine comme dans celui des autres cataclysme d'origine cosmologique, sur la chance pour qu'ils ne se produisent pas, disons, avant quelques temps.

Référence
* Nature: Observations of an extreme storm in interplanetary space caused by successive coronal mass ejections

Partager cet article

15 mars 2014 6 15 /03 /mars /2014 11:06


En cosmologie, lorsque l'observation ne fournit pas d'éléments suffisants pour construire des hypothèses vérifiables concernant des évènements du cosmos, que peuvent faire les scientifiques ? Ils peuvent élaborer des hypothèses momentanément ou définitivement invérifiables. Mais comment ces hypothèses pourront-elles être distinguées de construction purement imaginaires, qu'elles soient d'inspiration mythologique (religieuse) ou romanesque (science-fiction) ?

Au 19e et 20e siècle, le terme de métaphysique avait été utilisé. Ce mot peut avoir plusieurs sens. Dans le domaine scientifique, on peut considérer qu'il désigne ce qui est (méta) au delà de la physique, autrement dit de la science. Mais aujourd'hui les acceptions en sont si nombreuses que le terme de métaphysique est généralement évité par les scientifiques. Il inclut en effet des questions telles que l'immortalité de l'âme, l'existence de Dieu, le sens de la vie, l'origine du mal ou l'étude de l'Etre (ontologie). Il s'agit généralement d'hypothèses spiritualistes ne pouvant être discutées par une science se voulant matérialiste (ou naturaliste, selon le terme anglais).

De nos jours, l'on préfère faire appel à la philosophie. Il ne s'agira pas de philosophie des sciences, laquelle étudie les fondements et les implications de la science, mais de philosophie scientifique. Celle-ci s'efforce de porter un regard critique sur les hypothèses scientifiques – ceci quels que soient les domaines scientifiques impliqués, biologie, physique, cosmologie. Il ne s'agit évidemment pas de les évaluer, mais lorsque la chose est possible, de les confronter dans la perspective d'une rationalité plus générale. Si l'on considère que l'appel à la raison est, au moins depuis l'Antiquité Grecque, une caractéristique de la pensée matérialiste, il ne faut hésiter à y avoir recours, même dans les domaines où les hypothèses formulées paraissent défier le bon sens, c'est-à-dire se situer en dehors de toute rationalité telle que nous la concevons généralement.

Cette philosophie scientifique intéresse en premier lieu les scientifiques eux-mêmes, quand ils s'interrogent sur les sens susceptibles d'être donnés aux résultats de leurs recherches. Beaucoup certes ne le font pas, soit pour éviter de s'égarer, soit parce que la démarche ne leur serait d'aucun intérêt en vue de leur promotion professionnelle, soit simplement par manque de temps. En mécanique quantique, par exemple, le mot d'ordre généralement admis dans les laboratoires est « Calcule et tais-toi ». Autrement dit, ne perds pas ton temps à discuter la validité des différentes « interprétations » données aux concept de cette physique, superposition d'état, intrication, non localité, etc.

Mais certains le font cependant. D'une part parce que le cerveau humain paraît avoir été formé par l'évolution pour envisager ce qu'il peut y avoir au delà des informations reçues par les sens. D'autre part parce que dans nos sociétés imprégnées de culture scientifique, ces concepts sont couramment manipulés par les média, qui ne cessent d'interroger les scientifiques à leur sujet. Ne pas répondre entrainerait le risque de relancer des discussions inspirées de religiosité et de science-fiction, ou plus simplement génératrices de contre-sens scientifiques dangereux.

La collaboration avec des philosophes

Dans ce cas, les scientifiques entrant dans ces débats ont intérêt à collaborer avec des philosophes s'inspirant des pratiques de ce que l'on nomme, au sein de la philosophie scientifique, la philosophie critique. On en attribue généralement la paternité à Kant. Le terme, opposé à celui de dogmatisme, désigne une réflexion systématique sur les conditions et conséquences des concepts, théories et pratiques correspondant à l'état de la science à un moment donné au sein d'une discipline donnée. Bien entendu, les scientifiques eux-mêmes peuvent et doivent se livrer à cet exercice, mais l'intervention de ce que l'on pourrait appeler des philosophes professionnels, rompus à cette démarche, ne pourra que donner de bons résultats.

C'est ce que vise actuellement à réaliser, dans le domaine de la cosmologie, un groupe d'étude récemment créé à Oxford sous le nom de Philosophy of Cosmology Il réunit des cosmologistes et des philosophes critiques s'intéressant aux innombrables points d'interrogation soulevés par cette science. Un tel travail doit reposer sur une très bonne connaissance de l'histoire des concepts et hypothèses de la cosmologie, sinon depuis Lucrèce, du moins depuis la fin du 19e siècle jusqu'au découvertes les plus récentes, celles apportées par la physique quantique ou, dans un domaine voisin, les recherches sur les hautes énergies (censées caractériser les états primordiaux de l'univers). On citera évidement en ce cas le boson de Higgs.

Le travail reposera aussi sur une bonne connaissance des acquits de l'astronomie terrestre et satellitaire, à partir desquelles ont été construits des modèles dits de « l'univers observable ». Les deux approches doivent être conjuguées, puisque l'univers paraît fait, à certaines échelles, de particules matérielles et d'énergie. La philosophie critique s'efforcera sur ces bases d'établir des ponts de rationalité entre les différents contenus de connaissance, qu'ils relèvent de la science proprement dite, de la pensée empirique ou même de certaines formes d'irrationalité.

Les observations du fonds de ciel cosmologique, les plus récentes ayant été obtenues par le satellite Planck, ont suggéré un grand nombre d'hypothèses en principe testables. Mais elles laissent sans réponse la question des origines de l'univers (le big bang supposé et l'avant-big bang) et moins encore celle de son avenir. C'est alors la cosmologie théorique qui prend le relais. Celle-ci repose essentiellement sur des hypothèses mathématiques. Bien que rigoureuses, les calculs correspondants ne produisgénéralement pas de résultats vérifiables. De plus ces hypothèses sont en grand nombre et très différentes.

C'est alors que doit intervenir le travail de la philosophie critique. Elle s'assurera, dans la mesure de ses capacités, du caractère scientifique des hypothèses. Mais par ailleurs elle discutera de leur pertinence en les comparant au très grand nombre des considérations mythologiques ou romanesques qui ont toujours été présentées à propos des questions posées.

Aujourd'hui, la cosmologie théorique laisse sans hypothèses beaucoup de problèmes intéressant la cosmologie, problèmes jugés impossibles à mathématiser. Même lorsqu'ils sont mathématisés, les hypothèses en découlant sont très différentes voire contradictoires. Elles s'inscrivent dans les « théories » qui se sont succédées depuis Newton. La plupart de celles-ci demeurent encore d'actualité, même si elles ont du évoluer pour tenir compte de théories ultérieures. C'est ainsi le cas des théories de la gravité ou de la relativité. D'autres font encore l'objet de recherches, sans avoir abouti. Il est d'ailleurs difficile en ce cas de parler de théorie. Citons la théorie des cordes ou celle de l'univers cyclique due à Roger Penrose.

Entre ces deux catégories se trouvent des théories relativement accomplies, mais jugées insuffisantes parce que laissant encore beaucoup de points obscurs. C'est le cas de la mécanique quantique, ou plus récemment, de la thermodynamique des trous noirs ou de la cosmologie inflationnaire. La philosophie critique se trouve donc confrontée à un programme d'évaluation et le cas échéant de propositions excédant les moyens humains dont elle dispose. Des choix s'imposent.

Un élargissement continu du regard

Dans ce but, un certain consensus s'est établi récemment concernant les thèmes méritant en priorité d'être discutés. Pour les identifier, il faut confronter tous les évènements cosmologiques qui auraient pu se produire, et les rapprocher de ce qui s'est à notre connaissance produit dans notre conception actuel de la physique cosmologique. Certains parleront d'effets de mode. La mode, ou plus généralement la succession de consensus généralement partagés, joue certainement. Mais, à regarder les choses avec un oeil plus constructif (c'est-à-dire philosophique) on constatera que la succession des théories et des hypothèses traduit un mouvement continu dans le sens de l'élargissement du regard et donc des perspectives.

D'abord restreint au système solaire, puis à l'univers visible, puis à l'univers dans son ensemble, qu'il soit ou non visible, le regard se porte dorénavant sur le concept de multivers, autrement dit sur la possibilité qu' « existe » un nombre éventuellement infini d'univers parallèles, entre lesquels à ce jour n'apparait pas de possibilités de communication. Découlant de cette perspective, le concept jusque là bien établi de l'universalité des lois fondamentales de la physique est remis en cause. Chaque univers peut s'organiser autour de jeux différents de lois fondamentales. Dans ces conditions les contenus de ces univers peuvent être très différents, certains hébergeant des formes de vie ou d'intelligence sans commune mesure avec celles que nous connaissons sur la Terre. Le concept de multivers oblige par ailleurs à prendre en considération celui d'infini, infini en ce qui concerne le nombre des univers, infini en ce qui concerne le temps et l'espace – à supposer que demeurent encore des espaces-temps plutôt que des continuum.

Si l'on retient l'hypothèse (qui n'est pas encore admise par tous, mais de plus en plus acceptée), qu'immédiatement après le big bang marquant la naissance de notre univers, ce serait produite une inflation très rapide, laquelle se serait ralentie par la suite, prenant le nom de constante cosmologique, on est presque forcé d'admettre que le multivers est en ce qui le concerne le théâtre d'une inflation infiniment répétée, autrement dit éternelle. De cette inflation naîtrait en permanence de nouveaux univers eux-mêmes en expansion.

L'ennui du concept de multivers infini, où tout ce qui peut se produire s'est produit ou se produira nécessairement, est qu'il rend en pratique impossible la moindre hypothèse, et moins encore la moindre perspective de mise à l'épreuve de ces hypothèses. Ceci même en ce qui concerne notre propre univers, et la cosmologie qui ambitionne de l'étudier. Tout ce que la cosmologie peut faire, c'est constater que notre univers est ce qu'il est, de même que sont ce qu'elles sont les lois apparemment fondamentales qui le régissent. Elle ne peut tenter le moindre début d'une explication concernant leurs raisons d'être. Nous sommes donc en présence d'un défi à la rationalité et à la causaité telles que celles à laquelle nous nous référons.

Si pour restreindre le champ des incertitudes, la cosmologie théorique ne voulait prendre en considération qu'un nombre fini d'univers, se déployant dans des temps et des espaces finis, elle serait dans l'impossibilité de préciser ce que seraient les limites de ce nombre, de ce temps et de cet espace. Elle pourrait, moins encore que dans l'hypothèse de l'infini, prétendre expliquer quelle méta-loi fondamentale aurait déterminé ces limites.

Que faire ?

Devant de telles difficultés, les tenants du spiritualisme feront valoir que les religions apportent leurs réponses, puisqu'elles ont posé l'existence d'un Dieu aux connaissances infinies et sans frontières, que ce soit dans le temps ou dans l'espace. Mais cette façon de penser consiste, plus efficacement encore que la théorie des multivers infinis, à nier l'intérêt de la science. Si Dieu a réponse à tout, à quoi bon chercher des explications rationnelles ?

C'est plutôt la philosophie critique évoquée au début de cet article qui pourrait ouvrir des perspectives de solution. Sans faire de grands efforts d'imagination, elle pourrait en effet faire valoir que les hypothèses et les théories découlent quasiment directement de la nature des instruments d'observation apparaissant progressivement dans la suite de l'évolution de la vie sur Terre. Les grands observatoires terrestres ou satellitaires ont succédé à la lunette de Galilée. Tout laisse penser que si l'humanité ne se détruit pas entre temps, d'autres instruments bien plus performants pourront à l'avenir tester des hypothèses apparemment hors de toute pratique expérimentale, comme celle des univers multiples ou du passage d'un univers à l'autre.

Nous avons pour notre part fait dans des articles précédents l'observation que le cerveau humain étant le premier des instruments à partir desquels s'élaborent les théories, l'augmentation des capacités cognitives de ces cerveaux, que ce soit par l'évolution génétiquement programmée ou par la mise au point de cerveaux artificiels, entrant en symbiose avec les cerveaux naturels, pourrait rendre évidents à la raison des concepts aujourd'hui « incompréhensibles » en termes concrets, comme ceux d'infini ou de multivers.

Si l'on entreprend de raisonner un tant soit peu philosophiquement sur le rôle des cerveaux dans la production d'hypothèses concernant la nature profonde de l'univers, on sera obligé de faire une constatation qui n'est en rien un retour au religieux, mais qui découle d'un fait communément observé en anthropologie humaine. Les sociétés les plus primitives (peut-être même certains animaux) ont toujours généré spontanément le concept d'infini, appliqué au temps, à l'espace ou au contenu même des connaissances. Ne serait-ce pas que d'une certaine façon, elles étaient en relation avec des formes de connaissances dépassant la seule rationalité telle que nous voulons la limiter aujourd'hui ?

Il n'est pas exclu que les cerveaux des grands penseurs et des grands scientifiques présentent de leur côté des caractères neurologiques, obtenus suite à de rares mutations non transmissibles aux descendants, les mettant à même de générer des intuitions que la science s'applique ensuite à vérifier ? Ces intuitions proviendraient alors d'une mise en contact épisodique avec les formes de connaissance évoquées ci-dessus.

Mais en ce cas, ne pourrait-on pas suggérer que ces formes de connaissance seraient cosmologiques, en ce sens qu'elles pourraient avoir été générées par des algorithmes intelligents circulant dans l'univers à partir des réseaux formés par les humains et autres créatures hypothétiques présentes sur d'autres planètes. Le physicien autrichien Ludwig Boltzmann avait dans les années 1890 indiqué que si, dans un univers infini, les phénomènes les plus improbables ont des chances de se produire, l'évolution de cet univers infini, aujourd'hui nous dirons de ce multivers, pourrait produire occasionnellement, ici ou là, des entités intelligentes flottant dans le grand tout et susceptibles d'inspirer occasionnellement des cerveaux plus limités tels que les nôtres. Il s'agit de ce que l'on a nommé des « cerveaux de Boltzmann ». Nous avions abordé cette question dans un article du 22 août 2007 auquel nous renvoyons le lecteur.

Il n'est pas nécessaire d'accepter sans discussion cette idée que l'on jugera bizarre. Mais les philosophes critiques devraient s'en saisir pour réfléchir à ce que pourrait être un univers, ou plus exactement un multivers, ne se limitant pas aux modèles nécessairement réducteurs que s'en donne la science actuelle. Si les Giordano Bruno et Galilée avaient procédé ainsi, nous en serions restés à la cosmogonie décrite par les pères de l'Eglise du 16e siècle et imposée comme un article de foi.

Dans ce cas, sans refuser d'aborder les problèmes cosmologiques aujourd'hui intraitables, la philosophie critique pourrait conseiller aux humains d'entreprendre des tâches à leur portée, dans des temps relativement proches. Il s'agirait autrement dit de mettre tous leurs efforts, non pas à des consommations de gaspillage ou à des spéculations de mathématique « pure », mais au perfectionnement continu des instruments et des cerveaux, tant au plan biologique qu'au plan de l'intelligence générale artificielle (AGI).

Il est plus que probable que des nouvelles recherches ainsi mises en oeuvre surgiraient des intelligences « augmentées » productrices de nouveaux modèles du monde. Ceux-ci seraient facilement maniables par les rationalités et les philosophies du futur, comme le sont pour nous les concepts de trous noirs ou d'inflation primordiale.


Pour en savoir plus

1) On lira dans le sens de ce qui précède l'article Cosmic conundrums du physicien Joseph Silk

2) Le même Newscientist consacre un article à un penseur exceptionnel, mais jusqu'ici quasi ignoré , le philosophe médieval Robert Grosseteste, auteur en 1225 du traité De luce. Celui-ci contient des hypothèses qui, traduites dans un langage mathématique moderne, semblent préfigurer les théories les plus audacieuses de la cosmologie actuelle. L'auteur, au nom prédestiné, a aussi inspiré les recherches modernes sur la couleur. (Image ci-dessus The British Library/Rex)

Partager cet article

14 mars 2014 5 14 /03 /mars /2014 17:00

The Intercept est le journal fondé par Glenn Greenwald, Laura Poitras et Jeremy Scahill pour diffuser les informations rapportées par Edward Snowden et décrivant en détail les activités de la NSA, de la CIA et d'autres agences américaines afin d'espionner le web mondial. Ces trois journalistes, comme nul ne devrait l'ignorer, ont été et demeurent l'objet de persécutions multiples visant à les réduire au silence. Ils ont le courage de les braver, peut-être au péril de leur vie. Ils ont été rejoints par une poignée de militants décidés à combattre l'hégémonie des susdites Agences sur le web.

C'est pourquoi The Intercept doit absolument devenir une des sources de références pour ceux qui se préoccupent de comprendre en profondeur comment va le monde. Ajoutons cependant, à l'intention des ingénus, que comme tout ce qui provient du web peut être piraté et déformé par divers « malware », il faudra toujours à l'avenir se demander si les textes présentés comme venant de The Intercept sont bien de lui.

Dans l'immédiat, nous ferons confiance aux articles déjà publiés par le Journal. Le premier de ceux-ci décrit la façon dont la NSA utilise l'espionnage sur les réseaux afin d'identifier les individus à cibler en vue d'assassinat par des drones. Compte-tenu de la lutte menée contre les Talibans en Afghanistan et au Pakistan, on dira que la chose est de bonne guerre. Mais la technique peut être aussi employée pour détruire, par des drones ou autrement, toute personne jugée nuisible. Il peut s'agir de vous. Il peut s'agir de moi.

Le deuxième article est un reportage photographique commenté concernant les implantations de la NSA et d'autres grandes agences sur le territoire américain. Ces immeubles hébergent des serveurs mémorisant les milliards d'informations collectées par les agences depuis quelques années. Ils hébergent aussi d'importantes équipes d'analystes et de hackers chargé de pirater les communications et les ordinateurs d'ennemis éventuels de l'Amérique. La définition en est si large qu'elle peut inclure, à nouveau, vous et moi.

Mais l'article qui doit aujourd'hui retenir toute notre attention concerne les méthodes employées à très grande échelle pour pénétrer les réseaux et les ordinateurs de millions d'usagers du web, qu'ils se trouvent aux Etats-Unis ou à l'étranger. « How the NSA Plans to Infect ‘Millions’ of Computers with Malware » On notera que ces opérations sont conduites à partir du siège de la NSA à Fort Meade, mais sont pleinement relayées par les services secrets britanniques, le désormais célèbre GCHQ, ainsi qu'au Japon et dans 3 autres pays, Australie, Canada, Nouvelle Zélande composant avec l'Amérique et le Royaume-uni le groupe dit des Five Eyes. Ceux qui, en Europe, déplorent l'excessif assujettissement des gouvernements aux stratégies américaines, devraient se demander jusqu'à quel point les services secrets des pays de l'Union européenne collaborent avec la NSA et plus généralement avec les Five Eyes dans le recueil et l'exploitation d'informations piratées dans les ordinateurs des usagers européens du Net.

Sans être à proprement parler technique, l'article fait allusion à beaucoup de méthodes d'espionnage informatique totalement ou presque totalement insoupçonnées à ce jour en France. Outre qu'il est en anglais, il ne retiendra sans doute pas l'attention des hommes politiques et des militants qui se préoccupent de l'indépendance du pays. Ceci est pour nous une occasion de plus pour déplorer l'illettrisme en matière de technologies de l'information qui sévit à tous les niveaux des administrations et des entreprises. Comment se défendre alors des emprises de l'Empire américain, à supposer que l'on veuille le faire. Il faudrait se rappeler la charge des cuirassiers français à Reichshoffen-Morsbronn en 1970, anéantis par les canons et les fusils prussiens (image). La disproportion des moyens est la même, à supposer que la volonté de se battre soit la même.

TURBINE


Nous nous bornerons ici à résumer le thème général de l'article. Il montre comment, à partir de 2005-2009, la NSA a développé des méthodes de surveillance révolutionnaires consistant à infecter des millions d'ordinateurs de par le monde avec des « implants » se comportant en espions. Les implantations visent en simultané les réseaux, serveurs et opérateurs téléphoniques des pays espionnés. Toutes les techniques ont été utilisées pour réaliser ces implants. La plus générale consiste à envoyer des e-mails dont l'ouverture provoque l'infection de l'ordinateur ciblé. Mais les utilisateurs ont fini par se méfier des e-mails anonymes.

Une autre méthode, reposant sur la diffusion croissante des « réseaux sociaux » tel Facebook, consiste à utiliser de faux serveurs au nom de ces réseaux pour introduire les malware chez des abonnés qui ne se méfient pas. Les ordinateurs de ceux-ci peuvent alors être utilisés pour enregistrer les propos et les images de leurs possesseurs, télécharger leurs fichiers, en corrompre les contenus ou en bloquer l'accès. De plus, des méthodes très sophistiquées ont été mises en place pour casser les encryptages que certains de ces utilisateurs ont installés pour se protéger. On est fort loin, on le voit, des méthodes archaïques utilisées en France par les juges d'instruction pour mesurer le degré d'implication supposée d'un ancien président de la République dans certaines affaires.

Mais la méthode des implants n'a pas été jugée suffisante par la NSA. Toutes les techniques énumérées ci-dessus supposent, bien qu'automatisées, l'intervention d'un trop grand nombre d'opérateurs humains, compte tenu du fait qu'elles visent des millions et à terme des dizaines ou centaines de millions d'utilisateurs. Il a fallu développer des procédures pouvant fonctionner de façon autonome, sans interventions humaines. C'est ce qu'Alain Cardon avait décrit dans son ouvrage, publié en octobre 2011 sur notre site " Vers un système de contrôle total" .

En l'espèce, il s'agit d'un système automatique baptisé TURBINE. Celui-ci vise à étendre le réseau des implants à des millions d'ordinateurs, réaliser les processus de contrôle par groupes et flux de machines plutôt qu'individuellement et déclencher sur une large échelle des opérations relevant de ce qu'il faut bien appeler la cyber-war. Les concepteurs du système ont plus ou moins admis que les agents intelligents artificiels chargés de ces tâches pouvaient devenir entièrement autonomes, accumuler les erreurs non contrôlées voire entrainer des destructions du type de celles constatées dans l'utilisation des drones, mais à une toute autre échelle. Le risque est cependant accepté, car il s'agit du prix à payer pour assurer, non pas la survie de l'Amérique face à d'éventuels ennemis, mais le contrôle du monde entier par cette même Amérique.

Ajoutons que depuis la rédaction des documents recueillis par Edward Snowden, plusieurs années se sont écoulées. Comme l'on n'arrête pas le progrès, on peut imaginer la puissance dont les agences américaines disposent maintenant, et celle qu'elles ne manqueront pas d'acquérir dans les prochaines années. Sursum corda. Hauts les coeurs.

Partager cet article

12 mars 2014 3 12 /03 /mars /2014 17:40


La condition numérique

par Bruno Patino et Jean François Fogel

Grasset 2013

Commentaires par Jean-Paul Baquiast 12/03/2014

Pour en savoir plus
* Sur Bruno Patino http://fr.wikipedia.org/wiki/Bruno_Patin
* Sur Jean Francois Fogel http://www.coana.fr/uploads/JF%20Fogel-Bio.pdf

Extraits du livre http://abonnes.lemonde.fr/livres/article/2013/04/05/la-condition-numerique_3153736_3260.html

Les auteurs sont journalistes, bons connaisseurs non seulement d'Internet mais de la société numérique au sens large. Leur livre « « La condition numérique » est donc à recommander à tous. Non seulement à ceux qui croient savoir ce qu'il en est parce qu'ils se bornent à pratiquer les réseaux dits « sociaux », non seulement à ceux qui éditent sur Internet en utilisant par exemple un blog, mais à tous ceux qui – à la suite entre autres des révélations d'Edward Snowden – voudraient en savoir plus sur les pouvoirs occultes qui conditionnent chacun à son insu au sein de la société numérique.

La lecture laissera les plus aguerris surpris en découvrant exposé dans chacune des pages ce qu'ils soupçonnaient sans toujours pouvoir le démontrer, la complexité foisonnante acquise en 20 ans à peine par les techniques, les usages et les agents fondant la condition numérique. Cette complexité augmente tous les jours à un train d'enfer, si bien que les connaissances des spécialistes eux-mêmes ne sont jamais à jour. Le livre lui-même, évidemment, ne l'est plus. Mais il est suffisamment pédagogique pour donner à ses lecteurs des pistes permettant d'actualiser leurs connaissances.

De plus, écrit en français et non en anglais, ce qui est rare quant il s'agit d'informatique, il est accessible à tous dans ce pays. Il rend à cet égard un devoir civique de première grandeur car nos concitoyens se caractérisent par une rare ignorance des questions abordées, ignorance qui ne les empêche pas de formuler des jugements a priori, plus nuisibles les uns que les autres lorsqu'ils veulent jouer un rôle tant soit peu actif.

Des points insufisament développés.

Ceci dit, pour notre part et pour ne pas simplement répéter ici les propos des auteurs, nous voudrions évoquer rapidement plusieurs points qui nous paraissent insuffisamment traités ou être oubliés. En voici une liste rapide:

* Le livre ne distingue pas suffisament entre les technologies et les usages qui génèrent de la passivité et du conformisme, comme par exemple la télévision, et celles qui poussent les individus et les groupes à s'exprimer. A cet égard, les auteurs ne mettent pas assez en valeur la révolution sociale apportée par Internet au sein de populations soumises depuis des siècles à la culture des classes dirigeantes. Tous ceux qui avaient vu dans l'expansion d'Internet à la fin des années 1990 un remarquable et tout nouveau outil d'émancipation sont revenus sur beaucoup de leurs illusions. Ils constatent maintenant sur le réseau l'emprise des Etats, des religions, du terrorisme et de la criminalité.

Néanmoins la perspective d'émancipation demeure, s'étendant d'ailleurs à l'ensemble du monde. La possiblité pour chacun, par exemple, de rédiger soi-même un commentaire en est un exemple. Il s'agit d'une petite révolution, pour l'écrit, analogue à celle qu'a apporté la multiplication des téléphones portables pour la parole. Le fait que ces commentaires soient souvent déplacés ou agressifs ne change rien à l'affaire. Quandt l'auteur d'un article en ligne peut recevoir instantanément des dizaines ou centaines de réactions, il s'améliore lui-aussi grandement. Au lieu de s'enfermer dans l'auto-satisfaction impénitente, il prend mieux conscience du public auquel il s'adresse.

* Par ailleurs, le livre présente la communauté des internautes, et pas seulement les jeunes, comme des addicts incontrôlables. Certains le sont peut-être, comme ils l'étaient avant cela des jeux électroniques ou de la télévision. Mais ils restent une minorité. Les autres sont bien obligés d'abandonner l'écran pour travailler et assurer leur subsistance dans le monde réel. La plupart se bornent à utiliser Internet comme un outil incomparable, par exemple quand ils y trouvent immédiatement sur wikipedia le mot ou la référence dont ils ont besoin. Pour les chercheurs scientifiques, le réseau est devenu à cet égard incontournable. Il leur fait gagner des années, auparavant perdues à consulter les bibliothèques et autres sources hors de portée. Ou pourrait dans cette optique être tenté d'opposer l'Internet des pauvres et celui des élites. Mais ce serait très réducteur. Chacun y trouve des gains de productivité en fonction de ses activités.

* Par ailleurs, en suivant les auteurs, l'on pourrait s'imaginer que le monde tout entier est enfermé dans un vaste filet supprimant les différences et homogénéisant les pensées. Ceci est loin d'être exact. Encore aujourd'hui, malgré des outils tels que les traducteurs automatiques et les échanges d'images, Internet reste cloisonné en multiples cellules étanches. Elles ne regroupent que de petites communautés d'échanges, extraordinairement résistantes aux mélanges. Beaucoup d'observateurs pensent d'ailleurs que c'est très bien ainsi. La création n'est possible qu'au sein de petits groupes travaillant ou pensant en commun.

Au plan mondial, on peut d'ailleurs craindre que ne subsistent pendant encore des décennies de grands blocs de réseaux incapables de se comprendre, et pouvant de ce fait être portés à se faire la guerre : anglophones, espagnophones, sinophones, russophones, notamment. Ici, en tant qu'auteurs se voulant exclusivement francophones, pour des raisons politiques, nous savons très bien que nous nous coupons délibérément de 80% de correspondants possibles. C'est dommage, mais c'est un choix à faire, en attendant de meilleurs techniques de communication.
.
Une grande naïveté géopolitique

Ceci nous conduit à des considérations géopolitiques fort peu abordées par les auteurs de « La condition numérique ». Ils ne mentionnent guère ce que l'on pourrait appeler le dossier noir du web: le fait que celui-ci a dès les origines été un instrument quasi exclusif au service de ce qu'il faut bien appeler l'empire américain. Les Etats-Unis, leurs technologies, leurs cultures y dominent de plus en plus, contrairement à ce que pensent certains européens naïfs. Initialisée en Amérique, du fait de la courte vue et l'incompétence de nos dirigeants et de nos industriels, cette domination est en train de devenir quasi totale. La convergence et le développement exponentiel de technologies nées dans la Silicone Valley semble atteindre un point de non retour.

C'est ce qu'écrit dit Julian Assange, bien payé pour le savoir « Le Web s'est à tel point rapproché du monde réel que les deux sont désormais liés. Les lois du Web s'appliquent à la société civile. Ce qui se passe aujourd'hui est une occupation militaire de cet espace civil par les gouvernements occidentaux, et c'est très grave » « Internet a été coopté par un complexe mêlant les espions, les militaires, les gouvernement et les prestataires privées pour devenir un outil de surveillance totalitaire » « Pas dans le sens de Staline, mais dans le sens où il est total. L'individu ne peut pas s'en extraire ». « Ce qui se passe est un hold-up énorme, opéré par les gens qui ont déjà acquis le pouvoir ».

Le propos est juste, sauf que tous les gouvernements occidentaux ne sont pas sur le même pied. Même si le Royaume Uni a montré à la suite des révélations d'Edward Snowden qu'avec ses propres services, il pouvait disposer d'une certaine autonomie (d'ailleurs totalement dévouée à l'Amérique) c'est le système américain, dit pour simplifier le complexe médiatico-politico-industriel américain que en tire presqu'exclusivement profit.

Matériels américains, logiciels, serveurs, GAFA (les Google et autres géants américains du net). industries et produits américains en bénéficient quasi exclusivement. De plus, les auteurs n'ont pas développé la question cruciale de l'espionnage et de la cyberwar, pour qui les populations mondiales branchées sur Internet sont devenues des terrains de manœuvre quasi-exclusifs, ceci d'ailleurs le plus souvent avec leur participation. Les centaines de milliards investis ne visent pas seulement à permettre aux GAFA de faire du profit en vendant de la publicité. Les produits à vendre et les revenus pour les acheter sont limités. Ce qui fonde la démarche est la volonté d'une prise de pouvoir mondial. NSA, CIA, Google et autres Youtube y travaillent de concert.

Cette prise de pouvoir est assurée par une élite anglo-saxonne scientifique et économique, les fameux 1% versus 99% dénoncés par certaines manifestations d'Indignés, Indignés bien calmés d'ailleurs depuis, face aux différentes formes de répression qui s'abattent sur eux.

Bien plus, cette domination ne fait que commencer. Nous avons plusieurs fois montré ici qu'est en train de se matérialiser la vision d'un Ray Kurzweil (d'ailleurs recruté par Google); l'émergence d'un cerveau artificiel, à la fois réparti et centralisé, qui deviendra la tête pensante du monde et dont nous serons au mieux, chacun d'entre nous, de simples neurones incapables de participer à l'élaboration d'un cortex supérieur.

Rassurez-vous, dira-t-on, les Chinois ne vont pas laisser les Américains dominer. Cela ne serait peut-être pas une bonne nouvelle pour nous, à supposer qu'ils le puissent. Mais nous sommes convaincus qu'empêtrés dans la lutte contre la pollution et le changement climatique, les Chinois seront incapables de réunir les trillions de dollars qui leur seraient désormais nécessaires pour présenter une alternative crédible au Système américain.

Le lecteur de cet article objectera que l'auteur du dit article a tort de se plaindre, puisque le Système le laisse libre de vitupérer contre lui. Nous répondrons que si nous restons encore libre de vitupérer, c'est soit parce nous ne sommes pas assez connectés pour nous faire entendre, soit parce que le Système a besoin de quelques voix discordantes pour montrer sa grande tolérance.

Partager cet article

Jean-Paul Baquiast
commenter cet article
15 février 2014 6 15 /02 /février /2014 11:47


Jean-Paul Baquiast 15/02/2014

On ne se pose pas assez la question de savoir comment fonctionne le cerveau, en tant que machine à se représenter le cosmos. La lecture du dernier livre de (sir) Roger Penrose « Les cycles du temps », une nouvelle vision de l'univers » Odile Jacob 2014 illustre bien la question. L'auteur, mathématicien universellement reconnu, y présente son hypothèse dite de la Cosmologie Conforme Cyclique (CCC). Celle-ci vise à éclairer les points encore incompris de la cosmologie contemporaine, notamment l'avant-big bang, les trous noirs et la fin de l'univers lorsque celui-ci, au terme d'une expansion paraissant aujourd'hui généralement admise, ne sera plus représenté que par des atomes infiniment éloignés les uns des autres dans un espace lui-même infini. Mais la CCC que propose Penrose, si elle peut selon lui résoudre des difficultés inhérentes aux modèles cosmologiques actuels, nous plonge dans un mystère encore plus grand, celui comme son nom l'indique, d'un univers cyclique, se renouvelant sans cesse dans de nouveaux big bangs. L'univers cyclique est une très vieille idée, mais Penrose la reprend et la développe de façon notamment à la rendre compatible avec la gravitation quantique en cours d'élaboration par ailleurs.

Or ce travail a nécessité de sa part une intense élaboration mathématique. Les quelques éléments qu'il en donne dans le livre sont pratiquement inaccessibles à un lecteur non au fait des structures mathématiques utilisées depuis maintenant plus de 150 ans par la communauté des cosmologistes théoriques pour soutenir leurs propres hypothèses sur l'univers. Se pose alors la vieille interrogation: pourquoi les mathématiques, dans leurs développements quasi exponentiels, peuvent-elles servir de support à ces hypothèses sur l'univers? Pourquoi sont-elles seules capables de le faire? Et devons-nous faire conscience à ces mathématiques pour représenter vraiment l'univers?

Max Tegmark, nous l'avons vu, rejoint ceux qui avant lui avaient postulé, non seulement que l'univers est parfaitement descriptible par les mathématiques - ce que Penrose ne met aucunement en doute - mais qu'il est lui-même mathématique. Même si Penrose ne formule pas explicitement cette dernière hypothèse, son livre pourrait nous conduire, comme beaucoup d'ouvrage de cette nature, à nous demander pourquoi l'univers, y compris l'ensemble des phénomènes étudiés par la science, prennent-ils si facilement des formes mathématiques. Ne serait-ce pas qu'auraient existé, ou existeraient, des structures mathématiques primordiales, hors de l'espace et du temps, qui, si l'on peut dire, s'incarneraient dans l'univers, comme l'embryon s'est incarné dans l'enfant. C'est en tous cas là l'hypothèse forte de Tegmark, qui donne son titre au livre que nous avons précédemment présenté.

Or les mathématiques manipulent des concepts qui, non seulement sont sans correspondance dans notre milieu quotidien, mais qui même sont incompréhensibles par notre cerveau. C'est le cas souvent cité du concept d'infini. Chacun de nous sait ce qu'il désigne mais renonce à lui donner un contenu concret, intéressant notamment la cosmologie. Qu'est-ce qu'un univers infini? Nous sommes devant ce qui risque de demeurer à jamais un mystère, comme l'est le croyant devant le concept de Dieu. Faut-il croire sans comprendre?

Un cerveau mathématique

Nous avons pour notre part souvent observé que la question intrigante, jamais abordée en profondeur par la science, devrait consister à ce demander quel rôle joue notre cerveau dans la production des concepts et structures mathématiques. On pourrait imaginer qu'il s'agit de produits du cerveau et plus généralement de l'organisme vivant, élaborés au cours de l'évolution pour faciliter l'adaptation à un monde dont la complexité paraissait initialement impénétrable. Mais la vie a évolué dans un environnement bien particulier, les milieux terrestres chauds et humides. Pourquoi penser que les outils mathématiques ayant eux-mêmes été produits et ayant évolué en auxiliaires de l'adaptation à ces milieux pourraient aujourd'hui nous servir à nous représenter les milieux cosmologiques?

Nous pourrions poser la question autrement. Ne serait-ce pas notre cerveau qui serait mathématique, et non l'univers profond, encore très largement invisible, dans lequel nous sommes plongés? Autrement dit, nos cerveaux et plus largement nos organismes, ayant développé au cours de leur évolution tout au long de l'histoire du monde animal des outils leur permettant au mieux d'analyser un monde dangereux afin d'y survivre, n'auraient-ils pas projeté ces outils sur le monde non immédiat, celui du cosmos supposé, afin de bénéficier de leur force explicative? L'expérience ayant été satisfaisante, les outils et les modèles du monde qu'ils permettaient se seraient co-développés par la suite.

Personne ne conteste aujourd'hui, même les mathématiciens les plus convaincus du caractère platonicien des mathématiques, le rôle de notre cerveau dans la production des mathématiques élémentaires, arithmétique, géométrie, les plus nécessaires à la survie et d'ailleurs utilisées de façon implicite par tous, mathématiciens ou non. Ce seraient des structures neuronales, aujourd'hui de mieux en mieux connues, qui associées à des structures anatomiques acquises par ailleurs, auraient élaboré l'aptitude à traiter mathématiquement les informations sensorielles basiques provenant de l'environnement.

Il se serait d'abord agi de géométrie. Pour s'adapter aisément aux milieux naturels, il fallait s'habituer à y identifier des courbes, des droites, des volumes. D'abord intuitive, la construction de représentations géométriques du monde aurait été rationalisée, avec le succès que l'on connait, au sein des premières civilisations bâtisseuses. Il en aurait été de même de l'arithmétique. Les neurosciences animales semblent montrer que la plupart des oiseaux et des mammifères sont capables de compter au moins jusqu'à trois, et de différencier les grands groupes des petits groupes. Ceci leur est vital pour la survie. Quant au concept d'infini, si étrange en cosmologie moderne, n'aurait-il pas été inventé spontanément par les cerveaux pour se représenter intuitivement ce qu'il y avait au delà de l'horizon visible. Très tôt ce concept a été repris explicitement par les mythes religieux (c'est-à-dire par des cerveaux humains en proie à certains stimulants chimiques favorisant les visions mystiques) pour désigner une déité omnisciente mais inconnaissable.

Ainsi, l'organisme humain, doté à la suite de l'évolution biologique de 10 doigts, lesquels trouvent leurs commandes au sein du cortex moteur, aurait appris à utiliser ces 10 doigts pour découper dans un environnement non différencié au départ, des artefacts utiles, tels que des outils de pierre, nécessaires à la survie. Le dénombrement de ceux-ci devenait alors impératif. Le cerveau humain se serait par la suite doté, à des niveaux supérieurs du cortex, de circuits neuronaux dits cognitifs, capables de calculs arithmétiques nécessaires pour tirer parti des informations de plus en plus riches recueillies à la périphérie du corps.

Certains biologistes se sont d'ailleurs demandé si d'autres animaux, par exemple les poissons, ne disposant pas de mains telles que les nôtres, seraient capables de compter. Dans la négative, ceci expliquerait que les poissons n'aient pas produit de grands arithméticiens. Il est vrai que les poissons, comme à un niveau inférieur les bactéries, font plutôt appel, notamment par leurs aptitudes à former des « bancs », à des mathématiques différentes de l'arithmétique basique. Les mathématiciens humains viennent seulement de les découvrir, afin de les adapter notamment au traitement des ensembles et des réseaux.

Nous pourrions donc suggérer que les mathématiques évoluées qu'utilisent les physiciens n'existeraient pas en dehors des planètes abritant des êtres vivants. Elles ne seraient pas assez puissantes pour réguler l'évolution globale du cosmos, ni des structures que nous croyons pouvoir identifier au sein d'un cosmos indifférencié. Elles ne pourraient donc pas être attribuées à des univers et entités cosmologiques existant en dehors de l'homme, et que celui-ci se donnerait la mission de redécouvrir. Elles ne pourraient même pas être utilisées pour analyser ou interpréter les données brut que nous apportent des instruments d'observation de plus en plus perfectionnés.

On dira qu'un tel jugement, à supposer que nous hasardions à l'exprimer, méconnaitrait complètement le rôle des mathématiques en astronomie et en cosmologie. Elles servent d'abord à formuler des hypothèses sur l'univers à partir de données existantes. Celles-ci sont ensuite, comme en toute science, soumises à l'expérience instrumentale. Seules les hypothèses confirmées par cette dernière sont conservées, ainsi que les structures mathématiques ayant servi de support à la formulation de ces hypothèses.

Malheureusement, si l'on peut dire, les hypothèses de l'astronomie et de la physique modernes, soutenues par des mathématiques de plus en plus sophistiquées, sont pour l'essentiel invérifiables par l'observation. Autrement dit, conformément à la logique scientifique ordinaire, elles devraient être abandonnées, ou tout au moins mises de coté en attendant des temps meilleurs. Il devrait en est ainsi du big bang, des trous noirs ou de la matière noire. Ceci ne se produit pas en général, car les cosmologistes physiciens proposent sans cesse de nouveaux éléments observables pouvant servir à justifier les théories inobservables qu'ils élaborent.

Il en est ainsi de l'observation du fonds de ciel cosmologique pouvant éclairer, non le big bang mais l'univers tel qu'il était quelques temps après. Il en est de même du rayonnement des trous noirs ou de l'interprétation des images galactiques montrant que les galaxies, hors de l'hypothétique matière noire, ne disposeraient pas de masse suffisante pour survivre. Ainsi, de proche en proche, les présomptions se développent, les observations s'entrecroisent et un panorama général intéressant l'univers et son histoire semble pouvoir se dégager.

Mais faut-il aller plus loin, et prétendre utiliser les outils mathématiques élaborés à cette occasion pour formuler des théories fort belles au plan de l'élaboration mathématique, mais risquant de demeurer très longtemps invérifiables faute d'observation possible. D'ores et déjà, les hypothèses sur l'origine immédiate de l'univers (le big bang) et sur les évènements ayant immédiatement suivi, sont difficiles à vérifier, même de façon indirecte. Aussi bien ne font-elles pas l'objet de consensus. Il en est de même, à un moindre degré, du concept d'inflation cosmologique initiale, admis sans difficulté par Tegmark et sérieusement mis en doute par Penrose. Ne mentionnons même pas la théorie des cordes.

On dira que la science a toujours procédé ainsi: partir du moins hypothétique vers le plus hypothétique et accumuler ce faisant le maximum d'observations susceptibles de préciser le modèle d'ensemble, tout en réduisant le plus possible le champ des débats possibles entre scientifiques. Si Giordano Bruno et Galilée n'avaient pas imaginé la pluralité des mondes, nous en serions resté à la connaissance du cosmos élaborée par les pasteurs chaldéens.

Jusqu'où cependant s'arrêter dans le processus consistant à imaginer puis rationaliser mathématiquement des éléments d'univers, voire des univers eux-mêmes, qui risqueront de rester longtemps, sinon à jamais, inobservable. Autrement dit, pour nous limiter aux deux auteurs cités dans cet article, pouvons nous nous intéresser, autrement qu'à titre de curiosité, à leurs hypothèses concernant soit la Cosmologie Conforme Cyclique (CCC), soit les différents types de multivers. De façon plus terre-à-terre, les pouvoirs publics et les entreprises qui financent leurs recherches ne manqueront pas de s'interroger sur les applications pratiques pouvant en découler.

La cosmologie quantique

Le problème que nous évoquons, celui de l'opportunité de présenter des hypothèses pratiquement invérifiables, ne se limite pas à la cosmologie traditionnelle. Celle-ci s'intéressait et s'intéresse encore à des évènements et objets de grande taille, dits macroscopiques. Or la physique, depuis les années 1930, a été bouleversé par les acquis de la mécanique quantique. Même si, selon l'observation souvent citée de Feynman, la mécanique quantique n'est encore pratiquement comprise par personne, les applications qui en sont faites sont multiples, tant dans les domaines scientifiques qu'industriels. La cosmologie ne pouvait pas ne pas en tenir compte. Malheureusement l'approche microscopique de l'univers, découlant de ce que nous pourrions appeler une cosmologie quantique, suscite de nouvelles hypothèses invérifiables s'ajoutant à celles de la cosmologie traditionnelle.

Certes, certaines hypothèses vérifiables peuvent en être déduites. C'est le cas notamment de celles intéressant la physique des particules de hautes énergies. Des instruments très puissants tels que le Large Hadron Collider européen permettent entre autres problématiques de simuler des états très chauds de l'univers, liés au big bang ou à des explosions de supernovae, à défaut de simuler l'univers primitif ou le milieu cosmologique dans son entier. Mais la physique des particules tient autant de la physique macroscopique que de la physique quantique.

Aujourd'hui d'autres domaines de la cosmologie ne peuvent échapper aux interprétations devenues aujourd'hui quasiment classiques de la mécanique quantique. Les interprétations les plus connues de cette dernière sont couramment évoquées. Il s'agit de celles concernant les problèmes de la superposition des observables quantiques, de leur intrication et plus généralement le vaste problème dit de la mesure faisant appel à la fonction d'onde et aux inégalités d'Heisenberg. Les emprunts à la mécanique quantique ont ouvert de nouvelles pistes précieuses en cosmologie, mais elles n'ont pas réduit, si on peut dire, les incertitudes.

L'exemple le plus souvent cité est ce qu'il advient d'une particule quantique lorsqu'elle est observée, autrement dit lorsque sa fonction d'onde se trouve « réduite ». Le principe d'indétermination veut que dans ce cas, l'on ne puisse observer simultanément les deux propriétés de la particule, position et impulsion, mais seulement l'une d'entre elles. L'autre disparaît dans on ne sait quel univers. Nous avons vu que Tegmark a fait sienne l'interprétation proposée par Hugh Everett, selon laquelle au moment de l'observation, l'univers de l'observateur, et celui par extension de la particule, se divisent en deux. On retrouve dans chacun de ces univers l'une ou l'autre des propriétés de la particule, mais il n'est plus possible de les réunir à nouveau. Cette conception acrobatique du multivers quantique est généralement refusée. Mais le problème reste entier.

Par ailleurs, la mécanique quantique véhicule avec elle un questionnement épistémologique que l'on rencontre certes dans toutes les sciences macroscopiques, mais qui se pose pleinement selon nous en cosmologie, qu'il s'agisse de la cosmologie microscopique, celle des particules, ou de la cosmologie aux grandes échelles. Nous l'avons souvent mentionné sur ce site. Il s'agit, comme l'a bien formulé la physicienne Mioara Mugur-Schachter, de ce que cette dernière a nommé la Méthode de Conceptualisation Relativisé (MCR). Rappelons que pour celle-ci, il n'existe pas de « réel en soi », ce que l'on appelait jadis le Réel des essences. ou réel platonicien, qui existerait en dehors de toute observation. Il n'y a de réel que relatif. On ne peut parler de réalité dans cette conception qu'en conjuguant l'observation d'un réel sous-jacent par un observateur bien défini doté lui-même d'instruments bien définis. Leur conjugaison donne généralement lieu à des résultats plus ou moins différent. Si ceux-ci sont exploitables en termes statistiques, ils ne peuvent prétendre caractériser avec précision une quelconque réalité existant en dehors d'un observateur.

MCR n'a pas été imaginée à partir de rien par Mme Mugur-Schachter, Il s'agit d'une interprétation épistémo-philosophique de la mécanique quantique. Or si cette interprétation nous paraît s'imposer dans tous les domaines scientifiques, elle est encore refusée par beaucoup de chercheurs, en quelque discipline que ce soit, sauf peut-être dans les sciences sociales. Ceux qui la refusent ne veulent pas entrer dans un débat philosophique sur la Réalité. Par conséquent ils préfèrent s'en tenir au réalisme classique. Or ce refus est particulièrement répandu dans le monde de l'astronomie et de la cosmologie. Le réalisme paraît s'imposer de toute évidence. Pourrait-on imaginer, avait dit Einstein, que la planète Mercure n'existe que lorsqu'elle est observée.

Il faut bien voir cependant que MCR, et plus généralement les applications de la mécanique quantique à la cosmologie, pourraient, poussées aux limites, provoquer des résultats surprenants, voire inacceptables, tant par le sens commun que par la communauté scientifique traditionnaliste.On pourrait postuler qu'en dessous de l'univers visible existe un univers profond inobservable, une sorte de continuum sans formes ni limites identifiables a priori, mais qui pourrait faire émerger en permanence des univers ou bulles d'univers, observables dans certaines conditions serait doté de capacités de création ou de transformation infinies. Il pourrait s'agir d'une transposition à la cosmologie du concept de monde infra-quantique utilisé parfois par la mécanique quantique. Rappelons que dans cette acception, le monde infra-quantique est un espace infini, hors du temps et de l'espace tels que définis par la physique macroscopique, où se déroulent des phénomènes non directement observables, ainsi la superposition ou l'intrication des particules.

L'univers profond pourrait ne pas être différent. On le retrouverait à la source de toutes les entités cosmologiques observables, qu'il s'agisse de notre Terre, d'autres planètes ou de l'ensemble du cosmos, tant vers l'infiniment grand que vers l'infiniment petit. Ses manifestations pourraient par contre être observées par les êtres vivants que nous sommes, à partir d'hypothèses qu'ils élaboreraient et qu'ils vérifieraient, le tout grâce à des instruments de plus en plus performants. Les humains seraient donc de plus en plus dans un rôle d'observateurs tels que définis par la physique quantique. Ils inventeraient des hypothèses sur le cosmos de plus en plus audacieuses et s'efforceraient de vérifier la cohérence de ces hypothèses avec ce qu'ils ont précédemment construits sur Terre grâce à leurs outils neurologiques et sensoriels du moment. Ainsi pourraient-ils élaborer des modèles de plus en plus détaillés décrivant les entités cosmologiques auxquelles nous sommes habitués, planètes, soleil , univers proche, champs d'énergie, etc.

Mais qu'en serait-il alors de la véracité de ces modèles, autrement dit renverraient-ils à des objets réels, observables directement? En posant la question autrement, quelles « réalités » seraient sous-jacentes à l'univers que nous observons. La planète Mercure précédemment citée serait-elle seulement une création des cosmologistes? Dans la perspective évoquée ici, son statut au regard d'un univers profond ne serait pas très différent de celui d'une particule au regard du monde infra-quantique. En mécanique quantique, rappelons-le, une particule n'existe pas en soi, non plus d'ailleurs qu'un onde à laquelle on l'assimile généralement. N'existent seulement que des agrégats statistiques résultant d'un grand nombre d'observations. Mais ces agrégats, convenablement manipulés avec les instruments de la physique macrosopique, ont permis de construire toute les technologies électroniques modernes.

Dès ce moment, il n'est plus nécessaire de s'interroger sur la supposée réalité en soi de la supposée particule. Il suffirait de lui attribuer une réalité relative, autrement le produit d'une conceptualisation relativisée telle que définie par MCR. Nous mêmes d'ailleurs, dans cette perspective, tels que nous croyons nous définir à partir d'observations sensorielles coordonnées par notre cerveau, ne serions-nous pas également que le produit d'une conceptualisation relativisée. Ceci ne retirerait rien à nos capacités d'êtres humains au sien d'un univers qui comme nous n'existerait que comme une réalité relativisée.

Pourrait-on pousser ce raisonnement à l'extrême, en imaginant que ce que les cosmologistes appellent l'univers visible, c'est-à- dire l'ensemble des galaxies dont la lumière a eu le temps de nous parvenir, auxquelles il faudrait ajouter la « matière noire » , ne serait qu'une création de nos cerveaux, assistés par des instruments d'observation de plus en plus performants? La seule réalité sous-jacente serait dans ce cas celle de l'infra-univers indescriptible en soi tel qu'évoqué plus haut. Ceci ne nous empêcherait en rien d'agir, en tant que réalités relativisées, au sein d'un cosmos peuplé lui-même d'entités relativisées. Autrement dit, cela ne devrait pas nous empêcher d'envoyer des sondes vers la planète Mercure, telle que nous l'observons et la conceptualisons avec les instrumnts du moment. La modélisation que nous en sommes donnée, autrement dit sa réalité relativisé, ne pourrait qu'y gagner en précision.

Ceci serait valable pour la physique macroscopique. Mais si nous
considérions que Mercure est faite d'un très grand nombre de particules ne pouvant échapper au statut que leur confère la mécanique quantique, c'est-à-dire celui de q.bits, nous devrions aussi, si les outils mathématiques étaient disponibles, la considérer comme une q.planète, susceptible de superposition ou d'intrication.

Le raisonnement suivi jusqu'ici, on l'a remarqué, nous conduit à l'hypothèse développée par Seth Lloyd dans un ouvrage selon nous insuffisamment remarqué « Programming the Universe » selon lequel l'univers serait un immense calculateur quantique, que nous pourrions modéliser au mieux en utilisant les futurs calculateurs quantiques. Encore faudrait-il que les mathématiques utilisées pour la conception des logiciels requis dans les calculateurs quantiques fassent d'importants progrès. Quoiqu'il en soit, on voit que l'hypothèse de Seth Lloyd peut être considérée comme une version renouvelée de celle évoquée plus haut selon laquelle l'univers serait intrinsèquement mathématique. Un continuum commun

L'une des conséquences intéressantes découlant d'une extension de la mécanique quantique à la cosmologie serait qu'il n'y aurait pas de différence entre l'univers infra-physique profond évoqué précédemment, à partir duquel émergeraient des univers matériels proches ou non du nôtre, et l'infra-univers quantique supposé exister à la source des phénomènes quantiques observables. On assimile quelquefois ce dernier à ce que les physiciens nomment le vide quantique. Il ne s'agit pas d'un vide mais d'un « continuum » plein de particules virtuelles hautement énergétique, dont les « fluctuations » donneraient naissance à la matière quantique telle que nous pouvons l'observer. Le vide quantique n'est pas un mythe, même s'il n'est pas directement mesurable. Beaucoup d'observations permettent de le considérer comme une « réalité » , réalité relativisée pour reprendre la terminologie présentée plus haut.

Mais dans ce cas pourquoi ne pas considérer que ce vide quantique serait le même qu'un « vide » cosmologique correspondant à l'infra-cosmos évoqué plus haut, dont les fluctuations donneraient naissance à des bulles d'univers ou bébés-univers se développant ou non en univers semblables ou non aux nôtres, lesquels pourraient théoriquement apparaître à l'infini ? Dans cette hypothèse, celle d'un infra-cosmos ou vide cosmologique qui serait à la source de toutes les structures cosmologiques observées, on pourrait se demander quelle énergie provoquerait les fluctuations donnant naissance à des bulles d'univers. Supposer que le vide cosmologique serait totalement passif et inerte ne serait pas défendable. Il devrait, bien que vide, être animé d'une énergie à la source de l'émergence des bulles d'univers.

Dans ce cas, ne serait-ce pas une énergie assimilable à l'énergie du vide quantique. Plus exactement encore, le vide cosmologique et le vide quantique ne formeraient-ils pas une seule et même entité. dont les fluctuations donneraient naissance, selon qu'elles seraient « observées » ou non, à des particules quantiques ou à des particules matérielles. Tegmark a d'ailleurs, en ce qui le concerne, adopté cette hypothèse.

Dans notre univers et plus précisément sur notre Terre, les observateurs seraient des humains, c'est-à-dire des créatures biologiques ayant résulté de l'évolution du monde quantique. Mais sur d'autres astres, voire sur notre Terre elle-même, pourraient se trouver des observateurs différents de nous. Ils pourraient vraisemblablement se donner des modèles du cosmos différents du nôtre. Ainsi, si ces observateurs disposaient d'instruments observant directement les champs d'ondes électro-magnétiques ou d'ondes gravitationnelles, leur modèle de l'univers serait, au moins dans l'apparence, différent du notre. Il ressemblerait plus à nos cartes météorologiques matérialisant les isobares qu'à nos présentes cartes de l'univers visible. Les astres y seraient identifiés comme nous le faisons des dépressions et des anticyclones, sous la forme de centres d'actions aux limites imprécises.

Conclusion

Si nous retenions ce qui précède, nous pourrons proposer quelques postulats, à la suite desquels nous pourrions mieux apprécier l'ouvrage de Max Tegmark. Le lecteur en trouvera ci-dessous une liste résumée:

* Les capacités neurologiques de nos cerveaux ne nous permettent pas, même associées aux meilleurs instruments du moment, de comprendre en profondeur tous les concepts proposés par la cosmologie. Citons notamment celui d'infini ou même celui de continuum hors du temps et de l'espace. A fortiori elles ne nous permettent pas de considérer que tous les concepts inventés en abondance par les mathématiques présentent un intérêt cosmologique quelconque. Ainsi en est-il d'un des plus simples d'entre eux, celui de « racine carré de moins un » mentionné dans un article précédent.Correspondent-elles à des univers, à des multivers? Nous n'en savons rien. Il est possible que des cerveaux « augmentés » par des prothèses cognitives diverses nous donnent une meilleure compréhension des mystères. Nos successeurs le verront peut-être.

* L'univers est-il mathématique, qu'il s'agisse de mathématiques traditionnels ou de mathématiques quantiques? Là encore, nous n'en savons rien et cela n'a pas réellement d'importance. Ce qui sera de plus en plus important sera d'identifier dans le fonctionnement de l'univers des algorithmes permettant d'en construire des modèles informatiques et robotiques de plus en plus performants. Il n'est pas exclu d'envisager qu'a l'avenir ces modèles puissent nous apparaître comme comparables en complexité à ce que nous croyons avoir observé de l'univers, à condition que celui-ci ne se soit pas modifé dans l'intervalle.

* La problématique est la même, à une échelle différente, que celle intéressant la construction d'un cerveau artificiel. Si nous voulons construire des modèles conceptuels ou robotico- informatiques du monde tel que nous l'observons, il faut procéder comme le fait la bonne recherche scientifique. Autrement dit, il ne faut pas exclure d'hypothèses a-priori, même si elles ne paraissent pas vérifiables dans l'immédiat. Ces hypothèses, pour ne pas tomber dans la mythologie pure, devront évidemment être articulées à partir du corpus des connaissances du moment. Approfondir et développer scientifiquement ces connaissances fera inévitablement apparaître de nouveaux domaines vérifiables, ou falsifiables au sens donné par Popper.

* Dans ces conditions, pourquoi refuser les hypothèses concernant les multivers, qu'elles prennent la forme de celles présentées par Tegmark, ou d'autres encore non imaginables ? Nous avons rappelé plus haut que si Giordano Bruno et Galilée n'avaient pas imaginé la pluralité des mondes, nous en serions restés à la connaissance du cosmos élaborée par les pasteurs chaldéens.

Les humains ne risqueraient donc rien, aujourd'hui , à parier comme le fait Tegmark et de nombreux théoriciens, sur la pluralités des univers. Des conséquences intéressantes et utiles, inimaginables aujourd'hui, pourraient en découler. D'ores et déjà ceux qui se sont persuadés de la « réalité » des multivers ne sont-ils pas d'une certaine façon des « hommes augmentés », comparés à ceux qui se complaisent à ne rien imaginer?

Notes

* Roger Penrose http://fr.wikipedia.org/wiki/Roger_Penrose

* Cycles du temps http://fr.wikipedia.org/wiki/Roger_Penrose
Voir aussi: Commentaires http://guydoyen.fr/2010/11/20/roger-penrose-a-decouvert-des-preuves-d-un-univers-cyclique/

* La Méthode de Conceptualisation Relativisé (MCR) de MioraMugur-Schachter. http://www.automatesintelligents.com/echanges/2004/juin/mrc.html

* Seth Lloyd « Programming the Universe » http://www.automatesintelligents.com/biblionet/2006/avr/lloyd.html

* Vide quantique http://fr.wikipedia.org/wiki/Vide_quantique

* La Méthode de Conceptualisation Relativisée (MCR) de Miora Mugur-Schachter. http://www.automatesintelligents.com/echanges/2004/juin/mrc.html

Partager cet article

31 janvier 2014 5 31 /01 /janvier /2014 12:17

Our Mathematical Universe : My Quest for the Ultimate Nature of Reality
Max Tegmark
(20
14)

Alfred and Knopf

Présentation et discussion
par Jean-Paul Baquiast 29/01/2014

NB. Le texte ci-dessous se limite à la partie Présentation

C'est d'ailleurs grâce à de trop rares chercheurs comme lui que l'Europe a pu se donner une place remarquable dans l'observation astronomique et cosmologiste. Citons le satellite Planck de l'Agence spatiale européenne dont les résultats sont en train de confirmer les hypothèses les plus audacieuses concernant notre univers. Plutôt que s'interroger sans fin sur l'avenir de l'Europe, les responsables politiques européens devraient tout faire pour multiplier les structures permettant de faire naître et se développer de tels esprits.

Tegmark sur Wikipedia (anglais) http://en.wikipedia.org/wiki/Max_Tegmark

Introduction

Indiquons rapidement en introduction que le livre du cosmologiste Max Tegmark, écrit en anglais courant et sans équations, est parfaitement lisible. Il propose, pour un lecteur n'ayant pas d'idées claires en cosmologie et en physique quantique, compte tenu de la prolifération des articles écrits sur ces sujets, un résumé très convenable de ces deux sciences, indispensable pour comprendre le reste. Mais là n'est pas son mérite, qui est à la portée de tout vulgarisateur.

Le livre fait bien plus, d'où le succès qu'il commence à rencontrer. Il pousse aux limites, en matière de physique et de cosmologie, les hypothèses scientifiques, ceci jusqu'aux frontière de la mythologie ou, diraient certains , de la science fiction. Ce faisant, il ne s'embarrasse pas du fait que ces hypothèses ne sont pas vérifiables aujourd'hui, qu'elles pourraient même ne jamais l'être. L'essentiel pour lui est de rester dans le domaine de ce que nous pourrions appeler d'une façon vague le scientifiquement vraisemblable.

L'ouvrage et la démarche devraient, pensons nous (mais peut-être à tort), marquer de façon indélébile la façon dont les citoyens de l'actuelle "société scientifique" pensent le monde et se pensent eux-mêmes dans ce monde. Précisons que nous appelons société scientifique celle qui reconnait la valeur irremplaçable de la science expérimentale, en se distinguant ainsi des sociétés dans lesquelles des mythes essentiellement religieux imposent leur vision du monde et des humains.

Prenons un exemple. Ce serait faire de la science-fiction que décrire des voyages dans le temps réalisés par des humains d'aujourd'hui. Ce ne l'est plus d''évoquer comme une quasi certitude le fait qu'au delà des frontières de l'univers observable existent d'innombrables galaxies, soleils et planètes, certaines de ces dernières pouvant abriter de la vie. Ce ne l'est pas davantage que proposer l'existence, au delà de notre univers, d'univers différents ou proches qui se seraient formés de la même façon que probablement le nôtre, à partir de fluctuations d'une matière primordiale obéissant ou non aux lois de notre physique.

Mais quel intérêt, dira-t-on, que se livrer, même au nom de la science, à de telles spéculations, pour la plupart aujourd'hui invérifiables ? Parce qu'il s'agit du propre de l'esprit humain que procéder ainsi. Si Giordano Bruno puis Galilée n'avaient pas, ce qui était pour leur temps inimaginable, fait l'hypothèse de mondes extra terrestre, ils n'auraient pas été persécutés par l'Inquisition, mais l'astronomie n'aurait pas progressé. Il est évident que nous avons besoin aujourd'hui de l'équivalent d'esprits comme les leurs pour faire évoluer notre vision du monde, c'est-à-dire très précisément nous faire échapper aux mots d'ordre et aux ordres des pouvoirs religieux et économiques qui veulent borner nos esprits afin de mieux les dominer.

Nous nous proposons de commenter le livre en deux parties, l'une consacrée à un effort de présentation, en langage courant, des thèses de Tegmark, l'autre esquissant un début de discussion. On trouvera en note de fin de page des critiques beaucoup plus détaillées et sans doute aussi plus pertinentes que la nôtre. Merci cependant de votre attention

I. Présentation

Le livre, bien qu'il ne les sépare pas explicitement mais au contraire les lie, propose deux concepts jugés généralement relever de la philosophie la plus spéculative. Le premier est celui du multivers, selon lequel la notion d'univers multiples constitue la seule façon scientifique de se représenter notre univers et sa place dans un environnement cosmologique plus large dont il ferait partie. Le second est celui de l'univers mathématique. Tous les univers, dont le nôtre, exprimeraient des structures mathématiques fondamentales en dehors desquelles il n'y aurait pas de réalité profonde.

Pour la clarté de ce court article, nous discuterons séparément ces deux concepts encore que, répétons-le, dans l'esprit de Tegmark, il s'agit de deux approches liées de la réalité. Dans les deux cas, Tegmark n'a rien inventé. Les deux concepts remontent souvent à l'Antiquité et se sont généralisés depuis un siècle, avec l'explosion de la physique moderne. Mais ce qui est intéressant dans le livre est que l'auteur ne les présente pas comme des hypothèses à discuter et à vérifier expérimentalement. Il en fait – si l'on peut employer le terme – des certitudes auxquelles il « croit » personnellement et auxquelles il nous invite à croire, afin de les utiliser sans attendre dans les développements de la science.

Les multivers

Tegmark s'appuie dans ses propositions sur une science, ou métascience, qu'il connait bien, la cosmologie. Aux débuts de sa carrière, il avait personnellement développé divers outils permettant entre autres d'analyser et d'interpréter les observations des satellites Wilkinson puis Planck portant sur le rayonnement micro-ondes du fonds de ciel, dit fonds diffus cosmologique. Ce rayonnement, aussi étonnant que cela ait pu paraître initialement, est désormais considéré par tous les scientifiques sérieux comme le témoin, non d'un problématique Big Bang, mais de l'univers extrêmement chaud et dense tel qu'il était lorsque, de plasma impénétrable il est devenu transparent, autrement dit lorsque, grâce à l'expansion, les photons de la lumière aient pu commencer à y circuler. Le fonds diffus cosmologique fournirait donc une image de notre univers quelques 380.000 ans après sa naissance. Bien plus, il est aussi considéré par la plupart des scientifiques comme illustrant un événement initialement proposé par le physicien Alan Guth pour expliquer l'homogénéité observée de la distribution de la matière dans notre univers. Il s'agissait de l' « inflation » ou expansion très rapide du volume de l'univers (par un facteur de 1078 en un temps de 10-30
secondes)

.

Vue instantanée de la première lumière, émise et imprimée sur le ciel 380 000 ans après le big bang. Les minuscules fluctuations de température correspondent aux concentrations de matière, graines d’étoiles et galaxies.
@ ESA and the Planck Collaborati
on

Longtemps refusé par les cosmologistes, ce phénomène d'inflation est désormais admis. Inutile de souligner qu'il est parfaitement invraisemblable au regard de ce que nous connaissons du monde terrestre. Il entraîne différentes conséquences qui sont scientifiquement observables et qui le rendent indispensable aux yeux de la plupart des théoriciens. Cette inflation, après s'être calmée pendant plusieurs milliards d'années, pourrait avoir repris récemment et être responsable de la nouvelle expansion de l'univers récemment observée, bien plus lente pour le moment que la première et que certains attribuent à une mystérieuse « énergie noire ». Pour Tegmark, l'inflation, sous ses différentes formes, est inséparable de la structure profonde de l'univers.

Il faut s'arrêter une seconde sur cette question de l'inflation. La cosmologie n'est pas pauvre en observations qui sont contraires au sens commun mais qui s'expliquent par les lois générales de la physique. Ainsi en est-il des trous noirs. Il n'est plus possible aujourd'hui de pratiquer une cosmologie quelque peu sérieuse sans tenir pour réels de tels phénomènes, même s'ils sont impossibles à comprendre en profondeur. Il en est désormais ainsi de l'inflation. Pour Tegmark, ce concept désigne un mécanisme qui n'est pas limité à l'histoire de notre univers, mais qui pourrait justifier l'hypothèse selon laquelle, dans un cosmos qui s'étend sans cesse, d'autres univers aient pu apparaître dont nous n'aurions pas connaissance, du fait qu'ils sont trop lointains pour que leur lumière ait pu nous parvenir. La création de notre univers et l'inflation en résultant seraient nées de fluctuations quantiques à partir du « vide quantique » Elle pourrait être éternelle. Rien de tout ceci n'est aberrant en termes de physique quantique.

Concernant le multivers, ou si l'on préfère, les multivers, Tegmark propose une taxonomie qui devrait nous permettre d'organiser le zoo des univers parallèles imaginés par les promoteurs de ces hypothèses. Ceci lui permet de concilier des approches initialement très différentes. Il faut d'abord prendre en considération un niveau I, le Multiverse. L'idée comme nous l'avons indiqué plus haut, est généralement acceptée par de nombreux cosmologistes. La rapidité de l'inflation vécue par notre univers aurait pu créer des espaces analogues à celui-ci, avec les mêmes lois fondamentales, mais sans doute plus réduits, si loin qu'aucune lumière ne peut nous en parvenir. Il s'agirait donc d'autres univers. Tegmark explique évidemment dans le livre ce en quoi consistait exactement l'inflation et par quels mécanismes elle aurait pu créer dans l'espace temps de la matière à partir de rien...ou presque. Renvoyons le lecteur à l'ouvrage pour ces développements.
.
Un deuxième niveau de Multivers, niveau II, hypothèse proposée par le physicien Alexandre Vilenkin et d'autres, nous projette en dehors de notre univers et de son inflation. Il généralise à un cosmos plus étendu, peut-être infini, le concept d'inflation et même celui d'inflation éternelle. Celle-ci à son tour créerait des espaces ou univers s'éloignant du nôtre à des vitesses supérieures à celle de la lumière. Ils seraient donc radicalement inobservables, mais n'en seraient pas moins aussi réels que le nôtre. Leurs lois fondamentales pourraient être différentes des nôtres.


Vient ensuite, dans la taxonomie de Tegmark, le Niveau III de multivers. Il correspondrait à une hypothèse depuis longtemps proposée en mécanique quantique par le mathématicien Hugh Everett mais longtemps refusée, dite des mondes multiples. Selon Everett, lorsqu'un observateur observe une entité quantique et résout sa fonction d'onde, il ne réduit pas cette entité à l'une seule des dimensions qu'elle possédait initialement en superposition. L'entité conserve ses deux états, mais l'observateur est dédoublé dans un univers parallèle où il retrouve l'état de l'entité qui existait avant l'observation en superposition avec l'état qu'il a observé.

Les physiciens quantiques ont du mal à admettre cette interprétation. Elle oblige en effet à accepter l'existence d'une infinité d'univers se générant en ramifications complexes, chacune comportant un double de l'observateur initial. Si l'on admet par ailleurs que les observateurs, humains ou autres sont infinis, et qu'il se crée une branche d'univers à chacune de leurs observations, l'on se retrouve dans une situation que certains n'hésitent pas à qualifier de complet délire, un nombre effectivement infini d'univers et d'observateurs dédoublés. Pour notre part, nous pensons que cette solution est une solution de facilité, évitant de rechercher d'autres interprétations plus « réalistes » à la question de la résolution de la fonction d'onde .

Les univers mathématiques

Dans la suite de sa taxonomie des multivers, Tegmark aborde avec ce qu'il nomme le Niveau IV de Multivers une approche assez différente, bien qu'il ne semble pas s'en apercevoir. Il s'agit en fait de traiter la question de savoir si comme l'indique le titre de l'ouvrage, l'univers est mathématique. Il insère cette question, examinée depuis l'antiquité par de nombreux penseurs, dans la suite de son recensement des multivers, mais la question peut déjà être évoquée à propos de notre seul univers.

Il s'efforce de démontrer que la réalité n'est pas seulement descriptible en termes mathématiques – ce que personne ne conteste, du moins en principe. Il affirme que la réalité est mathématique et n'est pas autre chose. Encore faut-il s'entendre sur ce que comprend ce terme de réalité.

Echiquier. Les relations entre les pièces peuvent ne pas s'inscrire dans un plan


Pour cela, il est conduit à déshabiller le concept de mathématiques de toutes les fioritures qui l'accompagnent, pour en venir à son essence. Il prend l'exemple de la position des pièces sur un échiquier. Ce qui définit cette position dans le langage des échecs n'est pas la nature physique des pièces ou de l'échiquier, ni même la nature de l'image par laquelle elles sont représentées. C'est la relation mathématique entre ces pièces et l'échiquier. Elle peut être exprimée par un ensemble de symboles, mais plus abstraitement encore, dans le langage numérique, par des suites de zéro et de un. C'est d'ailleurs de cette façon que les ordinateurs jouent aux échecs. Mais même au niveau de l'ordinateur, ces suites de nombres binaires sont encore trop précises pour permettre de visualiser les relations entre les pièces et l'échiquier. Il faut en venir, si l'on peut dire, à l'essence de ces relations, en la dépouillant de toutes les formes permettant de les visualiser. Cette essence est mathématique.

Résumons ici l'essentiel de sa démarche. Il constate que depuis l'antiquité, les observateurs se sont toujours étonnés de voir les mathématiques si bien décrire le monde physique. C'est la question que s'était posée, en 1960, le physicien Eugène Wigner dans un célèbre article : " La déraisonnable efficacité des mathématiques "... Il posait le problème, mais ne l'expliquait pas en profondeur. Tegmark poursa part remarque que, depuis la préhistoire, les physiciens n'ont pas cessé de découvrir dans la nature des formes, des patterns et des régularités qui peuvent être décrites par des équations mathématiques.

Par ailleurs le tissu même de la réalité physique contient des douzaines de nombres pures à partir desquelles toutes les constantes observées peuvent en principe être calculées. Certaines entités physiques tel que l'espace vide, les particules élémentaires ou la fonction d'onde, semblent purement mathématiques, en ce sens que leurs propriétés intrinsèques sont des propriétés mathématiques. Il en déduit la possibilité de formuler ce qu'il nomme l'Hypothèse d'une Réalité Extérieure physique complètement indépendante des humains. En utilisant une définition assez large des mathématiques, cette première hypothèse en implique une autre, l'Hypothèse de l'Univers mathématique selon laquelle notre monde physique serait une structure mathématique. Ceci signifie que ce monde physique n'est pas seulement descriptible par les mathématiques mais qu'il est mathématique. Les humains seraient dans ce cas des composantes conscientes d'un gigantesque objet mathématique.

Une structure mathématique est un ensemble abstrait d'entités reliées entre elles par des « relations ». Elle n'a pas de propriétés autres que ces relations. Par contre, elle peut avoir à l'intérieur de cet ensemble des caractéristiques intéressantes, telles que des symétries. Mais ces entités et ces relations n'ont pas de propriétés intrinsèques. Il en résulte que la nature ne peut pas être expliquée en recherchant jusqu'à l'infini les propriétés de ses composantes ultimes, maisseulement les relations entre ces composantes.

Ainsi, pour Tegmark, le monde physique est un objet mathématique que nous identifions et construisons petit à petit. Nos théories physiques sont des approximations réussies, car les structures mathématiques qu'elles utilisent sont de bonnes approximations de structures mathématiques complexes. Dans ce cas, l'efficacité des mathématiques n'est plus mystérieuse : les objets mathématiques que nous employons pour comprendre le comportement de l'Univers deviennent de plus en plus efficaces parce qu'ils sont de plus en plus proches de ce que l'Univers est vraiment. Tegmark nomme cette approche le réalisme structurel, qui s'oppose au non-réalisme selon lequel la réalité n'existe que dans l'esprit de l'observateur, et au réalisme naïf (ou des essences) selon lequel il a de tous temps existé un réel que l'homme peut décrire par différents moyens d'observation.

Or, pour en revenir aux multivers, le réalisme structurel nous conduit directement au multivers de Niveau IV. Tegmark croit pouvoir postuler que les mathématiques de notre univers ne constituent qu'une structure mathématique parmi une infinité d'autres structures concevables, celles correspondant notamment (mais pas exclusivement) aux mathématiques inventées par les mathématiciens théoriciens dans un travail de découverte ou de construction qui ne cesse de s'étendre. Or si notre structure mathématique d'ensemble constitue un univers, le nôtre, pourquoi les autres structures ne correspondraient-elles pas à d'autres univers ? Tegmark peut alors faire l'hypothèse que toutes les structures mathématiques imaginables existent physiquement sous la forme d'univers parallèles, constituant le Multivers de Niveau IV évoqué ci dessus.

Au delà du cas simple d'un échiquier, mentionné ci-dessus, Tegmark donne l'exemple des structures mathématiques correspondant à ce que la physique appelle l'espace, les particules élémentaires ou la fonction d'onde. Existe-t-il de telles entités dans la nature, susceptibles d'être identifiées et observées comme une table ou des chaises, ou même comme un échiquier. Certainement pas. Il s'agit seulement de relations mathématiques entre éléments de la nature. On ne peut pas visualiser l'espace, qu'il s'agisse de l'espace euclidien, de Minkowski ou de Hilbert. Pourtant la définition mathématique de tels espaces est inséparable de notre univers quotidien, sous ses divers aspects, univers newtonien, univers einsténien ou univers quantique.

De même, il n'est pas possible de visualiser des particules élémentaires, quelles que soient leurs noms, contrairement ce que pense le grand public. Il n'existe que des relations mathématiques entre éléments microscopiques de la nature. Ainsi personne ne verra jamais, enfermé dans une éprouvette, le fameux boson de Higgs. Si ces relations étaient différentes, l'univers tel que nous le connaissons serait différent. Enfin la fonction d'onde, bien que plus abstraite, ne peut pas davantage être visualisée. Certains théoriciens se sont demandés si elle ne vivait pas comme un être autonome, quasiment observable, au sein d'espaces de Hilbert. La réponse est évidemment négative. Cependant les relations mathématiques entre les éléments visés par la fonction d'onde sont indispensables à la définition de tous les objets microscopiques et macroscopiques qui caractérisent notre univers.

Nous avons cité dans un article précédent un chercheur qui se demande s'il pourrait exister un univers dans lequel les structures mathématiques permettraient l ' « existence » de la racine carrée de – 1, qui n'est pas possible dans notre univers. Il a répondu par l'affirmative. Un tel univers doit certainement exister quelque part et il serait très différent sans doute du nôtre. (Voir notre article « l'univers est-il mathématique ? » ). Se serait-il inspiré de Tegmark - ou l'inverse ?

Les humains conscients sont des structures mathématiques

Cette question est inévitable dans la compréhension du caractère mathématique de l'univers. Ici comme dans les autres domaines de la science, et notamment de la physique quantique, il s'établit nécessairement un lien entre l'observateur, les instruments qu'il utilise et l'entité observée. Beaucoup de cosmologistes l'oublient. Ils discutent du cosmos en paraissant ne pas tenir compte du fait que ce sont, non seulement leurs observatoires, mais leurs cerveaux qui reçoivent et traitent les informations recueillies par l'observation. Nous reviendrons sur cette question dans la deuxième partie de notre présentation. Tegmark ne cherche pas à éviter la question. Pour cela il se place dans l'univers mathématique qui est celui des êtres vivants et notamment des humains, c'est-à-dire l'espace à quatre dimensions ; trois dimensions de plan et une de temps. Cet espace, continuellement utilisé, reste cependant difficile à représenter, non seulement sur un plan, mais au niveau de notre imagination.

Tegmark le fait (renvoyons le lecteur au livre). Disons ici que pour cela il dessine un univers fait des couches superposées des trois dimensions du plan. C'est l'empilement de ces couches qui marquent le temps. Pour connaître l'état de l'univers au temps t, il suffit d'extraire l'une de ces couches afin d'observer son contenu. Ceci peut être fait, que ce soit vers le haut ou vers le bas, autrement dit vers le futur ou vers le passé. Il en tire la conclusion que le temps n'existe pas d'une façon absolue, mais découle des relations s'organisant entre les entités peuplant cet espace. On notera que cette conception est à l'opposé de celle de nombreux chercheurs (notamment Lee Smolin) pour qui ce n'est pas l'espace qui constitue si l'on peut dire la réalité première du cosmos, mais le temps.

Dans un tel espace-temps, il est possible de construire les trajectoires que décrivent les entités vivantes au sein dudit l'espace temps. Ceci concerne évidemment aussi les humains et leur cerveau, produisant des faits de conscience. Toujours dans la perspective de déshabiller les structures mathématiques de tous les « détails » empêchant de se les représenter (rappelons l'image du jeu d'échec précédemment évoquée), il propose de considérer les humains conscients comme constitués de particules élémentaires évoluant d'une façon coordonnée dans l'espace-temps. Analyser leurs trajectoires et éventuellement les reconstruire permet de simuler un être conscient.

Biologistes et neurologues critiqueront le « réductionnisme » d'une telle approche, l''essentiel de leurs sciences visant au contraire à démonter que les cellules vivantes, et a fortiori les organismes et les cerveaux, ne peuvent être ramenés au jeu des cellules ou des atomes qui les composent.
Mais pour Tegmark le propre des structures mathématiques est de pouvoir s'organiser dans l'espace temps en ce qu'il appelle des tresses. Il propose d'ailleurs des constructions graphiques montrant qu'à la naissance d'un être vivant, les trajectoires des atomes dont il est fait s'organisent en tresses qui se dénouent à sa mort. Ceci ne fait pas nécessairement appel à la notion de temps, puisque pour chacune des tranches superposées constituant l'espace-temps, il est possible de calculer ce en quoi consiste la structure mathématique résultant de l'association des différentes structures élémentaires composant cet être vivant.

Il est évident que si l'on généralise cette façon de voir les choses à l'ensemble de l'univers, voire à l'ensemble du multivers, en acceptant de les considérer comme des tresses de structures mathématiques correspondant à leurs différents éléments, il devrait être possible d'obtenir une formule mathématique (éventuellement simple) permettant de représenter l'ensemble, voire le manipuler . C'est l'ambition, comme le rappelle l'auteur, des physiciens théoriciens qui s'efforcent d'établir une « Théorie du Tout » dite parfois M. Théorie. L'enjeu est considérable, certains diront même qu'il est hors de portée de la science. Mais il serait sans doute cependant plus facile à atteindre qu'identifier des univers à jamais inobservables de façon scientifique.

Quoiqu'il en soit, ces considérations, dans l'esprit de Tegmark, bouclent la boucle de la démarche consistant à postuler, non seulement que le cosmos est descriptible par les mathématiques, mais qu'il est fondamentalement mathématique, y compris les humains qui en discutent.
Inutile de dire que les thèses ou hypothèses évoquées par le livre ont fait depuis longtemps, avant même Tegmark, l'objet d'intenses discussions dans la communauté scientifique. Pour ce qui le concerne ; Tegmark est même considéré par certains, non comme un imposteur, mais plutôt pour une sorte de fousympathique mais quelque peu délirant.

Sans procéder pour notre part à de telles discussions et jugements, ce qui dépasserait nos capacités, nous allons dans la seconde partie de cette présentation évoquer quelques unes des questions non résolues ou insuffisamment approfondies que le livre selon nous devrait conduire tout lecteur quelque peu informé de l'état actuel de la science à se poser.

2. Commentaires

( à suivre )

Partager cet article

25 janvier 2014 6 25 /01 /janvier /2014 10:07

Dans un livre récent, que nous discuterons prochainement, « Our Mathematical Universe. My quest for the ultimate nature of reality » le cosmologiste Max Tegman développe l'hypothèse selon laquelle l'univers profond ne consiste pas en ce que nous percevons comme des réalités, soit qu'il s'agisse seulement de réalités sensibles, soit qu'il s'agisse de réalités descriptibles par les mathématiques. Il serait, en fait, intrinsèquement mathématique. De plus, selon Tegman, les structures mathématiques permettant de décrire notre univers ne correspondraient qu'à l'une des innombrables structures mathématiques encore à découvrir formant la nature profonde de la réalité.

Ainsi, à toutes ces structures, connues ou inconnues de nous, pourraient être associés (Tegman n'emploie pas le conditionnel) des univers différents. Différentes structures mathématiques devraient exister simultanément, sous la forme des univers parallèles ou du multivers. Beaucoup de cosmologistes font aujourd'hui l'hypothèse, sans pouvoir aujourd'hui la prouver, que ces univers parallèles existent au même titre que notre univers, correspondant lui-même à nos mathématiques – ou à une partie de nos mathématiques.

Il est possible de retenir cette approche afin d'expliquer le fait que deux structures mathématiques différentes, bien connues et pratiquées aujourd'hui, soient utilisées pour décrire le monde ou plutôt deux mondes tels que nous les percevons. Les structures mathématiques classiques, ou disons plus simplifier newtoniennes, s'appliquent correctement au monde de la physique et de la cosmologie dites macroscopiques. Les structures des mathématiques quantiques, longtemps ignorées par l'humanité mais se découvrant progressivement, permettent de comprendre les caractéristiques moins bien connues mais aujourd'hui indiscutables du monde quantique tel que nous l'observons: la superposition d'état, la non-localité, la non temporalité, etc. Cette approche radicalement différente ne surprend plus aujourd'hui personne, dans la mesure où il semble admis que le monde macroscopique n'est qu'une forme parmi les nombreuses autres formes que peut prendre le monde quantique, qui serait le monde fondamental à l'origine de tout. De la même façon, les mathématiques newtonienne ne seraient qu'une des formes susceptibles d'être prise par des structures mathématiques plus générales bien représentées par les mathématiques quantiques.

Mais est-ce bien le cas? Il est possible d'admettre au contraire qu'il y aurait déjà deux univers coexistant en parallèle, celui du monde macroscopique et celui du monde quantique, correspondant à deux mathématiques coexistant elles-mêmes en parallèle, les mathématiques newtoniennes et les mathématiques quantiques. Ces univers, d'une part, ces mathématiques d'autre part, semblent présenter un certain nombre d'analogies permettant à la science moderne d'établir des ponts entre elles. Mais selon certains théoriciens, ces analogies ne seraient qu'une approximation, cachant le fait qu'elles proviennent de deux univers parallèles. Plutôt que chercher à réduire les différences entre ces deux univers, afin de satisfaire le mythe selon lequel l'univers est un, ne faudrait-il pas au contraire approfondir leurs différences, afin, non de démontrer déjà la réalité du multivers, mais de démontrer dans un premier temps la réalité de deux univers parallèles. Ce faisant, notre cerveau biologique, dont la plasticité est grande, pourrait peut-être s'habituer à rechercher dans la réalité profondes des superpositions analogues entre structures mathématiques différentes

La racine carrée de – 1

On dira que ce qui précède relève de supputations. Or les travaux récents du physicien théoricien Bill Wootters (photo) du Williams College à Williamstown, Massachusetts 1), pourraient justifier non seulement l'intérêt mais la nécessité d'une telle approche. On lira à ce sujet un article fort éclairant de Matthew Chalmers dans le Newscientist du 23 janvier 2014 dont nous nous sommes en partie inspirés From i to u: Searching for the quantum master bit. Wooters n'envisage pas comme Tegman l'ensemble des mathématiques correspondant à un éventuel multivers. Il se limite, mais c'est déjà beaucoup, à celles reposant sur un concept mathématique n'ayant pas de correspondance dans la réalité « newtonienne » évoquée plus haut, celle de la racine carrée 2) de – 1 (moins un). 3)

Dans les mathématiques ordinaires, celles qui sont nécessaires au traitement des objets sensibles, - 1 n'a pas de racine carré, puisque toute multiplication de – 1 par – 1 donne 1. Cependant les physiciens utilisent constamment la racine carrée de – 1, représentée par le symbole i. Ceci en algèbre, mais aussi aussi en géométrie dans certaines formes de trigonométrie, ou en physique pour décrire les rotations et les oscillations. Les électriciens l'emploient pour concevoir des courants alternatifs ou décrire les ondes lumineuses ou sonores. Il est donc possible de supposer que i corresponde en quelque sorte à une réalité profonde de l'univers.

Bien que ne s'agissant pas d'un nombre ordinaire permettant de traiter les objets sensibles, i est l'un des fondement de la physique, tant macroscopique, comme nous venons de le voir, que quantique. Que serait alors son statut? S'agirait-il d'une commodité mathématique, ne correspondant à rien de précis dans l'univers? Ne se rattacherait-il pas au contraire à un univers différent du nôtre, faisant la liaison ou se superposant entre deux mondes, le monde macroscopique et le monde quantique? Bill Wooters formule cette dernière hypothèse. Selon lui, i, la racine carrée de – 1, renverrait à une entité non encore décrite, un « bit » d'information universel qui interagirait avec tout ce qui existe dans la réalité, lui conférant selon les cas un comportement quantique ou non.. Il l'a nommé u.bit, par extension du concept de q.bit lequel correspond à un élément d'information quantique.

Pour le montrer, Wooters insiste sur le fait que le u.bit ne serait pas seulement un outil commode pour décrire comme nous l'avons vu certains aspects de l'univers macroscopique. Il serait un outil fondamental pour la description de l'univers quantique, . En physique quantique en effet, il est admis depuis maintenant un siècle que les particules microscopiques, électrons ou photons par exemple, sont à la fois des ondes et des corpuscules. Elles ne peuvent donc pas être simulées par les mathématiques que nous avons appelées newtoniennes, leur assignant avec précision des positions et des impulsions. Il faut faire appel à la fonction d'onde. Celle-ci décrit , à partir d'une série de nombres « complexes » 3), tous les états possibles d'une particule isolée. Mais alors que les mathématiques classiques permettent facilement de décrire une onde, elles ne disposent pas des outils permettant de décrire l'interaction entre une onde et une particule.

Ceci étant, il est admis depuis les débuts de la mécanique quantique que la fonction d'onde ne peut décrire exactement la réalité correspondant à une particule isolée. Celle-ci n'apparait que lorsque la fonction d'onde est « réduite », par exemple du fait de l'intervention d'un observateur, mais dans ce cas, la description est tronquée, faisant apparaître soit la position soit l'impulsion de cette particule, mais non les deux simultanément. Or, mathématiquement, pour Wooters, l'opération consistant à comparer une prédiction quantique prenant la forme d'une fonction d'onde avec la réalité correspond à une opération analogue, celle consistant à réaliser la multiplication de la fonction d'onde par elle-même, c'est-à-dire réaliser sa mise au carré. Ceci fait disparaitre tous les i et fournit une probabilité exprimée par un nombre réel.

S'il existe dans un cas particulier plusieurs façon d'obtenir une probabilité pour une position donnée de la particule, il faut pour les obtenir ajouter tous les nombres complexes représentant ces différentes façons et en faire le carré. Ce n'est pas ce qui se pratique dans le monde réel, avait depuis longtemps observé Wooters. Dans ce monde, la probabilité d'obtenir un 10 à partir d'un jet de deux dés est de 3/36, puisqu'il y a 3 façons d'obtenir un 10 à partir de 36 résultats possibles. On ajoute les probabilités, au lieu de les ajouter et ensuite d'en prendre le carré.

L'intervention de nombres complexes accroit la difficulté. Les nombres complexes (3) comportent des parties réelles et d'autres imaginaires, alors que les probabilités intéressant la réalité observable sont seulement réelles. Ceci implique, précise Wooters, qu'une partie de l'information mémorisée par les nombres complexes se perd lorsque l'on en fait le carré. Autrement dit, un certain lien entre le passé et le future disparaît. Il n'est plus possible de prédire le futur d'un objet, à partir d'informations exactes sur son passé, comme on peut le faire dans le monde réel. Remplacer les racines carrés « complexes » par des racines carrés « réelles » pourrait éviter cette perte troublante d'information. Les racines carrés « réelles » deviendraient des objets compréhensibles et non extraordinaires, la nature démontrant alors son intérêt pour l'établissement d'un lien fort entre le passé et le futur.
.
Des bases matérielles macroscopiques pour la mécanique quantique

Dans la recherche, qui n'a jamais cessé, des bases matérielles macroscopiques hypothétiques de la mécanique quantique, le physicien suisse Ernst Stueckelberg avait proposé vers 1960 de reformuler cette dernière en n'utilisant que des nombres réels. Mais quant il avait voulu exprimer de cette façon le fondamental principe d'incertitude, il s'était aperçu qu'il ne pouvait définir avec suffisamment de précision la position d'une particule associée à son impulsion.

Pendant plusieurs années, Wootters avait abandonné l'approfondissement de cette question pour d'autres questions importantes intéressant notamment la théorie quantique de l'information. Puis il l'a reprise en 2009 à l'occasion d'un séminaire donné à Vienne et concernant ses travaux sur cette dernière (4). Que pouvait être le rôle de i,c'est-à-dire rappelons-le, de la racine carré de -1, dans les développements de la théorie quantique de l'information? En 2012 5), avec ses étudiants, il a proposé de remplacer les traditionnels q.bits utilisés par la théorie quantique classique de l'information pour obtenir des versions probabilistes du simple bit traité depuis par des décennies par les ordinateurs ordinaires. Pour ce faire, il a proposer de remplacer les q.bits par des nombres réels équivalents, en retrouvant les relations d'incertitudes de la mécanique quantique classique, mais ceci sans faire appel à i.

Mais ce faisant,Wootters s'est posé un problème d'ampleur, quasiment philosophique. Existait-il dans la réalité une entité physique réelle correspondant au rôle joué par i dans ses équations. Il a répondu par l'affirmative et nommé cette entité U.bit. Il s'agirait alors d'une sorte de nouvelle entité indéfinissable dans les termes de la physique, qu'elle soit macroscopique ou quantique, et interagissant avec tout ce qui existe dans l'univers. Mathématiquement, ce serait un vecteur dans un espace réel à 2 dimensions. Physiquement, en s'intriquant avec tout ce qui existe dans l'univers, cette entité pourrait remplacer chacun des nombres complexes de la théorie quantique. De plus, selon la description mathématique qu'en donne Wooters, elle devrait, quelque soit sa nature réelle, être affectée d'une rotation rapide.

Cette sorte de « monstre » pourrait avoir divers effets inattendus, traduisant son existence d'une façon indirecte. Dont celle de provoquer la décohérence d'une particule quantique isolée. Dans ce cas, il faudrait dire adieu aux perspectives proposées par les développeurs d'ordinateurs quantiques, reposant sur la mise en oeuvre de centaines voire de milliers de q.bits. Mais pourquoi, dira-t-on, ne rencontre-t-on pas déjà cette difficulté dans les calculateurs quantiques existants? Ce pourrait être le cas précisément, mais d'une façon cryptée. Si l'u.bit n'exerçait qu'une action très faible, celle-ci serait longue à se manifester dans nos échelles de temps.

Beaucoup de physiciens restent sceptiques. De toutes façons, disent-ils, pour se convaincre de la réalité d'une forme nouvelle telle que l' u.bit associant l'univers macroscopique avec l'univers quantique, il faudrait l'observer, directement ou indirectement, comme ce fut fait du boson de Higgs grâce au LHC.

La trace d'univers parallèles

Quoiqu'il en soit, si nous nous éloignons des points de vue que peut avoir Wooters et ceux qui le suivent sur cette question, nous voudrions faire pour notre compte quelques réflexions. On pourrait voir dans les recherches de Wooters une sorte de réactivation de l'hypothèse des variables cachées, Celle-ci est supposées permettre d'expliquer les phénomènes les plus étranges de la physique quantique, tels précisément l'intrication, en termes relevant de la physique macroscopique, à supposer que des variables correspondantes soient mises en évidence. Un certain nombre de physiciens n'ont pas renoncé à les identifier.

On pourrait également proposer que l'u.bit soit la manifestation physique d'un univers mathématique associant les propriétés du nôtre et celles du monde quantique. Et qu'en serait-il alors des autres nombres incalculables, tel que l'infini? En ce cas, si notre univers était fondamentalement mathématique et s'il existait plusieurs univers parallèles également mathématiques, on pourrait supposer que ces univers, au lieu de rester étrangers les uns aux autres, puissent générer des entités mathématiques communes inattendues (monstrueuses) pouvant prendre des formes matérielles, c'est-dire éventuellement observables mais non calculables, dans chacun de ces univers.

D'ores et déjà les nombres complexes servent à expliquer les transitions entre divers états de la matière au sein de notre univers physique. Pourquoi ne joueraient -ils pas – que ce soit eux ou de nouvelles structures mathématiques comparables - le même rôle entre notre univers et d'autres univers dont les structures mathématiques seraient à découvrir. Si de telles mathématiques encore inconnues pouvaient générer des transitions matérielles communes à eux et à notre univers, nous pourrions avec un peu d'attention les mettre en évidence. D'ores et déjà, elles existeraient peut-être « sous notre nez », si l'on peut dire, comme existe la racine carré de – 1. Mais nous ne les aurions pas encore découvertes, ou bien nous ne soupçonnerions pas leur universalité ubiquitaire au sein d'un éventuel multivers. Nous les rangerions parmi les fantaisies, sinon les fantasmes, de mathématiciens théoriciens à l'imagination débordante.

Un problème à traiter, dans la suite de ces considérations, serait celui de la nature du cerveau, notamment du cerveau humain, et notamment de celui desdits mathématiciens. L'évolution n'en a-t-elle fait qu'un instrument inutilement complexe servant initialement à découvrir des prédateurs dans la brousse africaine? Pourquoi dans ce cas seraient-ils capables de concevoir des structures mathématiques, soit réelles, soit imaginaires, ressenties comme platoniciennes, et correspondant à des univers eux-mêmes soit réels soit imaginaires? Existerait-il, comme le soupçonne Roger Penrose et de plus en plus avec lui d'autres théoriciens de la biologie quantique, des connexions qui se découvriraient progressivement entre nos cerveaux (Penrose préfère utiliser le terme de conscience) et l' « ultime nature de la réalité » qui, selon les termes de Max Tegmann évoqués en introduction, serait mathématique. Dans ce cas, la question que nous posions en titre « L'univers est-il mathématique? Et de quelles mathématiques s'agit-il ? » pourrait commencer à trouver des débuts de réponse.

Notes

1) William Wootters http://en.wikipedia.org/wiki/William_Wootters

2) Sur la racine carré en général, voir http://fr.wikipedia.org/wiki/Racine_carr%C3%A9e
La racine carrée d’un nombre réel positif x est le nombre positif qui, lorsqu'il est multiplié par lui-même, donne x, c'est-à-dire le nombre positif dont le carré vaut x. Un nombre réel est un nombre qui peut être représenté par une partie entière et une liste finie ou infinie de décimales. Cette définition s'applique donc aux nombres rationnels, dont les décimales se répètent de façon périodique à partir d'un certain rang, mais aussi à d'autres nombres dits irrationnels, tels la racine carrée de 2, p et e. Selon cette définition -1 n'étant pas un nombre positif n'a pas de racine carrée.

3) Sur la racine carrée de -1, voir un petit article de vulgarisation en français http://www.maths-et-tiques.fr/index.php/histoire-des-maths/nombres/le-nombre-i

4) Sur les nombres complexes voir http://fr.wikipedia.org/wiki/Nombre_complexe

5) Voir ArXiv Real-Vector-Space Quantum Theory with a Universal Quantum Bit http://arxiv.org/abs/1210.4535

6) Voir ArXiv .Optimal Information Transfer and Real-Vector-Space Quantum Theory http://arxiv.org/abs/1301.2018

Partager cet article

19 janvier 2014 7 19 /01 /janvier /2014 17:21

Phénomènes quantiques dans les organismes vivants
Jean-Paul Baquiast 19/01/2014

Microtubules reconnues par des anticorps anti-tubuline fluorescents (verts) dans une cellule eucaryote

Nous avons plusieurs fois mentionné sur ce site les hypothèses selon lesquels des mécanismes fondamentaux du monde vivant ne se produiraient pas sans l'intervention de phénomènes quantiques. Ceux-ci, par leurs propriétés fondamentales (superposition d'état, non localité notamment) rempliraient dans le vivant des rôles essentiels, que les atomes et molécules du monde dit macroscopique ne pourraient pas assurer. On a souvent dit que le milieubiologique, chaud et humide, ne pouvait permettre aux particules quantiques de conserver leur « cohérence » c'est-à-dire de ne pas devenir des particules comme les autres au contact de la matière ordinaire. Mais un nombre croissant d'expériences confirment qu'il n'en est rien. La biologie quantique paraît une réalité dont aujourd'hui encore on n'étudierait qu'un nombre limité d'exemples.

Deux série d'expériences, ayant fait l'objet de publications, illustre cette constatation. Elles ne concernent pas des phénomènes nouveaux, car les domaines en cause avaient été évoqués depuis quelques années. Il s'agit de la fonction chlorophyllienne dans les cellules végétales et des vibrations se produisant à l'intérieur des microtubules des neurones cervicaux, susceptible de jouer un rôle dans la production de la conscience. Ce sont les mécanismes quantiques supposés les produire qui se précisent aujourd'hui.

La fonction chlorophyllienne

Les processus grâce auxquels les cellules végétales recueillent et utilisent la lumière afin de fabriquer les molécules de la chimie organique dont elles ont besoin semblent n'avoir pas d'équivalents dans la physique classique. Les macromolécules qui jouent ce rôle sont composées de chromophores (responsables de la couleur verte) attachés aux protéines de la cellule et constituant le premier stade de la photosynthèse. Elles capturent les photons de la lumière solaire et transfèrent l'énergie associée vers le reste de la cellule.

Aujourd'hui des chercheurs de l'University Collège London pensent avoir identifié des processus quantiques assurant l'efficacité de cette fonction, dont il n'existerait pas d'équivalents dans la physique classique. Selon leurs observations, les vibrations des chromophores responsables du transfert d'énergie ne pourraient pas se produire classiquement. Leur efficacité dépendrait de mécanismes quantiques.
Les vibrations moléculaires résultent de mouvements périodiques des atomes dans une molécule. Quand deux chromophores vibrent à l'unisson, une résonance apparaît et des échanges efficaces d'énergie peuvent se produire. Dans certaines conditions que nous ne décrirons pas ici, des unités discrètes d'énergie, autrement dit des unités quantiques, sont échangées. Ceci en un très court temps (inférieur à la pico-seconde) et à température ambiante.

Mais ne s'agit-il pas de processus de la physique classique? . Les chercheurs montrent qu'il n'en est rien. En physique classique les probabilités de trouver les chromophores dans certaines positions et impulsions seraient positives, autrement dit il serait possible de prévoir ces positions et impulsions. Or l'expérience montre que ceci n'est pas possible. Les chromophores ne peuvent être identifiés en position et impulsion que d'une façon probabiliste, autrement dit collective, ce qui rend impossibles les prédictions individuelles. Il s'agit donc bien d'un mécanisme quantique, correspondant à l'échange cohérent d'un quantum d'énergie. Une superposition d'états quantiques, non prédictible en physique classique, s'établit entre excitations et transfert de charge à l'intérieur du chromophore.

D'autres processus quantiques proches ont été identifiés. Nous nous bornerons à les évoquer. Il s'agit des changements structurels qu'enregistrent les chromophores associés à la vision lors de l'absorption de photons ou de la reconnaissance d'une protéine par une autre lors de l'olfaction. Pour explorer plus en profondeur ces phénomènes indispensables au fonctionnement des organismes supérieurs, il faudrait examiner les dynamiques vibratoires associées. Elles constituent clairement, selon les chercheurs, des phénomène non-classique, c'est-à-dire relevant de la physique quantique. Les théories proposées sont très complexes et ne peuvent être présentées et moins encore discutées ici. On se bornera à retenir la conclusion générale qui s'en dégage: les organismes biologiques trouvent leurs origines dans la physique quantique. Ceci pourrait contribuer à l'idée que la vie serait universelle dans l'univers, car cette physique n'est pas associée nécessairement aux conditions observées sur la Terre par des organismes comme les nôtres, qui se sont développées en exploitant les propriétés déterministes de la physique macroscopique. Elle pourrait dominer dans d'autres planètes.

Résumé de l'article publié par Nature Communications

Advancing the debate on quantum effects in light-initiated reactions in biology requires clear identification of non-classical features that these processes can exhibit and utilize. Here we show that in prototype dimers present in a variety of photosynthetic antennae, efficient vibration-assisted energy transfer in the sub-picosecond timescale and at room temperature can manifest and benefit from non-classical fluctuations of collective pigment motions. Non-classicality of initially thermalized vibrations is induced via coherent exciton–vibration interactions and is unambiguously indicated by negativities in the phase–space quasi-probability distribution of the effective collective mode coupled to the electronic dynamics. These quantum effects can be prompted upon incoherent input of excitation. Our results therefore suggest that investigation of the non-classical properties of vibrational motions assisting excitation and charge transport, photoreception and chemical sensing processes could be a touchstone for revealing a role for non-trivial quantum phenomena in bi
ology.

Reference:
Edward J. O’Reilly, Alexandra Olaya-Castro, Non-classicality of the molecular vibrations assisting exciton energy transfer at room temperature, Nature Communications, 2014, DOI: 10.1038/ncomms4012 (open access)

Le rôle dans la production de la conscience des phénomènes quantiques supposés s'exercer au niveau des microtubules neuronales

Stuart Hameroff et (Sir) Roger Penrose avaient présenté il y a une vingtaine d'années l'hypothèse selon laquelle la production des faits de conscience, dont la nature et l'origine demeurent largement encore inconnues, dérivaient d'activités se produisant aux niveaux profonds des neurones cervicaux. Seraient impliqués les microtubules. Celles-ci sont des fibres constitutives du cytosquelette ou « squelette des cellules » au même titre que d'autres filaments.

Or, dans la ligne de la découverte des vibrations quantiques dans les chromophores (dont sont évidemment dépourvus les neurones), des chercheurs japonais suivis par d'autres ont conclu que des phénomènes voisins se produisaient au niveau des microtubules neuronales. Ainsi se trouverait confortée l'hypothèse initiale de Hameroff et Penrose. Celle-ci était demeurée très contestée – d'autant plus que l'anesthésiologiste Stuart Hameroff s'était engagé ensuite dans des considérations considérées comme douteuses sur la vie après la mort.

Les auteurs de l'article référencé ci-dessous suggèrent que les ondes du cerveau identifiées depuis longtemps par les technique d'électro-encéphalographie dérivent de vibrations profondes au niveau des microtubules. L'origine de ces ondes était restée jusqu'ici non élucidée. Hameroff et Penrose avaient à l'époque suggérée que des phénomènes vibratoires au sein des tubulines modifiaient les réactions du neurone ainsi que celles des synapses. Ils participaient de ce fait à un grand nombre d'activités neurologiques, dont celles relatives à ce que l'on nomme la conscience chez l'homme et les animaux supérieurs. Mais Hameroff et Penrose n'avaient pu le prouver.

Roger Penrose vient, avec d'autres collègues, de reprendre ses hypothèses initiales à la lumière des phénomènes vibratoires quantiques mentionnés dans la première partie de cet article et se produisant dans diverses cellules, végétales et animales. D'autres chercheurs, dans le même esprit, suggèrent que l'anesthésie, qui fait disparaître la conscience, sans paralyser le reste des activité cérébrales, modifie également l'activité des microtubules.

Dès que l'on parle conscience, les esprits spiritualistes et religieux s'agitent, notamment aux Etats-Unis. La conscience ne serait-elle pas un don conféré par Dieu aux humains. Au contraire, selon l'hypothèse matérialiste, elle aurait émergé progressivement dans les cerveaux du fait de computations se complexifiant progressivement au fil de l'évolution. Pour Hameroff et Penrose, aujourd'hui, il parait clair que des vibrations quantiques dans les microtubules interviennent directement dans les fonctions neuronales et synaptiques. Elles connectent ainsi le cerveau aux processus auto-organisateurs pré-conscients qui constitueraient en profondeur la réalité quantique.

Les théistes pourront toujours suggérer, comme habituellement dans ces matières, que c'est en fait Dieu et non l'évolution qui a mis au point chez l'homme les processus générateurs de la conscience. Mais les scientifiques éviteront ces incursions métaphysiques. Ils ont devant eux suffisamment de travail pour étudier en finesse ce en quoi consistent effectivement les vibrations quantiques au sein des cellules. Il leur faut dorénavant montrer en effet qu'il ne s'agit pas d'une explication facile analogue – puisque nous avons évoqué l'anesthésie – à la " vertu dormitive" de l'opium ” .

Penrose, Hameroff et Bandyopadhyay ont exploré leurs hypothèses lors d'une session intitulée “Microtubules and the Big Consciousness Debate” lors d'un colloque de 3 jours organisé à Amesterdam les 16-18 janvier 2014 . Nous pourrons en reparler
(voir http://www.brakkegrond.nl/programma/1253/Penrose_Bandyopadhyay_Hameroff/
Lezing_Microtubuli_het_grote_debat_over_het_bewustzijn/#en
g )

Résumé de l'article Consciousness in the universe: A review of the ‘Orch OR’ theory

The nature of consciousness, the mechanism by which it occurs in the brain, and its ultimate place in the universe are unknown. We proposed in the mid 1990's that consciousness depends on biologically ‘orchestrated’ coherent quantum processes in collections of microtubules within brain neurons, that these quantum processes correlate with, and regulate, neuronal synaptic and membrane activity, and that the continuous Schrödinger evolution of each such process terminates in accordance with the specific Diósi–Penrose (DP) scheme of ‘objective reduction’ (‘OR’) of the quantum state. This orchestrated OR activity (‘Orch OR’) is taken to result in moments of conscious awareness and/or choice. The DP form of OR is related to the fundamentals of quantum mechanics and space–time geometry, so Orch OR suggests that there is a connection between the brain's biomolecular processes and the basic structure of the universe. Here we review Orch OR in light of criticisms and developments in quantum biology, neuroscience, physics and cosmology. We also introduce a novel suggestion of ‘beat frequencies’ of faster microtubule vibrations as a possible source of the observed electro-encephalographic (‘EEG’) correlates of consciousness. We conclude that consciousness plays an intrinsic role in the universe.

Référe
nces:
* Stuart Hameroff and Roger Penrose, Consciousness in the universe:
A review of the ‘Orch OR’ theory, Physics of Life Reviews, Aug. 20, 2013
*Microtubules http://fr.wikipedia.org/wiki/Microtubule

Partager cet article

15 décembre 2013 7 15 /12 /décembre /2013 15:49

Cette question ne paraîtra pas urgente, compte tenu des risques plus immédiats qui menacent la vie sur Terre. De plus, beaucoup de théoriciens s'interrogent sur le concept même d'univers. Correspond-il, même si l'objet désigné n'est pas observable dans sa totalité, à une entité que l'on pourrait qualifier de réelle, comme l'est par exemple le système solaire. S'inscrit-il dans l'espace- temps einsténien, avec un début et une fin ?

Faisons cependant l'hypothèse que l'univers existe, que les descriptions de la cosmologie actuelle sont dans l'ensemble pertinentes, malgré les vastes points d'interrogations qu'elles laissent subsister. Il est donc intéressant de discuter les différents modèles intéressant le début et la fin de l'univers, big bang et big crunch notamment. Rappelons que le terme de big crunch désigne une phase de contraction qui succèderait à la phase d'expansion actuelle. Elle s'oppose à l'hypothèse d'une expansion infinie, l'univers de la matière telle que nous la connaissons finissant par se diluer sous la forme d'un espace-temps de moins en moins identifiable.

Parmi les hypothèses intéressant une forme éventuelle de big crunch, celle qui vient d'être présentée par une équipe de chercheurs de l'université de Sud-Danemark, dans le Journal of High Energy Physics, sous le titre un peu énigmatique de « Standard Model Vacuum Stability and Weyl Consistency Conditions » mérite discussion (Cf Référence, ci-dessous). Elle pourrait laisser supposer que notre univers est proche d'un forme brutale d'effondrement. Celle-ci pourrait même avoir commencé quelque part et progresserait vers nous à la vitesse de la lumière.

Dans cette hypothèse, soit demain soit dans un milliard d'années, tout ce que l'univers contient serait comprimé sous la forme d'une petite bille (on parle parfois de Singularité) infiniment dense et infiniment chaude. Ce processus violent résulterait de ce que l'on appelle une transition de phase, le même processus se manifestant lorsque l'eau chauffée se transforme subitement en vapeur ou lorsqu'un aimant lui aussi chauffé perd sa magnétisation.

La transition de phase au niveau de l'univers se produirait si se créait une bulle où le champ dit de Higgs associé aux particules de Higgs atteignait une valeur différente de celle du reste de l'univers. Si cette valeur était de plus faible énergie que celle de la matière environnant la bulle, toutes les particules élémentaires au sein de la bulle se trouveraient dotées d'une masse bien supérieure à celle des particules extérieures. Elles se rapprocheraient sous l'effet de la gravité (ou d'une force comparable) et formeraient des centres super-massifs. La bulle s'étendrait alors dans toutes les directions à la vitesse de la lumière.

De nombreuses théories prédisent un tel changement de phase, comme l'expose dans l'article cité Jens Frederik Colding Krog, chercheur au Center for Cosmology and Particle Physics Phenomenology (CP - Origins) de l'université du Sud Danemark. Mais les calculs précédents comportaient quelques incertitudes que l'équipe estime avoir levées, au moins en partie, Selon ces nouveaux calculs, non seulement la transition de phase se produira un jour quelque part dans l'univers, mais encore elle pourrait avoir commencé.

Les fonctions bêta

Pour soutenir leur hypothèse, les chercheurs s'appuient sur des fonctions bêta 1) qui détermineraient la force des interactions entre les particules légères (photons et électrons) d'une part, le boson de Higgs et les quarks d'autre part. Trois catégories d'équations différentes en avaient découlé. Jusqu'à présent, les physiciens avaient travaillé en utilisant une équation à la fois. Mais l'équipe du CP3 montre que ces équations peuvent être mises en oeuvre simultanément et qu'alors elles interagissent. Dans ce cas, la probabilité d'une transition de phase augmente considérablement. D'où en conséquence la grande probabilité d'un effondrement de l'univers. Ces nouvelles hypothèses rejoindraient les perspectives d'un Big Crunch évoqué au début de cet article. La question des causes déterminantes pouvant provoquer un tel effondrement à un moment précis, restent cependant mal élucidée.

Que l'on se rassure néanmoins. Les hypothèses de l'équipe danoise, outre qu'elles n'assignent absolument pas de date au collapse, ne tiendraient que si l'univers ne comportait pas d'autres particules que celles aujourd'hui comptabilisées à la suite des observations récentes provenant du Large Hadron Collider et supposées avoir mis en évidence le boson de Higgs. Or si l'univers comportaient d'autres particules, pouvant être découvertes ultérieurement, les modèles relatifs aux prévisions de phase devraient être revus.

C'est une nouvelle branche de la physique, dite des hautes énergies, qui recherche l'existence de nouvelles particules. Certains physiciens supposent ainsi que le boson de Higgs pourrait être composé de particules plus petites dite techni-quarks. Rappelons aussi que les théories hypothétiques dites de la super-symétrie prédisent qu'à chaque particule aujourd'hui identifiée correspondent des partenaires à découvrir, par exemple le photino pour le photon et le sélectron pour l'électron. 2)

Notre salut pourrait découler de leur existence.

Référence :
Journal of High Energy Physics : Standard Model Vacuum Stability and Weyl Consistency Conditions. http://link.springer.com/article/10.1007%2FJHEP08%282013%29034
Auteurs : Oleg Antipin, Marc Gillioz, Jens Area, Esben Molgaard, Francesco Sannino (CP3 - Origins and DIA).

Note
1) Sur le concept de fonction bêta, qui ne s'applique évidemment pas qu'à la cosmologie, voir Wikipedia http://fr.wikipedia.org/wiki/Foncti...

2) Rappelons l'ouvrage que nous avions signalé, consacré au boson de Higgs par les deux physiciens français Gilles Cohen Tannoudji et Michel Spiro. "Le boson et le chapeau mexicain "http://www.automatesintelligents.com/edito/2013/mai/lecon_du_cern.html

Partager cet article

Jean-Paul Baquiast
commenter cet article

Articles Récents

Liens

Partager cette page Facebook Twitter Google+ Pinterest
Suivre ce blog