Overblog
Suivre ce blog
Administration Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

2 novembre 2016 3 02 /11 /novembre /2016 10:51



Les recherches récentes sur les systèmes d'intelligence artificielle (AI) dits évolutionnaires, c'est-à-dire capables de s'adapter pour survivre à un environnement complexe changeant, font de plus allusion au fait qu'ils pourraient se doter progressivement de capacités cognitives analogues à celle d'un humain.

Celles-ci leur permettraient de se donner des représentations d'eux-mêmes et mettre en place des aptitudes au langage et à l'invention – le tout évidemment aujourd'hui encore sous des formes très primitives. Alain Cardon, dont les principaux ouvrages sont disponibles en accès libre sur ce site, explore en détail ce thème.

La littérature spécialisée n'a pas encore donné d'exemples concluants montrant que cette capacité est déjà à l'oeuvre dans des systèmes d'AI existants, sauf peut-être dans le cas d'algorithmes utilisés dans la gestion des marchés financiers, dits « à haute fréquence ». La pratique a montré que ceux-ci pouvaient prendre en quelques millisecondes des décisions d'achat et de vente plus pertinentes que celles des meilleurs traders humains.

Nous mentionnons par ailleurs le fait que Google, ambitionnant de mettre au point un « cerveau global artificiel » ou Google Global Brain, susceptible de se substituer aux cerveaux humains, avait racheté récemment la plupart des laboratoires d'AI travaillant sur ce thème. Il est clair que son intention, très largement partagée avec le Pentagone américain, est de mettre au service de son projet mondial des systèmes d'AI évolués, capables de prendre eux-mêmes des décisions en faveur des intérêts de Google, sans que celui-ci perde pour autant le contrôle d'ensemble de ces logiciels évolutionnaires.

Un progrès décisif

Or une publication sur ces capacités d'auto-décisions dont seront dotés les algorithmes de demain au service de Google vient d'être produite par des chercheurs de Google travaillant sur leprojet Google Brain. Elle montre que des machines capables d'apprentissage profond ou « deep learning » sont capables d'inventer des systèmes de cryptologie leur permettant d'échanger des messages qu'elles seraient seules à déchiffrer.

On objectera que l'objectif est loin de celui intéressant les capacités de décision autonome d'un cerveau humain. Mais quand on connait l'importance sur les sujets dits sensibles qu'ont pris les outils de cryptologie, le fait que des machines puissent communiquer entre elles de façon inaccessible aux humains fait réfléchir.

On trouvera in fine la référence à l'article de ces chercheurs, publié par arXiv. Martin Abadi et David Andersen y montrent que des systèmes dits neuronaux (neural nets), basés sur des architectures de neurones artificiels, ont pu mettre au point par eux-mêmes un système cryptographique n'empruntant pas aux techniques humaines déjà en service. Le système est très basique, mais rien n'interdira aux neurones artificiels de le complexifier ensuite, toujours de leur propre chef.

L'expérience a utilisé trois réseaux neuronaux indépendants, classiquement nommés Alice, Bob et Eve. Alice devait envoyer un message secret à Bob, message que Bob devait décoder. Eve devait s'y efforcer de son côté,à l'insu d'Alice et de Bob. Pour écrire ce message, Alice et Bob devaient produire un texte crypté faisant appel à un certain nombre de « clefs » inconnues d'Eve.

Initialement, les réseaux neuronaux se sont montrés peu efficaces dans cette tâche, mais après 15.000 tentatives menées par Alice pour produire un texte crypté, Bob s'est montré capable de le comprendre. Eve qui ne disposait que d'un petit nombre des clefs nécessaires, n'a pas pu le faire,

Les chercheurs précisent qu'ils n'ont pas à ce jour bien compris comment les réseaux neuronaux Alice et Bob ont procédé pour produire des textes cryptés. Il s'agissait manifestement d'une initiative autonome dans laquelle aucun humain n'était intervenu. Certes les recherches concernant la réalisation de machines capables d'échanger des messages qui ne seraient accessibles qu'à elles-mêmes sont encore dans l'enfance. Mais le projet Google Brain est désormais en bonne voie pour le faire

Référence: https://arxiv.org/abs/1610.06918

Abstract
We ask whether neural networks can learn to use secret keys to protect information from other neural networks. Specifically, we focus on ensuring confidentiality properties in a multiagent system, and we specify those properties in terms of an adversary. Thus, a system may consist of neural networks named Alice and Bob, and we aim to limit what a third neural network named Eve learns from eavesdropping on the communication between Alice and Bob. We do not prescribe specific cryptographic algorithms to these neural networks; instead, we train end-to-end, adversarially. We demonstrate that the neural networks can learn how to perform forms of encryption and decryption, and also how to apply these operations selectively in order to meet confidentiality goals.

 

 

26 septembre 2016 1 26 /09 /septembre /2016 17:22


LE LIBRE ARBITRE SCIENTIFIQUEMENT REFUTE

par Jean Robin

Editions TATAMIS

septembre-octobre 2016


commentaire par Jean-Paul Baquiast 24/09/2016

L’auteur :

Jean Robin, journaliste et éditeur, a publié 35 livres à ce jour. Du livre pour être heureux (2013) en passant par Ils ont tué la télé publique (2006), il défend la liberté d’expression, l’ouverture d’esprit et la démocratie. Il a fondé la maison d’édition Tatamis en 2006 et le site d’information en ligne Enquête & Débat en 2010.

1) Présentation de l'ouvrage

.Nous nous appuyons pour ce faire afin de gagner du temps, sur ce qu'en dit le site du livre

Les thèmes.Le non choix de naître:
La grossesse et la naissance : Grossesse – Enfant non désiré – Alimentation de la mère – Naissance – Par césarienne – Prématuré – Bébés – Les différentes influences une fois né
Notre corps :
Notre patrimoine génétique – Nos membres – Les mécanismes qui nous maintiennent en vie – Notre cerveau – Nos cinq sens – Nos hormones et nos émotions – Notre genre – Notre beauté – Notre attirance pour les filles ou les garçons – Notre sexualité – Nos nom et prénom – Notre vieillissement – Notre espérance de vie
Nos dons à la naissance ou qui se révèlent plus tard
Notre femme (ou notre mari)
La famille dans laquelle nous naissons :
Nos frères et sœurs – Nos parents – Notre belle-famille – Nos grands-parents
Le choix de notre école
Abus sexuels ou violence
L’époque à laquelle nous naissons
Le lieu où nous naissons
Nos enfants (ou notre enfant)
Notre environnement :
Notre culture:
Notre langue maternelle – Les gens qui nous entourent – Les infrastructures mises à votre disposition – Le système politique en place – L’environnement économique – Le système judiciaire – Le temps – Les lois physiques – L’alternance jour-nuit, saisons, etc. – L’influence des astres – L’effet papillon – Les inventions
L’enfance et l’adolescence
Quelques auteurs qui ne croyaient pas au libre-arbitre
John Locke – Albert Einstein – Sir Isaac Newton – Descartes – Pierre Simon Laplace – Martin Luther – Jean Calvin – Voltaire – Arthur Schopenhauer – Luc de Clapiers, marquis de Vauvenargues – Baruch Spinoza – Donald Hebb – Friedrich Nietzsche – Charles Renouvier – Francis Crick – Henri Laborit – Vassilis SAROGLOU – Antoine VERGOTE – Sam Harris – Wolf Singer – Chris Frith – Paul Bloom – Jerry Coyne – Stephen Hawking – John Searle – Geroge Ortega – Thalia Wheatley – Christof Koch – Bruce Hood2.

2. Nos commentaires

Nous avons sur ce site présenté et commenté de nombreux ouvrages et articles de scientifiques et plus particulièrement de neuroscientifiques examinant la question du libre arbitre et celle de la conscience qui lui es étroitement associé. La première de leur démarche consiste, non à nier ces phénomènes au nom d'un matérialisme radical, mais à en rechercher les bases dans le cerveau. Il est en effet incontestable que le corps, à quelque niveau que ce soit dans l'ordre du vivant, et plus particulièrement le cerveau chez ceux qui en sont dotés, prennent en permanence des décisions qui leur permettent de survivre et s'adapter. Ces décisions relèvent de comportements plus ou moins complexes et intriqués impossible à identifier dans le détail, mais qui paraissent tous étroitement déterminés par des causes ou situations existant préalablement. Autrement dit, ils ne sont pas libres, au sens où l'entendent les philosophes ou religions défendant le libre arbitre.

Or il est impossible de nier, même en restant déterministe, que beaucoup de décisions prennent leurs origines non seulement dans le cerveau mais dans les aires neurales associées à la conscience et plus particulièrement à la décision consciente. Il est donc tentant de rechercher si dans le cerveau et plus généralement dans le corps pourraient être identifiées des zones que l'on pourrait considérer comme le siège de la conscience et de la décision consciente. Il faudrait ensuite déterminer si les processus de décision consciente prises au niveau de ces zones sont « libres » au sens où l'entend le libre-arbitre, ou bien sont déterminés par des facteurs ou processus non encore identifiés, mais qui devraient pouvoir l'être par des études expérimentales plus approfondies.

Or jusqu'à présent, il n'a pas été été possible d'identifier des aires cérébrales qui seraient le siège de la conscience. Leur existence est démontrée à tout instant par différents accidents cérébraux se traduisant par la perte de conscience. Mais on ne peut pas individualiser dans le cerveau sain des aires commandant non pas seulement la décision consciente mais ce que l'on pourrait qualifier de décision libre, résultant d'une intervention elle-même libre du sujet, c'est-à-dire dont il assumerait la responsabilité seule et entière. Il semble que ce soit le cerveau global qui intervienne, en relation constante, notamment, avec les appareils sensori-moteurs.

Pour les neurosciences modernes, les phénomènes indiscutables de conscience et de prise de décision consciente relèvent du cerveau tout entier, voire du corps. Ils se produisent de façon par ailleurs très variable et difficile à analyser dans le détail. Mais ce n'est pas là une raison justifiant de faire appel à une cause relevant d'une philosophie séduisante mais indémontrable de la liberté pour les expliquer. Les diverses religions qui par ailleurs depuis leurs origines reposent sur ce concept de liberté pour y voir le reflet d'une divinité quelconque ne sont pas davantage crédibles. Toutes ces considérations permettent donc de confirmer la validité de l'affirmation selon laquelle le libre-arbitre serait scientifiquement réfuté.

Reste cependant à expliquer en termes de science déterministe la perception de liberté - relative- qu'ont toujours eu les individus ou les collectivités confrontés à des décisions. Chacun d'entre nous la ressent en permanence. Même s'ils peuvent admettre que la décision a déjà été prise de façon inconsciente, c'est-à-dire non libre, avant d'être formalisée sous une forme consciente, la grande majorité des humains ne peut s'empêcher en pratique d'évoquer la liberté et les conséquences en termes de responsabilité que celle-ci entraine.

Il n'a aurait notamment plus de règle de droit, civil ou pénal, si l'on postulait que les individus et les collectivités sont entièrement conditionnés au préalable, c'est-à-dire non responsables, pour prendre les décisions qu'ils prennent. De la même façon aucun chef ne s'efforcerait de convaincre ses subordonnés de prendre des décisions contraires aux règles dominantes s'il ne s'estimait pas doté d'une libre volonté l'autorisant à le faire.

Il est cependant possible, en termes déterministes, d'expliquer que l'évolution des individus et des sociétés n'aurait pas été aussi riche et adaptative qu'elle l'a été si les individus n'avaient pas été persuadés qu'ils étaient capables de décisions libres. Mais cette persuasion, et c'est le point important, n'aurait pas été le fait de décisions volontaires antérieures, elle se serait spontanément formalisée et imposée sous forme de contraintes déterministes collectives, ayant émergé si l'on peut dire de la même façon que le langage.

Dans certains cas, elle aurait pris la forme de mécanismes héréditairement transmissibles, inscrites dans les génomes. De la même façon, à un niveau plus simple, dans la vie sauvage, des règles implicites s'étant imposées d'elles-mêmes aux espèces commandent des comportements de fuite à l'égard d'un prédateur - ceci quelles que soient les tendances à folâtrer qui peuvent caractériser les proies.

Dans ces perspectives, il faut considérer que le livre de Jean Robin « Le libre arbitre scientifiquement réfuté » constitue un petit ouvrage simple, de lecture facile, énumérant l'essentiel des conditionnements divers qui nous déterminent, fut-ce à notre insu. Certes l'auteur met pratiquement pratiquement au même niveau tous les déterminismes, alors que certains sont évidents et que d'autres sont plus difficiles à expliquer, notamment dans le cas du cerveau, considéré comme la machine la plus complexe de l'univers. Mais ceci est inévitable, concernant les dimensions de l'ouvrage. Nous nous devons en conseiller la lecture. Dans un siècle où sous l'influence d'un islam de combat se répand à une vitesse inquiétante l'idée que les croyants, inspirés par le Coran, peuvent et doivent remettre en cause tous les fondements de la société, il sera particulièrement nécessaire.

Malheureusement, on peut penser que le livre ne convaincra que des lecteurs déjà convaincus. Le poids des croyances au libre-arbitre, propagées par des structures de pouvoir qui les disséminent pour éviter toute approche scientifique matérialiste et déterministe de la question, continuera à s'imposer. Même un lecteur scientifique, tel il doit l'avouer l'auteur de cet article, ne pourra pas très épisodiquement ne pas se demander « s'il n'y aurait pas quand même quelque chose » fondant le libre arbitre dont il se sent intuitivement doté.

Nicolas Gisin

Ceci fait qu'un certain nombre d'arguments se voulant scientifiques ont depuis longtemps essayé de rattacher le libre arbitre à des causes fondamentales pouvant être inscrites dans l'univers profond. La physique quantique avec ses hypothèses sur l'indétermination a depuis son apparition été utilisée en ce sens, sans caractères bien convaincants du fait du caractère ésotérique des arguments utilisés. Mais les tentatives se poursuivent. Nous avons dans un article récent évoqué le travail du physicien quantique Nicolas Gisin. Le lecteur pourra se reporter à l'article et aux sources citées. Néanmoins nous pouvons ici en présenter une adaptation.

Dans un article du NewScientist, daté du 21 mai 2016, intitulé Time to decide, le physicien quantique suisse Nicolas Gisin, pionnier de la téléportation des états quantique et de l'une de ses applications, la cryptographie quantique, explique pourquoi il ne peut admettre les arguments de la science déterministe selon lesquels le libre arbitre n'est qu'une illusion.

Sa conviction ne découle pas d'hypothèses religieuses selon lesquelles le libre-arbitre aurait été conféré à l'homme du fait que celui-ci ait été fait à l'image de Dieu, dont aucune loi ne peut enchainer la totale liberté de créer ou ne pas créer. Elle peut par contre les rejoindre. Il raisonne sur le libre-arbitre en termes strictement scientifiques.

Il admet que toute la physique macroscopique moderne, depuis Descartes, Newton et Einstein, repose sur l'assomption que l'univers est déterministe. Par extension, dans le cas de sciences comme la biologie ou la neurologie qui ont souvent peine à faire apparaître des lois déterministes, le déterminisme postule que de telles lois existent, y compris sous la forme d'un chaos déterministe ne permettant pas à notre esprit de faire apparaître ces lois, en l'état actuel de nos connaissances.

Aussi bien les cosmologistes pensent pouvoir prédire l'avenir de l'univers avec une certaine dose de certitude, puisque les lois fondamentales de l'univers seraient déterministes. On ne les connait évidemment pas toutes, mais la plupart se découvriraient de plus en plus. Il en résulte que pour eux le temps serait une illusion. Les mêmes causes entraineraient les mêmes effets, même si le cours de ce que nous appelons le temps se trouvait inversé. Ainsi prise à l'envers, l'histoire de l'univers nous ramènerait inévitablement au point initial du big bang, supposé être à l'origine de ce même univers.

Face à ces arguments, Nicolas Gisin fait valoir que des scientifiques de plus en plus nombreux, parfaitement respectables, affirment que la démarche scientifique n'aurait pas de sens sans le libre-arbitre, c'est-à-dire au cas où nous n'aurions aucun pouvoir de décider si une hypothèse est « vraie » ou non. Nous serions obligé de la tenir pour vraie, partant de l'idée qu'un déterminisme sous-jacent doit nous imposer de ne pas nous poser la question. Nous serions seulement libres - et encore - de chercher à mieux connaitre ce déterminisme.

Or c'est le contraire que montre l'histoire de la science. Sans même faire appel à la mécanique quantique qui postule l'intervention de la volonté pour résoudre l'équation de Schrödinger dont l'inconnue est une fonction, la fonction d'onde ( ce que l'on nomme le problème de l'observation), Gisin s'appuie sur des exemples d'indétermination peu souvent évoqués que nous ne reprendrons pas ici. Ainsi de l'utilisation de nombres que Descartes avait nommé des nombres réels, opposés aux nombres qu'il avait nommé « imaginaires ». Les nombres imaginaires sont considérés comme ne correspondant à aucune réalité, compte tenu de la façon dont ils sont calculés, par exemple en faisant appel à la racine carré d'un nombre négatif. Ce n'est pas le cas des nombres réels.

Cependant les nombres réels peuvent eux-mêmes être indéterminés. La plupart d'entre eux, décomposés en leurs éléments, font appel à des séries de chiffres se poursuivant jusqu'à l'infini. De plus, ces derniers, en bout de chaine, n'apparaissent qu'au hasard, sans qu'aucune loi déterministe permettant de permette de prédire leur apparition. Seule une le traitement des nombres faisant appel à une décision volontaire permet de ne prendre en considération que les premiers chiffres de la série.

On objectera que le traitement des nombres est en fait déterminé par des structures neuronales propres à notre cerveau, elle-même bien déterminée. Mais Nicolas Gisin rappelle que les systèmes relevant de la théorie du chaos au sens strict, c'est-à-dire d'un chaos qui n'a rien de déterministe, sont partout dans la nature. C'est le cas notamment de tout ce qui concerne la vie et son évolution - sans mentionner les systèmes quantiques déjà évoqués. L'indétermination est partout, jusqu'au moment où elle est déterminée par les choix eux-mêmes non déterminés a priori faits par les êtres vivants.

Ceci dit, observons pour notre compte que l'indétermination et plus encore le libre-arbitre, sont de simples concepts que la science se refuserait encore aujourd'hui à définir. Elle ne les identifie que par leurs effets visibles. Ne faudrait-il pas aller plus loin? Que signifie la liberté de choix pour les êtres vivants. Certainement pas la liberté d'aller où que ce soit dans l'espace.

Il faudrait peut-être envisager que le libre-arbitre soit une propriété fondamentale des êtres vivants, leur permettant de résoudre à leur avantage les indéterminismes profonds du monde? Ceci se ferait au niveau quantique, par la résolution incessante des fonctions d'onde auxquelles se trouvent confrontés ces êtres vivants. Mais ceci, d'une façon plus évidente, se produirait en permanence dans le monde physique. Par le libre-arbitre, les êtres vivants, fussent-ils considérés comme primitifs, et donc entièrement déterminés, choisiraient spontanément et librement les conditions de la nature les plus convenables à leur survie et leurs développements. Ainsi de proche en proche, ils se construiraient un monde déterminé dans lequel ils évolueraient en faisant simultanément évoluer ce monde.

Le libre-arbitre ne permettrait donc pas d'inventer des mondes entièrement nouveaux. Il se bornerait à rendre actuelles des possibilités préexistantes, en les « choisissant ». On retrouve là, au niveau de la physique macroscopique, l'interprétation dite de Copenhague, popularisée par Werner Heisenberg. L'observation, dans la théorie dite de la mesure, « résout » la fonction d'onde du système quantique en l'obligeant à choisir entre un certain nombre de possibilités en principe préexistantes.

Or, écrit Nicolas Gisin, le concept de temps n'est pas exclu de ce processus. Le résultat d'un événement quantique, tel que la mesure d'un système donné, non déterminé à l'avance, se situe dans un temps différent de celui où ce résultat est acquis, avec toutes les conséquences en découlant. Il s'agit d'une création authentique, apparue dans un temps non réversible, qui ne pouvait être connue à l'avance en faisant appel à une équation déterministe.

Nicolas Gisin a nommé ce temps un « temps créateur » , creative time. La science ne comprend pas bien aujourd'hui ce concept, mais la théorie de la gravitation quantique pourrait changer les choses. Elle obligera à une synthèse entre la théorie einstenienne de la gravité, entièrement déterministe, et le hasard introduit par l'observateur d'un système quantique.

Si l'on accepte cette hypothèse, il faudra en revenir à la question que nous avons précédemment posée. Faudrait-il admettre que le libre-arbitre, à quelque niveau qu'il s'exprime, serait dans la nature même de l'univers, ou du multivers si l'on retient cette dernière hypothèse. En ce cas, dans un univers supposé être évolutif, quelle serait l'essence profonde du phénomène ou, si l'on préfère, comment serait-il apparu? Et se poursuivra-t-il lorsque l'univers que nous connaissons aura disparu?

Toutes ces hypothèses concernant le libre-arbitre ne conduisent évidemment à des « certitudes » scientifiques, ceci d'autant plus qu'il sera longtemps difficile voire impossible de les mettre à l'épreuve dans des dispositifs expérimentaux. Il paraît difficile cependant d'affirmer, comme Jean Robin, que le libre-arbitre soit scientifiquement et définitivement réfuté. Ou tout au moins, si on le fait, il faut que ce soit à l'intention des profanes toujours tentés de faire appel à des considérations mythologiques ou religieuses.

Cela ne saurait interdire à des chercheurs scientifiques de se demander si des lois fondamentales de l'univers ne pourraient pas expliquer l'étonnante rémanence du concept de libre-arbitre.

Réaction de Jean Robin

J'ai reçu de Jean Robin cette réaction à la lecture de mon article. Je l'en remercie. JPB

merci pour cette recension richement argumentée. Jje me permets de relever quelques erreurs :

- sur la religion et le libre arbitre : toutes les religions au monde croient au libre arbitre, sauf une, le christianisme biblique tel qu'expliqué par les protestants de la réforme, luthériens et calvinistes.
Luther a même écrit une somme de 700 pages intitulée "Le serf-arbitre" dans lequel il écrit, versets de la bible à l'appui, que Jésus nous explique tout au long de la Bible que le libre arbitre n'est qu'une illusion, dont le résultat est de nous rendre esclave du péché. La vérité vous rendra libre, et la vérité c'est Jésu
s.

- sur l'indétermination : elle ne prouve pas le libre arbitre.

- sur les personnalités qui ne croient pas au libre arbitre : je trouve dommage de ne pas en avoir parlé (outre les noms dans le sommaire) car la pensée d'un Spinoza ou d'un Nietzsche par exemple me paraissent lumineuse de ce point de vue, et permettent d'éclairer la réflexion scientifique.

- sur le reste : je pense que vous êtes passé à côté de l'essentiel, à savoir que la science démontre que le libre arbitre, s'il existe, est si réduit qu'il est nul.
Je cite quelques dizaines de facteurs dans mon livre, il en existe en fait des milliards de milliards, s'exerçant sur nous en permanence !
En effet les facteurs qui nous conditionnent s'additionnent et se renforcent, créant une sorte de toile d'araignée à laquelle rien ne semble pouvoir échapper.
Sauf à croire à la magie naturellement, ou à Dieu (le cas des luthériens et calvinistes), mais ce n'est pas votre cas je crois.
Seule une force incréée, infinie, et non soumise au temps et à l'espace pourrait en effet échapper à la loi de la ca
usalité.

Mais c'est un autre débat...

Je suis tout de même ravi par cette recension, ne vous y trompez pas ;)

Je la relaie donc sur mon site Enquête & Débat, afin de faire un peu de pub à mon tour à votre site : http://www.enquete-debat.fr/archives/critique-de-le-libre-arbitre-scientifiquement-refute-64921

Ma réaction à la réaction

Je suis bien d'accord avec ceux, tel votre livre, expliquant que la science réfute à juste titre le libre-arbitre. J'ai seulement voulu évoquer, dans la partie du commentaire évoquant le travail de Nicolas Gisin les hypothèses de ceux qui se demandent si la biologie quantique (voyez un article précédent ) ne pourrait-elle pas suggérer une capacité fondamentale de la vie à lever les indéterminations (résoudre la fonction d'onde) des particules quantiques afin d'en faire des particules matérielles adaptées à leurs besoins.

Lever une indétermination ne signifie évidemment libre-arbitre, mais seulement que les déterminismes en résultant montrent l'existence d'un indéterminisme fondamental caractérisant le monde quantique dont le monde macroscopique est issu. Il pourrait s'agir de ce que l'on pourrait appeler une loi fondamentale de l'univers. Autrement dit le déterminisme ne serait pas une propriété fondamentale de l'Univers.

Voyez aussi le livre de Gisin L'impensable hasard . Il traite surtout de téléportation quantique mais les bases s'en appliquent à toutes les procédures quantiques, qu'elles soient cosmologiques au sens large, matérielles ou biologiques. Ceci dit, comme je l'avais indiqué, il ne s'agit encore que d'hypothèses. Mais elles ouvrent un peu le regard par rapport à l'acception actuelle du concept de déterminisme

Réaction d'Alain Cardon

Le problème est que la génération de toute pensée est une construction émergente qui est ou bien conduite ou bien générée par réaction et sans intention. Et c’est une émergence qui est un construit satisfaisant simplement à une visée et qui n’est
donc pas une production totalement dirigée et conduite par l’individu
qui utilise son système psychique. Le cadre de cette émergence a été développé dans mes publications et le sera encore dans le prochain livre de Pierre Marchais auquel je collabore.

Mais cette position nécessite de bien connaître des domaines scientifiques différents, l’Intelligence Artificielle, la construction effective des productions des systèmes multiagents massifs autocontrôlés morphologiquement, puis le psychisme et la transposition de l’architecture calculable complète dans la connaissance effective du psychisme humain, avec les notions de régulateurs, de contrôleurs et d’émergence multi-facettes, ce qui explique de très nombreuses pathologies, ce que nous avons publié avec Pierre Marchais.

La notion de libre arbitre est donc celle de la production d’un processus émergent multi-caractères dans une architecture très morphologique utilisant fortement le parallélisme et même l’équivalent de l’intrication et où chaque émergence altère de façon distribuée ce qui l’a produit, formant ainsi la mémoire très dynamique du système psychique. Cela n’a donc rien à voir avec la conception radicale d’un esprit humain qui serait la cause absolue de tous nos actes.

Ma réaction à la réaction d'Alain Cardon

Ce commentaire évoque trop sommairement un thème important de l'Intelligence artificielle dite autonome, qu'Alain Cardon a mis en centre de ses recherches actuelles: comment simuler le libre arbitre dans des systèmes artificiels, dont certains sont dit "massivement multi-agents", visant à l'autonomie? Il faudrait tout un article pour mettre à jour ce que nous avons écrit sur ce thème ici. JPB

22 août 2016 1 22 /08 /août /2016 13:32

Pour en savoir plus sur l'auteur, voir
Page personnelle https://www.preposterousuniverse.com/self.html

Wikipedia
https://fr.wikipedia.org/wiki/Sean_Carroll


Présentation

Il est évident que, plus les sciences progressent, plus elles offrent à la réflexion philosophique, si l'on peut employer ce terme, d'insondables perspectives à prendre en considération. C'est évidemment le cas de toutes les sciences, qu'elles relèvent de la physique dite macroscopique ou de la physique quantique, de la biologie, des neurosciences.

Ainsi, en cosmologie, apprendre aujourd'hui que selon les plus récentes observations, celles notamment de la Baryon Oscillation Spectroscopic Survey ( voir notre article ) l'univers visible comprendrait au moins 100 milliards de galaxies, elles-mêmes comprenant environ 100 milliards d'étoiles, et qu'un certain pourcentage d'entre elles pourraient comporter des systèmes solaires comportant eux-mêmes des planètes favorables à la vie et au développement de l'intelligence, la représentation que nous ne faisons de l'humanité et de notre intelligence ne peut pas ne pas être affectée. Autant l'homme, dans le système d'univers de Ptolémée, pouvait dans une certaine mesure se considérer comme le centre du monde, autant, dès Copernic, un des pères de l'héliocentrisme, il a du commencer à regarder le ciel d'une autre façon.

Aujourd'hui, la cosmologie n'offre évidemment aucune réponse à la question de savoir ce que représentent notre société et nos convictions à l'échelle de l'univers global. Chez les matérialistes (que Sean Carroll désigne du terme anglais de naturalistes), la plupart s'en accommodent. Nous n'en saurons jamais rien, dit-on, et il faut aborder des questions plus immédiates. D'autres se demandent nécessairement si la vision du monde offerte par la science actuelle est pertinente, voire même si la science elle-même est pertinente. Nécessairement aussi ils s'interrogent sur le fonctionnement de notre cerveau, qui élabore de telles questions contrairement semble-t-il à celui des animaux.

Le gros ouvrage de Sean Carroll (comportant 460 pages), n'est pas avare de telles interrogations philosophiques. L'auteur, qui est d'abord un physicien théoricien et un astrophysicien à Caltech, s'est à l'âge de 50 ans, donné des compétences suffisamment étendues dans pratiquement toutes les sciences pour pouvoir en parler avec pertinence. Il a doublé cette compétence d'une réflexion philosophique et morale dont nous dirons deux mots dans la seconde partie de cet article, que l'on ne peut nier.

L'ensemble a donné lieu de sa part à la rédaction de plusieurs ouvrages chacun favorablement apprécié par la critique universitaire. Assez curieusement, il reste peu connu en France. Mais cela ne devrait pas nous étonner connaissant l'ignorance abyssale des « élites intellectuelles » de ce pays au regard des questions scientifiques et de philosophie des sciences.

Il convient donc de conseiller à nos lecteurs francophones une lecture attentive de cet ouvrage, quelle que soit la peine qu'ils en éprouveront vu que le livre n'est pas traduit et aborde sans les approfondir, hors les références, un nombre considérable de questions et de réflexions. Mais il sera déjà très utile qu'ils s'en donnent une vue transversale, par un parcours rapide. Nous-mêmes, avouons-le, nous n'avons pas tout lu en détail –nous réservant de pouvoir discuter de certaines questions dans des articles ultérieurs. Notre rôle en tant que critique est de faire connaître au plus vite ce livre à ceux qui nous lisent. Ils pourront se forger leurs propres jugements.

La Big Picture que Carroll propose découle du postulat suivant. La théorie quantique des champs offre comme son nom l'indique une vue unifiée du monde subatomique. Elle repose sur l'intégrale de chemin à la dernière version de laquelle le physicien Feynman à donné son nom (Wikipedia https://fr.wikipedia.org/wiki/Int%C3%A9grale_de_chemin). Il s'agit comme la définition l'indique, d'une notion intéressant le monde subatomique, fort éloigné de notre perception du monde dit macroscopique.

Carroll l'appelle une théorie « coeur » ou fondamentale (CoreTheory) dont peuvent dériver les principaux traits de notre monde. D'autres par contre ne peuvent pas l'être. Les plus connus sont les concepts de la thermodynamique, comportant par exemple celui de temps indispensable à notre vision du monde. Ils les appelle des concepts « émergents ». Il s'agit de concepts qui certes ne doivent pas être incompatibles avec la « Core Theory » mais qui ne peuvent trouver leurs fondements dans celle-ci.

Parmi les concepts émergents, (nous résumons) les plus importants proviennent des expériences conscientes, ou plus généralement du phénomène que l'on nomme la conscience. Il s'agit, dit-il, de quelque chose qui n'est pas lié à l'architecture fondamentale de la réalité. Notre cerveau l'a inventé pour se donner une vue du monde plus utilisable par nous que des approches beaucoup plus simplifiées, telles celles utilisés, autant que l'on sache, par les cerveaux animaux.

En matérialiste convaincu (le mérite est grand aux Etats-Unis d'aujourd'hui de se reconnaître comme tel) il ne fait pas appel à l'intervention d'une divinité pour aborder les nombreux domaines que la science ne comprend pas encore. Il emploie seulement le terme, difficilement compréhensible sans contre sens en français, de poetic naturalism. Il désigne ainsi toutes les descriptions scientifiques ou philosophico-scientifiques du monde qui ne découlent pas de la physique fondamentale, mais qui ne sont pas incompatibles avec elle. Nous dirions pour notre part matérialismes appliqués ou dérivés, autrement dit dérivant du postulat matérialisme fondamental, celui de la matérialité d'un univers infra-corspusculaire ou quantique d'où proviennent toutes les autres formes de matière/énergie.

Discussion

Ce terme de poetic naturalism montre une tendance agaçante chez Sean Caroll à redéfinir ou seulement à nommer autrement des entités observables ou des concepts sur lesquels ont réfléchi plus de 2.500 ans de philosophies. Certes, il est excellent quand il s'agit d'actualiser les hypothèses ou observations portant sur ces entités, et qui sont en permanence approfondis ou redéfinis par les sciences d'aujourd'hui. En ce sens le livre, qui couvre pratiquement (ou qui survole pratiquement) tous les domaines de connaissance, paraitra très utile à tous ceux, scientifiques ou non, qui sont nécessairement quelque peu dépassés par l'explosion contemporaine des recherches et des publications. Il s'agit d'une très utile mise à jour.

Mais quand il s'agit d'interpréter ces connaissances au regard de ce que l'on pourrait appeler une philosophie du savoir, voire une métaphysique, il a du mal à ne pas reprendre ce qu'il faut bien nommer des poncifs.
Ainsi quand il explique doctement que la morale "n'existe pas en soi mais correspond à ce que chacun en fait. Tous alors n 'en ont pas la même conception". De même quand il traite de la conscience. Comme l'entropie, dit-il, la conscience est un concept que nous inventons pour nous donner des descriptions utiles et efficaces du monde.

Nous avons nous-mêmes sur ce site, il y a une dizaine d'années, essayé de recenser les principaux travaux scientifiques de l'époque concernant ce fait difficile à nier, la conscience (Voir par exemple La conscience vue par les neuro-sciences http://www.automatesintelligents.com/echanges/2008/dec/conscience.html)

Il est évident qu'il faudrait plusieurs livres de la taille de The Big Picture pour commencer à résumer toutes ces données et études. Ce ne sont pas les quelques pages qu'y consacre Sean Carroll qui peuvent prétendre le faire, fussent elles inspirées par un louable matérialisme refusant de voir dans la conscience humaine un don de la divinité.

On peut dire la même chose du concept de multivers, un des plus discuté par la cosmologie récente. Carroll se dit convaincu par ce concept. Mais il se borne à en dire, ce qui est certainement juste mais qui mériterait d être discuté, que le concept de multivers découle de théories qui sont mal définies. La Palisse n'aurait pas dit mieux.

La même critique peut être faite à propos du concept d'émergence, que Sean Carroll attribue à toutes les connaissances scientifiques se greffant sur le monde quantique de Feynman. Qu'est-ce qui émerge au juste? De quoi ceci émerge-t-il ? Les autres astres sont-ils le siège de telles émergences, et sinon pourquoi.?

Plus généralement, quand il parle de la science, il propose Dix Considérations qui devraient se substituer au Dix Commandements de l'Evangile. Il s'agit de (nous ne traduisons pas)

Life Isn’t Forever.
Desire Is Built Into Life.
What Matters Is What Matters To People.
We Can Always Do Better.
It Pays to Listen.
There Is No Natural Way to Be.
It Takes All Kinds.
The Universe Is in Our Hands.
We Can Do Better Than Happiness.
Reality Guides Us.

Soit, mais on peut se demander si ces Considérations découlent de son expérience de physicien théoricien, on d'un effort louable, mais cependant maladroit, pour se démarquer de l'enseignement des religions. A la fin du livre, Carroll décrit ses premiers enthousiasmes nés de sa fréquentation d'une église épiscopale. Ceux qui, comme la plupart des scientifiques en France, n'ont pas fréquenté de telles églises, mais en sont resté aux enseignements laïcs inspirant les universités de la République, n'ont certainement pas besoin de telles Considérations pour mener leurs recherches.

16 août 2016 2 16 /08 /août /2016 15:10

s par Jean-Paul Baquiast 16/08/2016

Thomas Buchert est:

* Professeur de Cosmologie à l'Université Claude Bernard Lyon 1
* Membre du CRAL (CNRS UMR 5574) à l'École Normale Supérieure de Lyon
* Membre du Consortium Euclid
* Professeur Adjoint de la Faculté ICRA-Net

Ses travaux originaux en cosmologie:
a. Théorie de perturbations lagrangiennes
b. Introduction des Fonctionnelles de Minkowski comme statistique pour les données astronomiques
c. Cosmologies inhomogènes (buchert equations)

Pour en savoir plus sur Thomas Buchert
http://www.galpac.net/members/buchert_fr.html

Voir aussi
http://www.galpac.net/projects/arthus/arthus_fr.html


Introduction à l'entretien

En cosmologie, les concepts de matière noire et d'énergie noire sont bien commodes. Tels les recours au mystère dans les philosophies de la nature, ils permettent de se dispenser de recherche scientifique plus approfondie. Ils prétendent expliquer les mystères en décourageant toute tentative pour mieux comprendre ce qu'ils cachent. L'oeuvre du cosmologiste Thomas Buchert propose de nouvelles perspectives très intéressantes pour aborder cette question.

Voir notre article du 23/06/2016, L'effet des inhomogénéités sur l'univers global, avec des commentaires de Thomas Buchert http://www.admiroutes.asso.fr/larevue/2016/170/buchert.htm

Voir aussi Rovelli http://www.admiroutes.asso.fr/larevue/2015/154/rovelli.htm

Jean-Paul Baquiast, ci-dessous JPB 16/08/2016

JPB: Cher Thomas Buchert, vous êtes un cosmologiste des plus innovants, mais aussi encore un peu hérétique. Vous refusez de recourir aux concepts de matière noire et d'énergie noire pour apporter des réponses à certaines des questions les plus ardues de l'astronomie, de la la cosmologie moderne et de la physique en générale. Pouvez vous nous dire comment vous en êtes arrivé là ?

TB pour Thomas Buchert Déjà tôt au cours de mes études, ma façon d'aborder la physique était d'examiner les changements paradigmatiques, autrement dit comment les paradigmes évoluent. Ceci en particulier concernant l'évolution des hypothèses sur lesquelles ils sont basés. Cette derniere approche conduit naturellement à la critique de l'hypothèse: apparaît elle non-réaliste ou trop idéalisé. Si vous regardez le modèle standard de la cosmologie, vous constatez qu'il est basé sur des hypothèses qui ne correspondent pas nécessairement à ce qu'on voit dans l'Univers.

Ainsi, si vous pensez que le modèle standard devrait décrire l'Univers dans le cadre de la théorie de la relativité générale d'Einstein, il saute aux yeux que les récents développements forts en astronomie concernant notre connaissance des structures dans l'Univers ne se reflètent pas dans les hypothèses sous-jacentes du modèle standard. En bref: la théorie d'Einstein exige pour les structures non-homogènes une géométrie non-homogène, tandis que le modèle standard repose sur une géométrie homogène.

Je ne pense pas que cette approche soit hérétique car elle cherche à comprendre sans être influencée par le paradigme courant. Elle nécessite cependant d'accepter que pour améliorer les idées actuelles il faille affronter des difficultés, difficultés techniques mais aussi difficultés à convaincre une majorité de scientifiques qui suit une autre voie. Par exemple, pour remettre en question le modèle standard homogène, il faut regarder la généralité des équations d'Einstein décrivant une géométrie inhomogène. La question à se poser était de savoir si un modèle homogène peut faire du sens. La réponse est qu'il n'a de sens que pour donner une description moyenne à grande échelle.

Il est donc conséquent de regarder les équations générales d'Einstein et leurs propriétés moyennes sur de grandes échelles et je suis arrivé à un modèle cosmologique “en moyen“ . Ceci veut dire qu'il comporte des termes supplémentaires agissant comme énergie noire (ou sombre) sur de grandes échelles, mais aussi agissant comme de la matière noire sur de petites échelles. Ces effets existent. La seule question ouverte – c'est le sujet de la recherche actuelle - est de quantifier ces effets. Il se peut que ces effets ne sont pas suffisants pour expliquer les sources sombres, mais il est nécessaire cependant de les quantifier. Tout cela n'est que de la physique, et ne fait pas appel à des éléments mystérieux.

JPB. Vous considérez vous conforté par les informations actuellement publiées selon laquelle les recherches sur les supposées particules de matière noire (WIMPs, Weakly Interactive Massive Particles) seraient en cours d'abandon, faute de résultats?

TB. Le paradigme de l'existence de la matière noire est toujours en train de se modifier. Il y a beaucoup de candidats plausibles pour l'expliquer. Je considère les mini trous noirs comme des candidats raisonnables, mais le paradigme reste le même. En fait, il se peut que nous trouvions de la matière noire, car des évidences indirectes existent, bien plus d'ailleurs que pour l'énergie sombre. Cependant, étant donné que les effets des inhomogénéités peuvent également agir comme la matière noire, il est évident que l'on doive tenir compte de ces effets dans les modèles censés expliquer ces évidences. Par exemple, les modèles actuels négligent la courbure de l'espace. Ils sont newtoniens. Le halo d'une galaxie ne peut être modélisé de manière réaliste qu'avec la prise en compte de la courbure. La question se pose donc de savoir si cette propriété physique - négligée dans le modèle standard - peut en modifier les conclusions.

JPB. Mais vous estimez, sauf erreur, qu'une explication alternative, celle de la gravité modifiée (MOND, TeVeS) ou bien d'autres théories comme la théorie bimétrique édudiée par Luc Blanchet seraient inutilement compliquées. Il ne serait donc pas nécessaire d'abandonner la théorie de la gravitation universelle proposée par Einstein.

TB. J'ai récemment apprécié un exposé donné par Luc Blanchet au cours de la dernière conférence SF2A à Lyon. J'ai aimé la présentation. Les sources sombres sont souvent recherchées en termes de champs fondamentaux existants - ou en termes de généralisations du lois de la gravitation. Pour la dernière possibilité, les approches comme MOND et TeVeS sont utiles car elles donnent une idée phénoménologique sur ce qui change par rapport aux modèles simplistes.

Néanmoins, elles semblent viser à « réparer » les théories universelles, bien testées comme la théorie d'Einstein, or cette réparation dépend de l'échelle ou du système astronomique que vous regardez. Le plus souvent, l'un des postulat parait confirmé, c'est-à-dire soit postuler l'existence de la matière noire soit changer la loi gravitationnelle. Mais les deux simultanément parait difficile. Le rasoir d'Occam suggère qu'une telle approche peut difficilement être concluante. Plus précisément, je pense que les sources sombres sont le produit d'une modélisation trop simpliste. Elles ne sont pas nécessairement liées aux fondements de la théorie de la gravitation. Il n'empèche que les études concernant une modification de la gravité évoquées par vous sont intéressantes et importantes.

JPB. Pour en revenir à vos hypothèses, elles ne paraissent pas pour le moment vérifiables expérimentalement. Pourront-elle l'être prochainement?

TB. La possibilité de prédictions observationnelles dépend en grande partie de la possibilité de mesurer indirectement l'évolution de la courbure. Le modèle standard suppose une courbure nulle à travers le temps et à toutes les échelles spatiales. Puisque la géométrie change, il en est de même de l'interprétation des observations. Elles sont tirées de propriétés de la géométrie du modèle sous-jacent.

Nous avons développé dans mon laboratoire des modèles sans énergie sombre qui décrivent la courbure émergente à la suite de la formation des structures. Ils sont compatibles avec les propriétés moyennes des équations d'Einstein et les données observationnelles. Nous pouvons construire des observables à partir de ces modèles et les comparer avec l'évolution du modèle standard.

Les différences ne peuvent pas être mesurées avec les données actuelles, car en particulier nous avons besoin de dérivés des observables en fonction du décalage vers le rouge qui sont difficiles à mesurer. Cependant, nous avons pu montrer que ces différences seront mesurables dans les futures missions astronomiques telles qu'Euclid.

Je tiens à ajouter que ce n'est pas tant la question de la vérification qui se pose que la question de savoir si une théorie est falsifiable. L'approche de la cosmologie inhomogène est fortement falsifiable comme Karl Popper l'avait demandé. Contrairement aux approches phénoménologiques contenant des paramètres, ici il n'y a aucun paramètre libre et toutes les variables sont étroitement verrouillées au sein de la théorie d'Einstein.

Sur les idées de Karl Popper, vous pouvez voir le dialogue philosophie / cosmologie:
http://mc.univ-paris-diderot.fr/publicmedia?task=show_media_public&mediaRef=MEDIA131216162805657&Presid=2901

JPB Vos hypothèses vous paraissent-elles compatibles avec celles discutées actuellement, de la gravitation quantique à boucle promues aujourd'hui par Carlo Rovelli. Elles obligent à admettre qu'à un certain niveau d'approche, et conformément aux concepts de la mécanique quantique, il ne serait plus possible de parler de temps ou d'espace. Que devient alors l'utilité de vos recherches sur l'évolution de l'univers après le Big Bang?

TB. La question à se poser est de savoir sur quelle échelle la théorie d'Einstein est valide. Elle l'est certainement sur une échelle macroscopique or en cosmologie nous sommes à une échelle où l'approximation d'un fluide est valable. Le concept à prendre en compte et à examiner est celui du « coarse-graining » (fait de grains plus grossiers).

En supposant que les équations d'Einstein soient valides sur une échelle macroscopique, notre approche considère les moyennes sur des échelles différentes qui, en fait, conduisent à des équations différentes de celles d' Einstein. Dans ce sens faire la moyenne modifie la théorie d'Einstein, mais il s'agit d'une modification contrôlée qui dépend de la façon dont nous effectuons les moyennes. A l'échelle microscopique (quantique) le même processus de « coarse-graining » devrait être appliquée pour retrouver la théorie d'Einstein concernant les échelles macroscopiques.

Il existe un lien important entre notre approche et la gravitation quantique à boucles qui doit être vue comme une « renormalisation » de la géométrie de l'espace-temps. Bien sûr, à un niveau microscopique, les notions macroscopiques d'espace et de temps apparaissent comme des propriétés intégrales des structures discrètes ou à partir de procédures plus complexes, comme l'émergence de l'espace-temps à partir des « spin foams » 2).

JPB. Dans l'immédiat, comment envisagez vous la suite de vos travaux?

TB. Je travaille essentiellement sur trois fronts. Tout d'abord, je cherche à améliorer avec mes étudiants le formalisme de la moyenne, ce qui est une tâche passionnante où l'on prend des éléments de théorèmes mathématiques de la géométrie de Riemann et de la topologie.

Deuxièmement, nous améliorons dans plusieurs collaborations nos modèles et les prévisions qui peuvent être mesurées dans les futurs catalogues de galaxies en utilisant des statistiques de la géométrie intégrale qui sont liées aux moyennes.

Troisièmement, nous concevons des éléments de base pour améliorer les techniques de simulation numérique où l'on a commencé à passer de la simulation newtonienne traditionnelle aux simulations au sein de la relativité générale.
Sur ce sujet voyez le commentaire:
http://physics.aps.org/synopsis-for/10.1103/PhysRevLett.116.251301

JPB. Je vous remercie

Notes ajoutées par JPB.

1. La revue Newscientist datée du 30 juillet 2016, p. 19, explique ainsi que faute de résultats, les expériences visant à identifier ne fut-ce que quelques unes de ces WIMPs devraient être prochainement abandonnées. D'autres hypothèses, évoquant des particules exotiques dites axions, ou même l'effet de mini-trous noirs, ne devraient pas davantage être poursuivies faute d'expériences probantes permettant de les mettre en évidence.

2) Sur les spin foams voyez https://en.wikipedia.org/wiki/Spin_foam ).

Articles précédents

* L'effet des inhomogénéités sur l'univers global
http://www.admiroutes.asso.fr/larevue/2016/170/buchert.htm

* Carlo Rovelli
http://www.admiroutes.asso.fr/larevue/2015/154/rovelli.htm

28 juin 2016 2 28 /06 /juin /2016 09:22

Cet article complète et remplace le précédent sous le même titre


Jean-Paul Baquiast 23/06/2016

Thomas Buchert est professeur de cosmologie à l'Université Lyon 1 et travaille au Centre .de Recherche Astrophysique de Lyon, dépendant de l'Ecole Normale Supérieure de Lyon. Il a déjà publié, seul ou avec des collègues, un nombre remarquable d'articles concernant les grandes discussions actuelles en astrophysique. On en trouve les références sur son site (voir ci-dessous)

Thomas Buchert est professeur de cosmologie à l'Université Lyon 1 et travaille au Centre .de Recherche Astrophysique de Lyon, dépendant de l'Ecole Normale Supérieure de Lyon. Il a déjà publié, seul ou avec des collègues, un nombre remarquable d'articles concernant les grandes discussions actuelles en astrophysique. On en trouve les références sur son site (voir ci-dessous)Thomas Buchert est professeur de cosmologie à l'Université Lyon 1 et travaille au Centre .de Recherche Astrophysique de Lyon, dépendant de l'Ecole Normale Supérieure de Lyon. Il a déjà publié, seul ou avec des collègues, un nombre remarquable d'articles concernant les grandes discussions actuelles en astrophysique. On en trouve les références sur son site (voir ci-dessous)

Depuis quelques années, il a abordé un problème de plus en plus à l'ordre du jour en cosmologie. On pourrait le résumer de la façon suivante. Si l'on considère, en application du Principe dit Cosmologique, que l'Univers est identique à lui-même, quelque soit le point et l'époque de l'observation, les observations astrophysiques récentes ne permettent pas d'expliquer d'une part la force de la gravité permettant d'assurer la cohésion des galaxies et d'autre part la vitesse d'expansion de l'univers, laquelle se serait brutalement accélérée il y a environ 5 milliards d'années.

La force de gravité résultant des équations de la Relativité générale d'Einstein devrait être uniforme en quelque temps et en quelque lieu que ce soit dans l'univers. Or il est aujourd'hui constaté que cette force, telle qu'elle avait été évaluée dans les modèles d'univers précédents, serait insuffisante pour maintenir les systèmes cosmologiques (galaxies, amas de galaxies et même systèmes solaires) dans la forme que l'on observe. Dans ces systèmes, la force centrifuge résultant de leur rotation aurait du depuis longtemps provoqué leur dispersion. Pour expliquer que ce ne soit pas le cas, les théoriciens ont imaginé l'existence d'une matière noire, invisible avec nos instruments, présentes au sein des galaxies et constituées de particules qui n'ont pas encore été découvertes. Celles-ci, additionnées aux particules de la matière ordinaire, constitueraient une masse suffisante pour d'opposer aux effets centrifuges de la rotation.

Il devrait être de même de la vitesse d'expansion de l'univers, constatée quelques instants après le Big Bang dans l'hypothèse de l'inflation cosmologique et qui devrait en principe ralentir progressivement. Or l'on constate que l'expansion, loin de ralentir, s'est depuis accélérée, pouvant conduire d'ailleurs à un univers de plus en plus dispersé et de moins en mois dense. Mais là encore il faudrait découvrir l'énergie qui à l'échelle de l'univers, serait responsable de cette expansion accélérée. Comme les modèles explicatifs actuels ne permettent pas de le faire, la force en question a été nommée énergie noire.

Dans des articles précédents, nous avons évoqué ces deux hypothèses, matière noire et énergie noire, tout en constatant que les cosmologistes s'accommodent faute de mieux du vide explicatif mettant en défaut la force de gravité. On pourrait penser que tous les efforts de la cosmologie, théorique et observationnelle, devraient être appliqués pour résoudre ce double mystère, mais à l'impossible nul n'est tenu. Le mystère demeure.

La théorie d'Einstein

Rappelons en simplifiant beaucoup, que la théorie d'Einstein avait développé l'idée, depuis abondamment vérifiée, que la masse courbe l'espace environnant. Dans un univers où les masses se sont de moins en moins uniformément réparties, comme le montrent les observations du fond diffus cosmologique ou fond diffus micro-ondes, les dernières en date venant d'être produites par le satellite Planck, on peut imaginer que des gravités différentes, résultant de masses et de courbures d'espace différentes, se seraient progressivement installées.

Dans de tels « sous-espaces », si l'on peut se permettre le terme, les forces de gravité seraient de plus en plus fortes selon la concentration des masses. Point ne serait alors besoin d'imaginer une matière noire assurant la cohésion des galaxies et amas de galaxies. La gravité modifiée y régnant du fait de leur masse globale serait suffisante. De même, les vides de masse s'étant en parallèle formés progressivement ne permettraient plus en leur sein la convergence des rayons lumineux. Dans ce cas, des courbures négatives pourraient être observéés, à l'opposé des courbures positives ou nulles attribuées à un univers où les rayons convergeraient ou resteraient parallèles. A l'observation, au moins dans les vides, l'univers pourrait paraître plus grand qu'il ne l'est, ou qu'il se dilate à plus grande vitesse que prévu initialement.. Point ne serait besoin dans ce cas d'imaginer une énergie noire responsable de cette expansion.

La question qui reste posée, dans ces deux cas, concerne le poids relatif de cette gravité modifiée au niveau global de l'univers ou des structures que celui-ci contient. S'agirait-il d'effets finalement marginaux ne permettant pas d'expliquer la matière noire et l'énergie noire, ou au contraire d'effets résultant de ce que l'on pourrait appeler une nouvelle lois fondamentale de l'univers, s'ajoutant à toutes les autres? Par ailleurs, pourquoi l'expansion se serait-elle accélérée il y a 5 milliards d'années?

Les backréactionnistes

Les physiciens défendant l'hypothèse des effets marginaux sont encore en majorité. Ils se nomment en s'inspirant des termes anglais des antibackréactionistes. Autrement dit, ils refusent que les modifications de gravité envisagées puissent avoir des effets en retour (backreaction) suffisants pour expliquer les effets attribués à la matière noire et l'énergie noire. On cite parmi eux Stephen Green et Robert Wald qui ont présenté entre 2011 et 2014 des modèles mathématiques visant à le prouver. Mais de telles mathématiques sont discutables et demanderaient des moyens computationnels considérables pour les développer. Par ailleurs la mathématique de Green et Wald n'est simplement pas générale dans le sens que les effets de backreaction importants ne sont pas pris en compte. Ces articles avancent selon les backréactionnistes (voir § ci-dessous) des conjectures fortes mais sans preuve pertinente.

D'autres cosmologistes, à l'audience croissante, considérent comme erronée l'hypothèse de la matière noire et de l'énergie noire.. Ils observent que les effets en retour de modification de la gravité découlant des inhomogénéités de l'univers (backreaction) sont de plus en plus crédibles. Ils se nomment eux-mêmes des « backreactionnistes ». Parmi ceux-ci, l'un des plus éloquent est le Pr. Thomas Buchert précité. Il a présenté avec des collègues plusieurs articles dont le plus récent date de 2015. Il y indique que l'effet des inhomogénéités de l'univers pourraient produire des réactions en retour capables de générer qualitativement les effets attribués aux prétendues matière noire et énergie noire (voir sources citées ci-dessous). Les travaux sont en cours pour quantifier cet effet.

Pour être plus précis, selon lui, la théorie d'Einstein prédit une géométrie inhomogène pour une distribution de masses inhomogène. Le modèle cosmologique standard, pour sa part, décrit les inhomogénéities des sources, mais néglige les inhomogénéités dans la géométrie. Ce que proposent Thomas Buchert et ses collègues est d'en revenir à la théorie d'Einstein. Il ne s'agit pas d'une modification de la loi de gravitation. Ceci n'est pas toujours bien compris. L'approche de la backréaction est de prendre au sérieux la géométrie inhomogène dans la théorie d'Einstein, sans changement de la théorie et sans postulats de sources fondamentales.

Sur l'accélération de l'expansion il y a 5 milliards d'années, les backréactionnistes répondent que cette date correspond au moment où les structures se sont formées, donc, comme les structures ont un impact global sur l'expansion de l'Univers, le point est naturellement expliqué.

Antibackréactionnistes et backreactionnistes attendent la réalisation de modèles mathématiques d'univers suffisamment fins pour intégrer les effets des inhomogénéités observées dans les observations satellitaires actuelles du fond diffus micro-ondes ou pouvant provenir d'observations futures. Les travaux en ce sens sontengagés, mais ne permettent pas encore de départager les antibackréactionnistes et leurs adversaires backréactionnistes. Il est possible cependant que dans les mois ou les années qui viennent, les backréactonnistes comme Thomas Buchert se voient confortés dans leurs hypothèses. Les concepts mystérieux de matière noire et d'énergie noire disparaitraient alors, ce qui serait satisfaisant au regard d'une certaine rationalité scientifique. Mais il faudrait expliquer alors en détail les causes et les formes des effets constatés et attribués à la matière et énergie noires.

La cosmologie, comme nous l'avions remarqué dans d'autres articles, n'est pas prête à renoncer au recrutement de jeunes cosmologistes. L'emploi y est assuré, sinon les postes budgétaires correspondants. plus.com/2016/01/20/the-universe-is-inhomogeneous-does-it-matter/

Sources

* https://arxiv.org/abs/1505.07800
Is there proof that backreaction of inhomogeneities is irrelevant in cosmology?

T. Buchert, M. Carfora, G.F.R. Ellis, E.W. Kolb, M.A.H. MacCallum, J.J. Ostrowski, S. Räsänen, B.F. Roukema, L. Andersson, A.A. Coley, D.L. Wiltshire

No. In a number of papers Green and Wald argue that the standard FLRW model approximates our Universe extremely well on all scales, except close to strong field astrophysical objects. In particular, they argue that the effect of inhomogeneities on average properties of the Universe (backreaction) is irrelevant. We show that this latter claim is not valid. Specifically, we demonstrate, referring to their recent review paper, that (i) their two-dimensional example used to illustrate the fitting problem differs from the actual problem in important respects, and it assumes what is to be proven; (ii) the proof of the trace-free property of backreaction is unphysical and the theorem about it fails to be a mathematically general statement; (iii) the scheme that underlies the trace-free theorem does not involve averaging and therefore does not capture crucial non-local effects; (iv) their arguments are to a large extent coordinate-dependent, and (v) many of their criticisms of backreaction frameworks do not apply to the published definitions of these frameworks. It is therefore incorrect to infer that Green and Wald have proven a general result that addresses the essential physical questions of backreaction in cosmology.

* Autres sources provenant de Thomas Buchert
http://cdsads.u-strasbg.fr/cgi-bin/nph-bib_query?bibcode=2005CQGra..22L.113B&db_key=PHY&data_type=HTML&format=&high
=4116395
1fb16303

A system of effective Einstein equations for spatially averaged scalar variables of inhomogeneous cosmological models can be solved by providing a 'cosmic equation of state'. Recent efforts to explain dark energy focus on 'backreaction effects' of inhomogeneities on the effective evolution of cosmological parameters in our Hubble volume, avoiding a cosmological constant in the equation of state. In this letter, it is argued that if kinematical backreaction effects are indeed of the order of the averaged density (or larger as needed for an accelerating domain of the universe), then the state of our regional Hubble volume would have to be in the vicinity of a far-from-equilibrium state that balances kinematical backreaction and average density. This property, if interpreted globally, is shared by a stationary cosmos with effective equation of state {\bf p}_{\bf \rm eff} = -1/3 {\boldsymbol \varrho}_{\bf \rm eff} . It is concluded that a confirmed explanation of dark energy by kinematical backreaction may imply a paradigmatic change of cosmology.

Aussi http://cdsads.u-strasbg.fr/abs/2008GReGr..40..467B

Références

*Thomas Buchert http://www.galpac.net/members/buchert_fr.html
* Pages cosmologie http://www.cosmunix.de/
*Articles sur arxiv http://arxiv.org/a/buchert_t_1.html

* Pour l'article contre Green et Wald il existe un commentaire "insight" sur CQG+:
https://cqgplus.com/2016/01/20/the-universe-is-inhomogeneous-does-it-matter/

* Principe cosmologique Wikipedia https://fr.wikipedia.org/wiki/Principe_cosmologique
* Inflation cosmique Wikipedia https://fr.wikipedia.org/wiki/Inflation_cosmique
* Inhomogénéité Wikipedia https://en.wikipedia.org/wiki/Inhomogeneous_cosmology

Pour approfondir

Nous avons soumis à Thomas Buchert une question plus technique avant de terminer la rédaction de l'article. Il a eu l'amabilité de nous répondre immédiatement. On trouve ci-dessous la question et ses réponses. La question est découpée ici en plusieurs paragraphes. Evidemment, bien d'autres questions pourraient être posées, et recevoir bien d'autres réponses.

* Question.
L'on comprend bien, en suivant les backréationnistes, que les observateurs que nous sommes se situent globalement dans une ère d'expansion accélérée de l'univers au sein de laquelle les vides commencent à dominer, ce qui force la courbure de l'espace à devenir négative. D'où les observations que nous pouvons faire concernant les supernovas (Riess et al.) qui nous paraissent s'éloigner de nous plus vite qu'elles ne le paraitraient dans un univers à courbure 0 ou positive.

Réponse.
Exact

* Suite de la question
Mais dans le même temps, nous sommes situés dans une galaxie (ou à ses bords) soumise à une forte attraction gravitationnelle centripète, qui d'ailleurs sauf erreur devrait être de plus en plus sensible au fur et à mesure que l'on se rapproche du centre (le trou noir central ?).

Réponse
Sur les petites échelles il y a deux joueurs en compétition: la masse attirante (réelle) et la matière noire pour le modèle standard. Avec la backreaction, ce dernier peut être pensé comme un effet de courbure positive, mais ensuite la backreaction contient plusieurs composantes avec des signes différents :
1. La dispersion de vitesse qui stabilise les structures. Elle a les deux possibilités. en effondrement elle joue contre la gravitation, en expansion avec.
2. La vorticité de vitesse qui joue contre la gravitation. NDLR. Le mot est très généralement associé au vecteur tourbillon porté par l'axe de rotation qui se calcule comme le rotationnel de la vitesse et a une intensité double de celle du vecteur rotation.
3. La pression qui peut aussi stabiliser la partie baryonique de la matière (protons, neutrons) , comme en 1.
4. Ensuite selon la backreaction "classique": la variance de l'expansion joue contre la gravitation et le cisaillement joue avec.
Tout ces termes sont couplés à la courbure. Donc, on ne peut pas dire sans modélisation p
récise ce qui se passe autour du centre.

* Suite de la question
On ne comprend pas comment dans ces conditions nous subirions deux effets contraires en même temps. Nous ne devrions ressentir que l'effet résultant de leur moyenne, et non tantôt l'un et tantôt l'autre selon l'objet d'observation que nous choisissons. Autrement dit, étant situé dans un espace fortement massif et courbé, nous ne pourrions pas faire les mêmes observations que nous ferions si nous étions au sein ou au bord d'un vide.

Réponse.
Oui. Mais il faut savoir sur quelle échelle on observe. Autour de la galaxie le redshift est pratiquement zero, mais dans un catalogue de galaxies on trouve des intervalles de redshift bien au-delà d'une échelle de 400 Mpc (un vide est entre 20 et 400 Mpc). Donc, on observe sur des distances grandes. L'effet local autour d'une galaxie ne compte pas pour une observation à très grande échelle. Les supernovae sont elles aussi observées dans des autres galaxies bien lointaine afin de juger sur l'accélération.

* Suite de la question
Là où nous situons, les rayons provenant d'une supernova devraient donc sauf erreur nous paraître convergents et non divergents....même si leur convergence apparente était « en réalité » diminuée par la divergence due au vide tenant la courbure négative de l'espace global. On comprends bien, en suivant les backréationnistes, que les observateurs que nous sommes se situent globalement dans une ère d'expansion accélérée de l'univers dans laquelle les vides commencent à dominer, ce qui force la courbure de l'espace à devenir négative. D'où les observations que nous pouvons faire concernant les supernovas qui nous paraissent s'éloigner de nous plus vite qu'elles ne le paraitraient dans un univers à courbure 0 ou positive.

Réponse.
Je pense qu'il faudrait faire une différence entre d'une part un modèle qui modélise bien la distribution de courbure et l'effet sur les équations cosmologiques aux différentes échelles, et d'autre part les rayons de lumière dans une métrique associée. Les rayons doivent être modélisés avec ce qu'on appelle "ray-tracing". La littérature sur ce sujet est dans son enfance; la plupart de la littérature prend toujours un modèle standard avec géométrie homogène. Les gens ont juste commencé de le faire dans un modèle inhomogène. Mais, là aussi il faut penser que la lumière prend longtemps pour passer d'une région avec courbure négative avant d'arriver chez nous. La distance lumineuse ne sera pas trop affectée par une autre courbure locale juste avant l'arrivée. C'est la distance lumineuse qui compte, pas l'angle de l'arrivée.

23 juin 2016 4 23 /06 /juin /2016 18:33


Jean-Paul Baquiast 23/06/2016

Thomas Buchert est professeur d'astrophysique au Centre de Recherche Astrophysique de Lyon, dépendant de l'Ecole Normale Supérieure de Lyon. Il a déjà publié, seul ou avec des collègues, un nombre remarquable d'articles concernant les grandes discussions actuelles en astrophysique. On en trouve les références sur son site (voir ci-dessous)

Depuis quelques années, il a abordé un problème de plus en plus à l'ordre du jour en cosmologie. On pourrait le résumer de la façon suivante. Si l'on considère, en application du Principe dit Cosmologique, que l'Univers est identique à lui-même, quelque soit le point et l'époque de l'observation, les observations astrophysiques récentes ne permettent pas d'expliquer d'une part la force de la gravité permettant d'assurer la cohésion des galaxies et d'autre part la vitesse d'expansion de l'univers, laquelle se serait brutalement accélérée il y a environ 5 milliards d'années.

La force de gravité résultant des équations de la Relativité générale d'Einstein devrait être uniforme en quelque temps et en quelque lieu que ce soit dans l'univers. Or il est aujourd'hui constaté que cette force, telle qu'elle avait été évaluée dans les modèles d'univers précédents, serait insuffisante pour maintenir les systèmes cosmologiques (galaxies, amas de galaxies et même systèmes solaires) dans la forme que l'on observe. Dans ces systèmes, la force centrifuge résultant de leur rotation aurait du depuis longtemps provoqué leur dispersion. Pour expliquer que ce ne soit pas le cas, les théoriciens ont imaginé l'existence d'une matière noire, invisible avec nos instruments, présentes au sein des galaxies et constituées de particules qui n'ont pas encore été découvertes. Celles-ci, additionnées aux particules de la matière ordinaire, constitueraient une masse suffisante pour d'opposer aux effets centrifuges de la rotation.

Il devrait être de même de la vitesse d'expansion de l'univers, constatée quelques instants après le Big Bang dans l'hypothèse de l'inflation cosmologique et qui devrait en principe ralentir progressivement. Or l'on constate que l'expansion, loin de ralentir, s'est depuis accélérée, pouvant conduire d'ailleurs à un univers de plus en plus dispersé et de moins en mois dense, au contraire de l'hypothèse dite du Big Crunch. Mais là encore il faudrait découvrir l'énergie qui à l'échelle de l'univers, serait responsable de cette expansion accélérée. Comme les modèles explicatifs actuels ne permettent pas de le faire, la force en question a été nommée énergie noire.

Dans des articles précédents, nous avons évoqué ces deux hypothèses, matière noire et énergie noire, tout en constatant que les cosmologistes s'accommodent faute de mieux du vide explicatif mettant en défaut la force de gravité. On pourrait penser que tous les efforts de la cosmologie, théorique et observationnelle, devraient être appliqués pour résoudre ce double mystère, mais à l'impossible nul n'est tenu. Le mystère demeure.

La MOND

Il existe cependant depuis quelques années des hypothèses selon lesquelles la force de gravité, contrairement à ce qu'implique le principe cosmologique, ne serait pas uniforme dans l'univers. On parle souvent de MOND ou Modified Newtonian dynamics. Nous avons mentionné précédemment un certain nombre d'articles et même d'ouvrages développant cette hypothèse et ses conséquences. En résumant beaucoup, la MOND exploite l'idée présentée par Einstein et depuis abondamment vérifié, que la masse courbe l'espace environnant. Dans un univers où les masses se sont de moins en moins uniformément réparties, comme le montrent les observations du fond diffus cosmologique ou fond diffus micro-ondes, les dernières en date venant d'être produites par le satellite Planck, on peut imaginer que des gravités différentes, résultant de masses et de courbures d'espace différentes, se seraient progressivement installées.

Dans de tels « sous-espaces », si l'on peut se permettre le terme, les forces de gravité seraient de plus en plus fortes selon la concentration des masses. Point ne serait alors besoin d'imaginer une matière noire assurant la cohésion des galaxies et amas de galaxies. La gravité modifiée y régnant du fait de leur masse globale serait suffisante. De même, les vides de masse s'étant en parallèle formés progressivement ne permettraient plus en leur sein la convergence des rayons lumineux. Dans ce cas, des courbures négatives pourraient être observéés, à l'opposé des courbures positives ou nulles attribuées à un univers où les rayons convergeraient ou resteraient parallèles. A l'observation, au moins dans les vides, l'univers pourrait paraître plus grand qu'il ne l'est. Point ne serait besoin dans ce cas d'imaginer une énergie noire responsable de cette expansion.

La question qui reste posée, dans ces deux cas, concerne le poids relatif de cette gravité modifiée au niveau global de l'univers ou des structures que celui-ci contient. S'agirait-il d'effets finalement marginaux ne permettant pas d'expliquer la matière noire et l'énergie noire, ou au contraire d'effets résultant de ce que l'on pourrait appeler une nouvelle lois fondamentale de l'univers, s'ajoutant à toutes les autres? Par ailleurs, pourquoi l'expansion se serait-elle accélérée il y a 5 milliards d'années?

Les backréactionnistes

Les physiciens défendant l'hypothèse des effets marginaux sont encore en majorité. Ils se nomment en s'inspirant des termes anglais des antibackréactionistes. Autrement dit, ils refusent que les modifications de gravité envisagées dans les hypothèse de la MOND puissent avoir des effets en retour (backreaction) suffisants pour expliquer la matière noire et l'énergie noire. On cite parmi eux Stephen Green et Robert Wald qui ont présenté en 2004 des modèles mathématiques visant à le prouver. Mais de telles mathématiques sont discutables et demanderaient des moyens computationnels considérables pour les développer.

D'autres cosmologistes, considérant comme erronée l'hypothèse de la matière noire et de l'énergie noire, observent que les effets en retour de modification de la gravité découlant des inhomogénéités de l'univers (backreaction) commencent à se faire de plus en plus entendre. Ils se nomment eux-mêmes des « backreactionnistes ». Parmi ceux-ci, l'un des plus éloquent est le Pr. Thomas Buchert précité. Il a présenté avec des collègues plusieurs articles dont le plus récent date de 2015. Il y affirme que l'effet des inhomogénéités de l'univers peuvent produire des réactions en retour suffisantes pour produire les effets attribués aux prétendues matière noire et énergie noire.

Les uns et les autres attendent la réalisation de modèles mathématiques d'univers suffisamment fins pour intégrer les effets des inhomogénéités observées dans les observations satellitaires actuelles du fond diffus micro-ondes ou pouvant provenir d'observations futures. Les travaux en ce sens sont en cours, mais ne permettent pas encore de départager les antibackréactionnistes et leurs adversaires backréactionnistes. Il n'est pas impossible cependant que dans les mois ou les années qui viennent, les backréactonnistes comme Thomas Buchert se voient confortés dans leurs hypothèses. Les concepts mystérieux de matière noire et d'énergie noire disparaitraient alors, ce qui serait satisfaisant au regard d'une certaine rationalité scientifique. Mais il faudrait expliquer alors en détail les causes et les formes des modifications de gravité envisagées.

Sources

* https://arxiv.org/abs/1505.07800
Is there proof that backreaction of inhomogeneities is irrelevant in cosmology?

T. Buchert, M. Carfora, G.F.R. Ellis, E.W. Kolb, M.A.H. MacCallum, J.J. Ostrowski, S. Räsänen, B.F. Roukema, L. Andersson, A.A. Coley, D.L. Wiltshire

No. In a number of papers Green and Wald argue that the standard FLRW model approximates our Universe extremely well on all scales, except close to strong field astrophysical objects. In particular, they argue that the effect of inhomogeneities on average properties of the Universe (backreaction) is irrelevant. We show that this latter claim is not valid. Specifically, we demonstrate, referring to their recent review paper, that (i) their two-dimensional example used to illustrate the fitting problem differs from the actual problem in important respects, and it assumes what is to be proven; (ii) the proof of the trace-free property of backreaction is unphysical and the theorem about it fails to be a mathematically general statement; (iii) the scheme that underlies the trace-free theorem does not involve averaging and therefore does not capture crucial non-local effects; (iv) their arguments are to a large extent coordinate-dependent, and (v) many of their criticisms of backreaction frameworks do not apply to the published definitions of these frameworks. It is therefore incorrect to infer that Green and Wald have proven a general result that addresses the essential physical questions of backreaction in cosmology.

* Autres sources provenant de Thomas Buchert
http://cdsads.u-strasbg.fr/cgi-bin/nph-bib_query?bibcode=2005CQGra..22L.113B&db_key=PHY&data_type=HTML&format=&high
=41163951fb163
03

A system of effective Einstein equations for spatially averaged scalar variables of inhomogeneous cosmological models can be solved by providing a 'cosmic equation of state'. Recent efforts to explain dark energy focus on 'backreaction effects' of inhomogeneities on the effective evolution of cosmological parameters in our Hubble volume, avoiding a cosmological constant in the equation of state. In this letter, it is argued that if kinematical backreaction effects are indeed of the order of the averaged density (or larger as needed for an accelerating domain of the universe), then the state of our regional Hubble volume would have to be in the vicinity of a far-from-equilibrium state that balances kinematical backreaction and average density. This property, if interpreted globally, is shared by a stationary cosmos with effective equation of state {\bf p}_{\bf \rm eff} = -1/3 {\boldsymbol \varrho}_{\bf \rm eff} . It is concluded that a confirmed explanation of dark energy by kinematical backreaction may imply a paradigmatic change of cosmology.

Références

*Thomas Buchert http://www.galpac.net/members/buchert_fr.html
* Pages cosmologie http://www.cosmunix.de/
*Articles sur arxiv http://arxiv.org/a/buchert_t_1.html

* Principe cosmologique Wikipedia https://fr.wikipedia.org/wiki/Principe_cosmologique
* Inflation cosmique Wikipedia https://fr.wikipedia.org/wiki/Inflation_cosmique
* MOND Wikipedia https://fr.wikipedia.org/wiki/Th%C3%A9orie_MOND

27 mai 2016 5 27 /05 /mai /2016 22:06

Jean-Paul Baquiast 27/05/2016

Dans un article du NewScientist, daté du 21 mai 2016, intitulé Time to decide 1), le physicien quantique suisse Nicolas Gisin 2), pionnier de la téléportation des états quantique et de l'une de ses applications, la cryptographie quantique, explique pourquoi il ne peut admettre les arguments de la science déterministe selon lesquels le libre arbitre n'est qu'une illusion.

Sa conviction ne découle pas d'hypothèses religieuses selon lesquelles le libre-arbitre aurait été conféré à l'homme du fait que celui-ci ait été fait à l'image de Dieu, dont aucune loi ne peut enchainer la totale liberté de créer ou ne pas créer. Elle peut par contre les rejoindre. Il raisonne sur le libre-arbitre en termes strictement scientifiques. Reprenons ici son argumentation, en la ponctuant de quelques commentaires personnels.

Toute la physique macroscopique moderne, depuis Descartes, Newton et Einstein, repose sur l'assomption que l'univers est déterministe. Par extension, dans le cas de sciences comme la biologie ou la neurologie qui ont souvent peine à faire apparaître des lois déterministes, le déterminisme postule que de telles lois existent, y compris sous la forme d'un chaos déterministe ne permettant pas à notre esprit de faire apparaître ces lois, en l'état actuel de nos connaissances 3).

Aussi bien les cosmologistes pensent pouvoir prédire l'avenir de l'univers avec une certaine dose de certitude, puisque les lois fondamentales de l'univers seraient déterministes. Pour les déterministes, l'impression de libre-arbitre serait une illusion, dont il conviendrait de se débarasser pour faire de la bonne science.

Il en résulte que pour eux le temps serait une illusion. Les mêmes causes entraineraient les mêmes effets, même si le cours de ce que nous appelons le temps se trouvait inversé. Ainsi prise à l'envers, l'histoire de l'univers nous ramènerait inévitablement au point initial du big bang, supposé être à l'origine de ce même univers.

Pour les déterministes, l'humanité aurait été programmée pour faire des choix qui correspondent à un environnement déterministe. Si cela n'avait pas été, si l'humanité avait eu la liberté de considérer comme vraie telle ou telle hypothèse en fonction de son humeur du moment, elle aurait depuis longtemps disparu, incapable de s'adapter à un monde déterministe. Elle peut s'imaginer qu'elle peut librement choisir telle ou telle solution, en fonction de son libre arbitre, mais c'est une illusion.

Décider de la "vérité" d'une hypothèse

Face à ces arguments, Nicolas Gisin fait valoir que de nombreux scientifiques, parfaitement respectables, affirment que la démarche scientifique n'aurait pas de sens sans le libre-arbitre, c'est-à-dire au cas où nous n'aurions aucun pouvoir de décider si une hypothèse est « vraie » ou non. Nous serions obligé de la tenir pour vraie, partant de l'idée qu'un déterminisme sous-jacent doit nous imposer de ne pas nous poser la question. Nous serions seulement libres - et encore - de chercher à mieux connaitre ce déterminisme.

Au cas où nous découvririons à l'expérience que l'hypothèse tenue pour vraie se révélait fausse - ce qui arrive très souvent, évidemment - nous devrions nous borner à reconnaitre que nous avions par erreur attribué au déterminisme ce qui ne relevait que d'une erreur d'observation. Autrement dit, que notre idée de la loi déterministe invoquée était fausse. Nous serions obligés de tenir compte de cette nouvelle expérience, en imputant à la faillibilité de la science le fait que nous ayons pu précédemment considérer que cette hypothèse était vraie au regard d'un déterminisme sous-jacent.

Pour ces scientifiques qui refusent d'admettre qu'il n'ont pas de liberté de choix, soit pour retenir telle hypothèse aux dépens d'une autre, soit pour rechercher de nouvelles hypothèses si aucune de celles existantes ne parait conforme aux expériences, c'est bien ce que montre l'histoire de la science. Si dès les origines de la démarche scientifique, au siècle des Lumières, les philosophes avaient considéré que tout était déjà écrit ou que tout était déjà déterminé, les révolutions scientiques à venir n'auraient jamais eu lieu.

Or c'est le contraire que montre l'histoire de la science. Sans même faire appel à la mécanique quantique qui postule l'intervention de la volonté pour résoudre l'équation de Schrödinger dont l'inconnue est une fonction, la fonction d'onde ( ce que l'on nomme le problème de l'observation), Gisin s'appuie sur un exemple d'indétermination peu souvent évoqué, tenant aux nombres indispensables à toute hypothèse scintifique. Les sciences s'appuient sur l'utilisation de nombres que Descartes avait nommé des nombres réels, opposés aux nombres qu'il avait nommé « imaginaires ». Les nombres imaginaires sont considérés comme ne correspondant à aucune réalité, compte tenu de la façon dont ils sont calculés, par exemple en faisant appel à la racine carré d'un nombre négatif. Ce n'est pas le cas des nombres réels.

Cependant les nombres réels peuvent eux-mêmes être indéterminés. La plupart d'entre eux, décomposés en leurs éléments, font appel à des séries de chiffres se poursuivant jusqu'à l'infini. De plus, ces derniers, en bout de chaine, n'apparaissent qu'au hasard, sans qu'aucune loi déterministe de permette de prédire leur apparition. Seule une décision volontaire permet de ne prendre en considération que les premiers chiffres de la série.

Le libre-arbitre, loi fondamentale de l'univers ?

Les systèmes relevant de la théorie du chaos au sens strict, c'est-à-dire d'un chaos qui n'a rien de déterministe, sont partout dans la nature. C'est le cas notamment de tout ce qui concerne la vie et son évolution - sans mentionner les systèmes quantiques déjà évoqués. L'indétermination est partout, jusqu'au moment où elle est déterminée par les choix eux-mêmes non déterminés a priori faits par les êtres vivants.

Ceci dit, observons pour notre compte que l'indétermination et plus encore le libre-arbitre, sont de simples concepts que la science se refuserait encore aujourd'hui à définir. Elle ne les identifie que par leurs effets visibles. Ne faudrait-il pas aller plus loin? Que signifie la liberté de choix pour les êtres vivants. Certainement pas la liberté d'aller où que ce soit dans l'espace.

Il faudrait se borner à considérer que le libre-arbitre est une propriété fondamentale des êtres vivants, leur permettant de résoudre à leur avantage les indéterminismes profonds du monde? Ceci se ferait au niveau quantique, par la résolution incessante des fonctions d'onde auxquelles se trouvent confrontés ces êtres vivants. Mais ceci, d'une façon plus évidente, se produirait en permanence dans le monde physique. Par le libre-arbitre, les êtres vivants, fussent-ils considérés comme primitifs, et donc entièrement déterminés, choisiraient librement les conditions de la nature les plus convenables à leur survie et leurs développements. Ainsi de proche en proche, ils se construiraient un monde déterminé dans lequel ils évolueraient en faisant simultanément évoluer ce monde.

Le libre-arbitre ne permettrait donc pas d'inventer des mondes entièrement nouveaux. Il se bornerait à rendre actuelles des possibilités préexistantes, en les « choisissant ». On retrouve là, au niveau de la physique macroscopique, l'interprétation dite de Copenhague, popularisée par Werner Heisenberg. L'observation, dans la théorie dite de la mesure, « résout » la fonction d'onde du système quantique en l'obligeant à choisir entre un certain nombre de possibilités en principe préexistantes.

Or, écrit Nicolas Gisin à la fin de son article, le concept de temps n'est pas exclu de ce processus. Le résultat d'un événement quantique, tel que la mesure d'un système donné, non déterminé à l'avance, se situe dans un temps différent de celui où ce résultat est acquis, avec toutes les conséquences en découlant. Il s'agit d'une création authentique, apparue dans un temps non réversible, qui ne pouvait être connue à l'avance en faisant appel à une équation déterministe.

Nicolas Gisin a nommé ce temps un « temps créateur » , creative time. La science ne comprend pas bien aujourd'hui ce concept, mais la théorie de la gravitation quantique pourrait changer les choses. Elle obligera à une synthèse entre la théorie einstenienne de la gravité, entièrement déterministe, et le hasard introduit par l'observateur d'un système quantique.

Si l'on accepte cette hypothèse, il faudra en revenir à la question que nous avons précédemment posée. Faudrait-il admettre que le libre-arbitre, à quelque niveau qu'il s'exprime, serait dans la nature même de l'univers, ou du multivers si l'on retient cette dernière hypothèse. En ce cas, dans un univers supposé être évolutif, quelle serait l'essence profonde du phénomène ou, si l'on préfère, comment serait-il apparu? Et se poursuivra-t-il lorsque l'univers que nous connaissons aura disparu?

Notes

1) https://www.newscientist.com/article/mg23030740-400-physics-killed-free-will-and-times-flow-we-need-them-back/

Voir aussi, de Nicolas Gisin, Time Really Passes, Science Can't Deny That http://arxiv.org/abs/1602.01497

2) Sur Nicolas Gisin, voir https://fr.wikipedia.org/wiki/Nicolas_Gisin

3) Rappelons que l'on nomme chaos déterministe des situations dans lesquelles des différences infimes dans les conditions initiales entraînent des résultats totalement différents pour les systèmes concernés, rendant en général toute prédiction impossible à long terme. Cela est valable même pour des systèmes déterministes, ce qui signifie que leur comportement futur est entièrement déterminé par leurs conditions initiales, sans intervention du hasard.

18 avril 2016 1 18 /04 /avril /2016 20:37


Jean-Paul Baquiast 17/04/2016

Références
* The Tides of Mind: Uncovering the Spectrum of Consciousness
David Gelernter
(W.W. Norton & Company)
L'auteur est "Yale University computer scientist",
https://en.wikipedia.org/wiki/David_Gelernter

* Surfing Uncertainty: Do our dynamic brains predict the world?
Andy Clark
L'auteur est "professor of philosophy and Chair in Logic and Metaphysics at the University of Edinburgh in Scotland.
https://en.wikipedia.org/wiki/Andy_Clark

Deux livres récents fournissent sans s'être apparemment concerté des hypothèses nouvelles, et partiellement concordantes, sur les liens entre le cerveau, les images du monde qu'il construit et la conscience qu'il en prend. Nous les présenterons successivement ici.

1. The Tides of Mind: Uncovering the Spectrum of Consciousness

David Gelernter est professeur de sciences informatiques à l'Université de Yale. Mais son oeuvre et ses lectures l'ont conduit à réfléchir sur le « hard problem » de la conscience. Il s'appuie pour ce faire sur un grand nombres d'ouvrages proprement littéraires, venant notamment d'essayistes et de romanciers provenant de divers pays, dont la France. Le nombre et la fiabilité des citations qu'il fournit dans ce livre pour illustrer ses hypothèses est considérables. Ce qui montre que pour les hommes de culture tel que lui, il n'y a pas de barrière étanche entre les sciences computationnelles et les autres formes de pensée. Au contraire, elle peuvent se féconder respectivement.

Généralement, pour les chercheurs et enseignants en littérature, l'ordinateur ne sert qu'à donner lieu à d'innombrables études statistiques sur la forme et le fond des oeuvres. Pour David Gelernter au contraire, il est possible de trouver dans la littérature des éléments de base pour construire des modèles informatiques précisant le rôle du cerveau en relation avec les formes les plus complexes de la conscience humaine. Il est même possible de s'en servir pour participer à la grande oeuvre de 21 siècle, la construction d'une conscience artificielle émanant d'un cerveau artificielle. Dans cette perspective l'introspection est un outil indispensable.

Il montre clairement dans son livre, en produisant de nombreuses références, que les oeuvres littéraires, celles de Marcel Proust, Franz Kafka, Austen, Charlotte Brontë, Ernest Hemingway et d'autres, fournissent des bases indispensables aux neurosciences s'efforçant de comprendre l'émergence de la conscience à partir du fonctionnement d'un cerveau, lui-même en relation avec un corps plongé dans un milieu bien défini.

Pour ce faire, il est conduit à apporter une attention renouvelée à l'introspection. Celle-ci exprime en permanence à notre esprit la façon dont nous avons, de l'intérieur, conscience de nous-mêmes. Depuis déjà de nombreuses décennies, les scientifiques de la cognition avaient refusé d'attribuer à l'introspection des capacités permettant de comprendre en profondeur la conscience. La raison essentielle en était le « manque d'objectivité » des vues que par l'introspection nous pouvions obtenir de notre cerveau et de son fonctionnement.

Cet ostracisme a conduit à considérer comme négligeables des siècles de philosophie, de littérature et d'arts grâce auxquels nos prédécesseurs se sont au contraire efforcés de se donner des représentations de plus en plus élaborées de la conscience, conscience du monde comme conscience de soi. Toute subjectives qu'aient été les multiples formes de « réalités » décrites par ces créateurs, elles demeurent les meilleures sources permettant d'obtenir, à supposer que ce concept ait un sens scientifique, une représentation d'un réel objectif.

Comme on peut cependant le deviner, David Gelernter n'aborde pas sans une méthode appropriée le monde infiniment complexe des réalités subjectives, notamment telles que décrites par les oeuvres auxquelles il se réfère. Il a construit pour ce faire un outil qu'il nomme un "spectrum of consciousness" que l'on peut traduire par « échelle de degré de conscience », que notre cerveau produit à partir du monde dans lequel il est plongé. Bien évidemment, ce « spectrum », selon lui, ne concerne pas seulement la conscience que nous pouvons avoir du monde extérieur, mais celle qu'à tous moments nous avons de nous-mêmes.

L'introspection notamment critique constitue une réflexion aussi « objective » que possible que nous pouvons exercer à l'égard de nos pensées. Elle en est un élément clef, mais elle n'est pas la seule. Toute perception que nous pouvons avoir de nous-mêmes, par la pensée éveillée ou par le rêve – ceux des rêves du moins dont nous pouvons nous souvenir, contribue à la construction des différents niveaux de conscience constituant l'échelle, le spectre » dans laquelle se répartissent nos multiples états et faits de conscience.

Haute et basse mer

Pour Gelernter, la hiérarchie des divers états mentaux à travers lesquels nous passons chaque jour et de façon permanente, est comparable à un effet de marée, la haute mer revenant périodiquement remplacer la basse mer. De même que (la comparaison est de nous) à haute mer le navire voit s'ouvrir pour lui toutes les possibilités de voyage et de découverte, à basse mer, il s'échoue sur une plage. Mais il n'en demeure pas moins un navire, susceptible de reprendre le large à la haute mer suivante.

Au sommet de la pleine mer, ou du spectre pour reprendre le terme de l'auteur, se trouvent comme nul ne s'en étonnera, les états mentaux par lesquels nous nous absorbons dans le monde extérieur, utilisant pour ce faire la logique, le raisonnement abstrait et pour certains esprits les mathématiques. Grâce à ces outils qui sont le plus souvent le produit de constructions sociales, nous pouvons, non seulement mieux formaliser nos pensées conscientes, mais aussi les communiquer aux autres et construire ainsi une conscience collective du monde.

Mais lorsque dans le cours de la journée et plus particulièrement avant le sommeil, notre mémoire reprend la parole, elle redonne vie à nos valeurs subjectives, nos appréciations personnelles et à différentes formes de pensées non formellement logiques, c'est-à-dire analogiques. Avant le sommeil enfin et durant les rêves, c'est-à-dire aux approches de la marée basse, nous dérivons vers des états de conscience encore moins formalisés en apparence. Mais ceux-ci, comme l'ont montré les psychologues, peuvent nous servir, avec l'aide d'un minimum d'interprétation extérieure, à mieux comprendre notre moi profond. C'est alors que les oeuvres littéraires et plus généralement artistiques nous permettent d'enrichir à l'infini nos références.

D'une façon similaire, en fonction de notre âge, nous nous élevons progressivement vers les états de conscience supérieurs, sans pour autant abandonner tous ceux qui nous ont permis au fil des années et dès l'enfance de construire notre moi conscient.

Le livre très riche de David Gelernter ne se borne pas à développer ces considérations qui pourront paraître un peu banales. Il illustre sa pensée de très nombreux exemples tirés, comme nous l'avons dit, de la littérature mais aussi de l'expérience de tous les jours. Ceux-ci sont fournis par l'étude des sociétés primitives ou contemporaines, l'analyse des expressions du langage (laisser son esprit vagabonder) et même d'observations cliniques ou fournies par la psychanalyse. De plus, le spectre d'analyse qu'il propose peut permettre de nombreuses observations prédictives vérifiables, concernant les comportements normaux individuels et collectifs, ainsi que leurs déviations chez les individus et les foules.

Une autre conséquence plus immédiate de son approche, qui intéressera les neurosciences cognitives, est le rejet du « computationnalisme », c'est-à-dire le point de vue selon lequel l'esprit est au cerveau ce que le software est au hardware, point de vue qui conduit à croire que les cerveaux sont analogues à des calculateurs digitaux. Pour lui au contraire l'esprit est fondamentalement lié, en chaque minute, à l'état de notre corps et à son insertion dans le milieu. Ceci veut dire que les scientifiques voulant vraiment construire des esprits artificiels devront prendre en compte un nombre très grand de facteurs définissant l'état des corps artificiels inséparables de ces esprits. Beaucoup le soupçonnaient. Mais le travail de Gelernter le confirme.

2. Surfing Uncertainty: Do our dynamic brains predict the world?

Le thème de ce nouveau livre de Andy Clark contredit l'image traditionnelle selon laquelle nos cerveaux se forment des représentations du monde à partir des images sensorielles qu'ils peuvent en avoir, c'est-à-dire a postériori. Pour lui au contraire nos cerveaux construisent a priori des représentations internes du monde, qu'ils comparent et corrigent en fonctions des données concernant le monde qu'ils peuvent ultérieurement acquérir. La différence paraitra minime. En fait elle est essentielle. Il est possible selon cette thèse de proposer l'idée que le cerveau construit le monde dans lequel il vit, au lieu d'être construit par ce dernier.

Ainsi Einstein avait remarqué que si Kepler ne s'était pas construit a priori une image elliptique des orbites planétaires, il aurait continué comme ses prédécesseurs à les imaginer sous une forme circulaire et n'aurait jamais cherché de preuves expérimentales permettant de contredire cette hypothèse, laquelle à l'expérience s'est révélée fausse.

Mais comment le cerveau peut-il construire des hypothèses originales, que ce soit dans le domaine scientifique ou dans tout autre domaine de la vie courante? C'est, explique Andy Clark, parce que l'évolution l'a doté du pouvoir prédictif. On objectera qu'en fait, tout organisme vivant, dès qu'il est capable de réagir aux stimulations du milieu, élabore des prédictions relatives à celui-ci, qu'il soumet à la sanction de l'expérience. S'il se trompe, il meurt. Dans ce cas contraire, il améliore son adaptation et donc sa compétitivité. Mais le cerveau supérieur, celui de l'homme en particulier, procède de cette façon à une toute autre échelle. Il consacre à la prédiction une grande partie des 100 milliards de neurones qui composent sa masse corporelle, répartis en hiérarchies organisées de couches cognitives.

Le cerveau, qui reçoit en permanence des millions d'entrées sensorielles, a du donner un sens à ces perception chaotiques, afin notamment d'en éliminer les incertitudes. Ceci s'est fait au cours des âges grâce à la construction de ce que l'auteur nomme la “predictive processing story”, autrement dit l'histoire de l'élaboration du pouvoir prédictif.

Selon la vision traditionnelle, y compris en ce qui concerne l'activité scientifique, le cerveau s'efforce d'identifier des structures ou patterns supposés existant dans la nature en dehors de lui, identification qu'il cherche ensuite à vérifier de façon expérimentale. Ce faisant, il modifie les représentations internes du monde qu'il s'était auparavant données.

L'aptitude au pouvoir prédictif renverse l'ordre des processus. Comme le physicien allemand Hermann von Helmholtz l'avait proposé dès 1860, le cerveau génère des données sensorielles à partir des modèles du monde dont ce même cerveau et le corps s'étaient antérieurement dotés. A partir de cela il élabore de nouvelles hypothèses sur le monde qu'il soumet ensuite à l'expérience, ne gardant finalement que celles correspondant statistiquement, non au monde tel qu'il serait en soi, mais au monde dans lequel vit le cerveau et le corps du sujet. Ceci jusqu'à de nouvelles preuves du contraire.

L'observation a souvent été faite, bien que de façon moins savante, concernant la pratique de la police répressive. Aujourd'hui, aux Etats-Unis, beaucoup de policiers pensent que les Noirs sont dotés d'armes à feu et s'en servent. Il arrive très fréquemment qu'ils croient voir de telles armes dans la main d'un suspect et n'hésitent pas à abattre celui-ci préventivement. Ils se sont trompés mais jusqu'au dernier moment, y compris devant le juge. ils affirment avoir vu une arme. Ils ne sont pas à proprement parler de mauvaise foi. Leur cerveau a effectivement vu une arme, dans le cadre d'une sorte d'hallucination. Heureusement, le plus souvent, les évènements ne se déroulent pas de façon aussi dramatique. Le cerveau vérifie mentalement les prédictions qu'il élabore, avant de passer à l'acte.

Des "prédictavores proactifs "

Pour contrôler la validité de ses prédictions, qui s'élaborent généralement dans les couches supérieures du cortex associatif, le cerveau fait appel aux couches corticales inférieures, qui reçoivent et interprètent les données sensorielles. Pour enrichir ces données, le cerveau se réfèredonc au corps proprement dit, enserré dans le milieu qui est le sien. Comme l'écrit Clark, nous ne sommes pas des pommes de terre attendant passivement les informations que leur fournira le terrain. Nous sommes des « prédictavores proactifs » s'efforçant de rester toujours un peu en avance de ce que nous apportent les organes des sens, qui sont eux liés davantageà l'expérience immédiate.

Que ce soit au plan individuel ou collectif, si beaucoup des prédictions formulées en permanence se révèlent inexactes à l'expérience et sont abandonnées, c'est en leur sein cependant que s'élaborent les hypothèses les plus audacieuses formulées par les scientifiques. Aussi, si Einstein s'émerveillait de la prescience de Kepler au sujet des orbites planétaires, nous-mêmes à notre tour nous nous émerveillons de sa prescience en matière de cosmologie relativiste.

De là à imaginer que les prédictions du cerveau finiraient par construire un monde subjectif devenant objectif, du fait que nous mettrons en oeuvre des expériences scientifiques nous permettant de les vérifier, il n'y a qu'un pas...que Clark ne franchit pas.

Mais, dans le domaine de la physique quantique, où les relations entre la prédiction et sa vérification sont infiniment plus flexibles, l'idée que notre cerveau construit le monde qu'il observe n'est pas aussi étrange. C'est un peu ce que Mioara Mugur Schaechter a nommé le relativisme épistémologique.
.

24 février 2016 3 24 /02 /février /2016 10:06

.
Jean-Paul Baquiast 23/02/2016

Le 11 février 2016, l'observatoire LIGO (Laser Interferometer Gravitational-Wave observatory) a identifié, sans erreur possible semble-t-il, un signal précis indiquant le passage d'une onde gravitationnelle attribuée à la fusion de deux trous noirs.

De telles ondes caractérisent l'effet produit dans l'espace-temps par les mouvements de corps massifs. Elles se propagent à la vitesse de la lumière. D'autres observations de ce type devraient être faites prochainement, soit par LIGO, soit par VIRGO, l'observatoire européen où se terminent actuellement les travaux de mise à niveau.

Les cosmologistes n'ont pas caché leur enthousiasme. Derrière ces signaux apparemment complémentaires à ceux que reçoivent en permanence des détecteurs d'ondes radio-électriques, ce serait une face jusqu'ici cachée du cosmos qui deviendrait accessible. Certains ont même parlé de la découverte d'un nouveau cosmos, se superposant à celui exploré jusqu'ici par les observatoires optiques et radios actuellement en service. De la même façon, toutes choses égales d'ailleurs, les premiers microscopes ont fait apparaître un monde inconnu, le monde cellulaire et bactérien jusque là invisible à l'oeil nu.

Cet enthousiasme peut étonner, vu tout ce qu'ont révélé les observatoires actuels, dont beaucoup d'éléments demeurent d'ailleurs encore mal compris. Mais il faut se rendre compte que les observations ne peuvent s'intéresser qu'à ce qu'elles voient, c'est-à-dire les rayons lumineux produits par l'émission il y environ 380.000 ans des photons ou quanta d'énergie résultant de la formation au sein de la soupe primordiale des premiers atomes, produits de la liaison entre électrons négatifs et protons positifs.

Auparavant, les observations directes de ce qu'était cette soupe primordiale et son évolution par refroidissement étaient impossibles. Il en était à plus forte raison de même concernant le ou les phénomènes initiaux dénommés big bang, comme de la phase primordial supposée dite d'inflation.

Aujourd'hui, les hypothèses théoriques concernant ces événements primordiaux sont à peu près cohérentes dans les grandes lignes, mais elles laissent encore de nombreux points incompris ou mal précisés. Il y a tout lieu de penser que l'observation des ondes gravitationnelles permettra de les mettre à l'épreuve et d'éclairer les domaines encore en discussion – voire de suggérer des hypothèses entièrement nouvelles.

Objectifs des prochaines observations

Si l'on admet que le signal perçu par LIGO a confirmé l'existence de trous noirs binaires jusqu'ici par définition inobservables sauf si un objet lumineux tel qu'une étoile orbite autour d'eux, le prochain objectif sera d'observer la fusion de deux étoiles à neutrons elles-mêmes en orbite. Cette fusion produira à travers l'espace des jets de matière chaude et dense. Peut-être pourra-t-on les relier à des phénomènes électromagnétique jusqu'ici inexpliqués, les explosions de rayons gamma. L'observation de ces jets pourrait peut-être aussi permettre de mieux comprendre la formation des atomes lourds tels que l'uranium, le thorium et l'or.

Par la suite, l'augmentation en cours de la sensibilité des interféromètres rendra possible dans les prochaines années d'étendre les observations de fusions de trous noirs et d'étoiles à neutron jusqu'aux 300.000 galaxies les plus proches. La probabilité de recevoir des signaux augmentera alors considérablement. On parle d'un signal par mois éventuellement, sinon plus. Le travail ne manquera donc pas.

Par ailleurs et en conséquence, le nombre des signaux reçus permettra de mieux préciser l'histoire et la composition de l'univers, faisant apparaître des paysages jusqu'ici mal compris, comme l'énergie noire considérée comme responsable de l'expansion actuelle du cosmos.

L'étude du signal proprement dit, concernant la fréquence et le volume des ondes, permettra par ailleurs de préciser la taille des trous noirs émetteurs, ainsi que la distance de l'évènement. Par comparaison avec les observations optiques, il sera possible d'évaluer le temps pris par les ondes pour nous parvenir, c'est-à-dire notamment l'effet de l'énergie noire sur la dilatation de l'espace.

Dans un autre domaine, il devrait être possible de soumettre la loi de la gravité à des tests approfondis, concernant par exemple d'éventuelles variations dans le temps ou dans l'espace de la façon dont elle se manifeste.

Lorsque la sensibilité des détecteurs sera encore améliorée, comme le font espérer les nouvelles générations d'interféromètres actuellement à l'étude, des ondes gravitationnelles de plus courte longueur d'onde pourront être observées, pouvant provenir des premiers instants de l'univers lors de l'inflation. Il s'agira des ondes gravitationnelles dites primordiales, beaucoup plus faciles à identifier de cette façon qu'en observant le fonds de ciel cosmologique - ce que on s'en souvient n'avait pas réussi à faire l'observatoire antarctique BICEP2.

Au delà de ces points, tout laisse penser que, comme toujours dans les sciences expérimentales, des évènements non encore envisageables pourront être suggérés par l'étude des ondes gravitationnelles, l'imagination des chercheurs n'ayant pas plus de limites que celles du cosmos.

17 février 2016 3 17 /02 /février /2016 18:39

A la poursuite des ondes gravitationnelles

Pierre Binétruy

Dunod (Quai des sciences)

3 juin
2015

Présentation Jean-Paul Baquiast
17/02/2016

Voir nos articles

* Ondes gravitationnelles et cosmologie quantique http://www.admiroutes.asso.fr/larevue/2016/166/ligo.htm

* Ligo. Choisir entre la science et les bombes
http://www.admiroutes.asso.fr/larevue/2016/166/edito3.htm

Sur l'auteur, voir page sur Paris Centre Cosmologie Physique
http://pariscosmo.in2p3.fr/fr/content/pierre-bin%C3%A9truy

Pierre Bénétruy est Directeur du PCCP, Directeur du Fonds de Dotation « Physique de l’Univers »

Il est professeur à l'Université Paris Diderot et a été directeur du laboratoire AstroParticule et Cosmologie ( APC ) à Paris depuis sa création en 2006 jusqu'en 2013. Après un doctorat au CERN , il a commencé sa carrière au LAPP à Annecy avant de rejoindre l'Université Paris 11 en tant que professeur en 1990 puis l'Université Paris Diderot en 2003 pour créer l’APC.

Ses principaux intérêts ont évolué de la physique des hautes énergies , notamment la supersymétrie , à la cosmologie et la gravitation, plus précisément l’interface entre l’étude de l'Univers primordial et les théories des interactions fondamentales . Ses intérêts actuels incluent les modèles d'inflation , l'énergie sombre et les fonds cosmologiques d'ondes gravitationnelles . Il est fortement impliqué dans la mission eLISA sur les ondes gravitationnelles , ainsi que membre du consortium Euclid.

Pierre Binétruy a été directeur du groupement de recherche européen " Supersymétrie " (1997-2004) , président du Fundamental Physics Advisory Group (2008-2010) et du Fundamental Physics Roadmap Committee (2009-2010) de l'ESA. Il est actuellement membre de l’European Space Science Committee, du Comité de Programme Scientifique (SPC) du Laboratoire National SLAC ( Stanford , Etats-Unis ) et du comité d'évaluation international (CVI ) de l'INFN .


Le livre comporte 9 chapitres, entre lesquels sont intercalés ce que l'auteur nomme des focus, lui permettant de prendre un peu de recul sur le sujet traité.
En résumant beaucoup, les thèmes en sont

- La théorie de la gravitation, depuis ses origines avec Galilée, puis Newton et Einstein avec le concept d'espace temps.

- La relativité générale et ses applications à l'expansion de l'univers et au Big bang

- L'observation actuelle du cosmos, astres, galaxies, matière sombre, depuiis l'époque di te la recombinaison ayant permis à la lumière de s distinguer de la matière.

- Les deux infinis, le vide quantique et le cosmos, avec l'antimatière et les hypothèses de la gravité quantique.

- Les premiers instants de l'univers, Big bang, inflation, recombinaison et la formation d'anitropopies, c'est-à-dire l'apparition de structures différentes, poussières, galaxies, détectées par les observations micro-ondes du fonds cosmologique; les dern,ires données en datea étant apportées par l'observatoire satellitaire européen Planck.

- L'énergie sombre et le vide quantique, qu'il est préférable comme le recommande l'auteur de nommer état fondamental, caractérisée par les fluctuations du vide, donnant naissance en permanence à des particules et anti-particules. Les plus nombreuses s'annihilent elles-mêmes, mais certaines peuvent donner naissance à de nouveaux univers.

- Les trous noirs, depuis les plus petits jusqu'aux trous noirs géant au centre des galaxies. L'auteur insiste sur le fait que ces trous noirs sont aussi riches et créateurs que les astres de matière et de lumière. Ils définissent un cosmos jusqu'ici peu soupconné, dont l'étude par les ondes gravitationneles sera aussi riche que celle permise par l'astronomie optique et radio.

- Les ondes gravitationnelles ou ondes de courbure de l'espace temps dues au big bang (ondes primordialles) ou à des masses en déplacement ou en interaction. Ces ondes se déplacent elles-aussi la vitesse de la lumière

- Les observatoires actuels permettant une étude de plus en plus précises d'ondes gravitationnelles de plus en plus anciennes. Les principaux de ces instruments sont les interféromètres. L'interféromètre américain Ligo vient d'entrer dans l'actualité mondiale. Il sera sans doute suivi de près par l'interféromètre européen Virgo, en attendant le grand interféromètre satellitaire prévu par l'ESA, dit eLISA.

- L'avenir du temps et de l'espace tels qui pourra être imaginé dans la suite de ces recherches.

Un index très complet, auquel il convient de se reférer pour préciser les thèmes évoqués, termine le livre.

On voir par cet examen rapide des tètes de chapitre, que la cosmologie faisant pratiquement intervenir tous les domaines de la physique, qu'elle soit macroscopique ou microscopique (quantique) , l'auteur a utilement décidé de débuter son livre par un résumé de l'évolution de cette science. Il s'agit de thèmes très souvent évoqués, tant dans les publications scientifiques que dans les ouvrages grand public. Nous y avons nous-mêmes sur ce site consacré un certain nombre d'articles. Mais ils ont fait l'objet de nombreuses approximations voire de détournement.

Souvent aussi, dans les publications destinées à des lecteurs généralistes, ils sont présentés de façon insuffisamment pédagogique. Ceci en fait, selon le terme de Churchill appliqué à l'ex URSS, des rebus enveloppés de mystères. Certains passages du livre exigent un minimum de culture scientifique, mais le lecteur ne disposant pas de celle-ci peut sans mal sauter les passages difficiles.

Au delà des préliminaires historiques, l'auteur se concentre sur les points qui vont et feront de plus en plus l'objet de recherches intensives. Nous avons insisté ci-dessus sur l'importance qu'il donne aux trous noirs. Ces astres, car il s'agit de véritables astres nous mettent théoriquement en leur coeur au contact d'un univers profondément différent de celui perçu par l'homme depuis l'origine des civilisations.

On les identifiera et étudiera de plus en plus car, en principe, ils émettent des ondes gravitationnelles d'une amplitude suffisante (l'amplitude de ces ondes est beaucoup plus faible que celle des ondes radio ou lumineuses) pour qu'elles soient détectables par des instruments bien plus sensible que ceux dont nous disposons en astronomie optique et radio, les interféromètres. dont la construction est projetée dans les 20 prochaines années.

Un mérite (entre autres) de ce livre, dont les compétences scientifiques de l'auteur sont impressionnantes, est de nous expliquer l'importance de la recherche des ondes gravitationnelles et de nous communiquer l'enthousiasme de ceux qui s'y adonnent. La détection des ondes gravitationnelles constitue un moyen complètement nouveau d'exploration de l'espace lointain qui devrait considérablement faire évoluer la connaissance de l'univers, de la physique en général et plus généralement de la philosophie et la politique de la science.

Commentaire

Au delà des questions scientifiques multiples abordées par l'auteur, nous voudrions ici revenir sur un sujet qu'il évoque, mais sur lequel il n'insiste peut-être pas assez. Il s'agit du rôle que les Européens pourraient jouer pour prendre une place dominante dans la course aux nouveaux savoirs qui découleront de l'amélioration notamment des interféromètres permettant d'étudier la nouvelle gravité.

L'Europe, par l'intermédiaire de l'ESA (Agence spatiale européenne) a développé un projet d'interféromètre spatial, intitulé eLISA qui une fois en service révolutionnera sans doute la façon dont nous percevons le cosmos. Il jouera probablement en astronomie gravitationnelle le même rôle qu'à joué la lunette de Galilée en astronomie optique, qui fut aux origines du Siècle des Lumières.

Pierre Binétruy, dans ce livre comme dans ses exposés ultérieurs, a eu le mérite de donner suffisamment de précision sur ce projet pour que l'on puisse au niveau politique et géopolitique commencer à en apercevoir la portée. Mais il fait plus. Il regrette que faute de financements adéquats, eLisa déjà citée n'entrera en service que dans les années 2030-2040 au mieux. Le temps que la communauté scientifique puisse en étudier convenablement les résultats, il faudra ajouter au moins une décennie.

Autrement dit la vision révolutionnaire du cosmos gravitationnel et plus généralement du cosmos qui pourra en découler devra attendre la mi 2100 pour être diffusée. Les citoyens qui ont atteint la cinquantaine n'en entendront jamais parler.

Ce dont aurait besoin l'ESA pour gagner de précieuses années sur ce délai serait de disposer dans la prochaine décennie de quelques milliards supplémentaires, milliards que son budget, étroitement contingenté par les Etats membres, ne lui fournira pas.

Or si l'on considère, comme le livre nous invite à le faire, que la nouvelle vision du cosmos découlant de l'étude des ondes gravitationnelles aura d'immenses conséquences, non seulement en physique mais dans le domaine des applications pratiques, telles qu'étudiées aujourd'hui notamment par la physique quantique, l'argument de la majorité des décideurs politiques selon lequel les dépenses évoquées seraient plus utiles dans le domaine de l'amélioration de la vie des individus que dans d'abstraites recherches cosmologiques, ne tient pas.

Il fait preuve en fait d'une effrayante ignorance, non seulement dans le domaine scientifique, mais en géopolitique. Cette ignorance, si elle ne disparait pas rapidement, ne permettra pas aux sociétés scientifiques de faire valoir leurs atouts au regard de tous les obscurantismes et guerres de religions qui semblent en train aujourd'hui de mener le monde à sa perte.

Ceci concerne en premier lieu l'avenir de l'Europe. Tout laisse penser actuellement que sa soumission librement consenties aux autres grandes puissances, notamment à l'Amérique de Wall Street et du Pentagone, la fasse rapidement disparaître des radars, malgré ses potentialités industrielles et scientifiques.

Or dans le domaine qui est au coeur de ce livre, le spatial, l'astronomie classique, l'astronomie gravitationnelle, elle avait toujours su, notamment d'une part grâce à ses universités, grâce d'autre part à l'ESA, se conserver un rôle majeur. Ceci est en train dedépéri sous la pression d'intérêts financiers et économiques principalement non-européens. Alors que les européens, en développant et protégeant convenablement leurs ressources propres, pourraient rapidement dégager des plus-values permettant de financer leurs sciences, ils laissent des acteurs financiers et politiques extérieurs leur imposer leur avenir.

Concernant plus particulièrement l'astronomie gravitationnelle, dont ce livre montre l'importance non seulement scientifique mais économique, l'Europe est en train de laisser perdre la position qu'elle avait su se ménager, face à une science américaine dotée d'infiniment plus de moyens. Il ne s'agirait pas de refuser la nécessaire coopération internationale indispensable dans ces domaines - lorsque le secret militaire ne l'interdit pas - mais de continuer à y jouer un rôle moteur. Espérons que ce livre sera lu par d'actuels ou futurs responsables politiques et électeurs européens, pour qu'ils en fassent une de leur priorités.

Mais cet espoir a toutes les chances d'être déçu, vu à la façon dont disparaît l'intérêt que les classes politiques européennes pouvaient sur le mode gaullien, éprouver précédemment pour les sciences.

Articles Récents

Liens