Overblog Suivre ce blog
Administration Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

27 mai 2016 5 27 /05 /mai /2016 22:06

Jean-Paul Baquiast 27/05/2016

Dans un article du NewScientist, daté du 21 mai 2016, intitulé Time to decide 1), le physicien quantique suisse Nicolas Gisin 2), pionnier de la téléportation des états quantique et de l'une de ses applications, la cryptographie quantique, explique pourquoi il ne peut admettre les arguments de la science déterministe selon lesquels le libre arbitre n'est qu'une illusion.

Sa conviction ne découle pas d'hypothèses religieuses selon lesquelles le libre-arbitre aurait été conféré à l'homme du fait que celui-ci ait été fait à l'image de Dieu, dont aucune loi ne peut enchainer la totale liberté de créer ou ne pas créer. Elle peut par contre les rejoindre. Il raisonne sur le libre-arbitre en termes strictement scientifiques. Reprenons ici son argumentation, en la ponctuant de quelques commentaires personnels.

Toute la physique macroscopique moderne, depuis Descartes, Newton et Einstein, repose sur l'assomption que l'univers est déterministe. Par extension, dans le cas de sciences comme la biologie ou la neurologie qui ont souvent peine à faire apparaître des lois déterministes, le déterminisme postule que de telles lois existent, y compris sous la forme d'un chaos déterministe ne permettant pas à notre esprit de faire apparaître ces lois, en l'état actuel de nos connaissances 3).

Aussi bien les cosmologistes pensent pouvoir prédire l'avenir de l'univers avec une certaine dose de certitude, puisque les lois fondamentales de l'univers seraient déterministes. Pour les déterministes, l'impression de libre-arbitre serait une illusion, dont il conviendrait de se débarasser pour faire de la bonne science.

Il en résulte que pour eux le temps serait une illusion. Les mêmes causes entraineraient les mêmes effets, même si le cours de ce que nous appelons le temps se trouvait inversé. Ainsi prise à l'envers, l'histoire de l'univers nous ramènerait inévitablement au point initial du big bang, supposé être à l'origine de ce même univers.

Pour les déterministes, l'humanité aurait été programmée pour faire des choix qui correspondent à un environnement déterministe. Si cela n'avait pas été, si l'humanité avait eu la liberté de considérer comme vraie telle ou telle hypothèse en fonction de son humeur du moment, elle aurait depuis longtemps disparu, incapable de s'adapter à un monde déterministe. Elle peut s'imaginer qu'elle peut librement choisir telle ou telle solution, en fonction de son libre arbitre, mais c'est une illusion.

Décider de la "vérité" d'une hypothèse

Face à ces arguments, Nicolas Gisin fait valoir que de nombreux scientifiques, parfaitement respectables, affirment que la démarche scientifique n'aurait pas de sens sans le libre-arbitre, c'est-à-dire au cas où nous n'aurions aucun pouvoir de décider si une hypothèse est « vraie » ou non. Nous serions obligé de la tenir pour vraie, partant de l'idée qu'un déterminisme sous-jacent doit nous imposer de ne pas nous poser la question. Nous serions seulement libres - et encore - de chercher à mieux connaitre ce déterminisme.

Au cas où nous découvririons à l'expérience que l'hypothèse tenue pour vraie se révélait fausse - ce qui arrive très souvent, évidemment - nous devrions nous borner à reconnaitre que nous avions par erreur attribué au déterminisme ce qui ne relevait que d'une erreur d'observation. Autrement dit, que notre idée de la loi déterministe invoquée était fausse. Nous serions obligés de tenir compte de cette nouvelle expérience, en imputant à la faillibilité de la science le fait que nous ayons pu précédemment considérer que cette hypothèse était vraie au regard d'un déterminisme sous-jacent.

Pour ces scientifiques qui refusent d'admettre qu'il n'ont pas de liberté de choix, soit pour retenir telle hypothèse aux dépens d'une autre, soit pour rechercher de nouvelles hypothèses si aucune de celles existantes ne parait conforme aux expériences, c'est bien ce que montre l'histoire de la science. Si dès les origines de la démarche scientifique, au siècle des Lumières, les philosophes avaient considéré que tout était déjà écrit ou que tout était déjà déterminé, les révolutions scientiques à venir n'auraient jamais eu lieu.

Or c'est le contraire que montre l'histoire de la science. Sans même faire appel à la mécanique quantique qui postule l'intervention de la volonté pour résoudre l'équation de Schrödinger dont l'inconnue est une fonction, la fonction d'onde ( ce que l'on nomme le problème de l'observation), Gisin s'appuie sur un exemple d'indétermination peu souvent évoqué, tenant aux nombres indispensables à toute hypothèse scintifique. Les sciences s'appuient sur l'utilisation de nombres que Descartes avait nommé des nombres réels, opposés aux nombres qu'il avait nommé « imaginaires ». Les nombres imaginaires sont considérés comme ne correspondant à aucune réalité, compte tenu de la façon dont ils sont calculés, par exemple en faisant appel à la racine carré d'un nombre négatif. Ce n'est pas le cas des nombres réels.

Cependant les nombres réels peuvent eux-mêmes être indéterminés. La plupart d'entre eux, décomposés en leurs éléments, font appel à des séries de chiffres se poursuivant jusqu'à l'infini. De plus, ces derniers, en bout de chaine, n'apparaissent qu'au hasard, sans qu'aucune loi déterministe de permette de prédire leur apparition. Seule une décision volontaire permet de ne prendre en considération que les premiers chiffres de la série.

Le libre-arbitre, loi fondamentale de l'univers ?

Les systèmes relevant de la théorie du chaos au sens strict, c'est-à-dire d'un chaos qui n'a rien de déterministe, sont partout dans la nature. C'est le cas notamment de tout ce qui concerne la vie et son évolution - sans mentionner les systèmes quantiques déjà évoqués. L'indétermination est partout, jusqu'au moment où elle est déterminée par les choix eux-mêmes non déterminés a priori faits par les êtres vivants.

Ceci dit, observons pour notre compte que l'indétermination et plus encore le libre-arbitre, sont de simples concepts que la science se refuserait encore aujourd'hui à définir. Elle ne les identifie que par leurs effets visibles. Ne faudrait-il pas aller plus loin? Que signifie la liberté de choix pour les êtres vivants. Certainement pas la liberté d'aller où que ce soit dans l'espace.

Il faudrait se borner à considérer que le libre-arbitre est une propriété fondamentale des êtres vivants, leur permettant de résoudre à leur avantage les indéterminismes profonds du monde? Ceci se ferait au niveau quantique, par la résolution incessante des fonctions d'onde auxquelles se trouvent confrontés ces êtres vivants. Mais ceci, d'une façon plus évidente, se produirait en permanence dans le monde physique. Par le libre-arbitre, les êtres vivants, fussent-ils considérés comme primitifs, et donc entièrement déterminés, choisiraient librement les conditions de la nature les plus convenables à leur survie et leurs développements. Ainsi de proche en proche, ils se construiraient un monde déterminé dans lequel ils évolueraient en faisant simultanément évoluer ce monde.

Le libre-arbitre ne permettrait donc pas d'inventer des mondes entièrement nouveaux. Il se bornerait à rendre actuelles des possibilités préexistantes, en les « choisissant ». On retrouve là, au niveau de la physique macroscopique, l'interprétation dite de Copenhague, popularisée par Werner Heisenberg. L'observation, dans la théorie dite de la mesure, « résout » la fonction d'onde du système quantique en l'obligeant à choisir entre un certain nombre de possibilités en principe préexistantes.

Or, écrit Nicolas Gisin à la fin de son article, le concept de temps n'est pas exclu de ce processus. Le résultat d'un événement quantique, tel que la mesure d'un système donné, non déterminé à l'avance, se situe dans un temps différent de celui où ce résultat est acquis, avec toutes les conséquences en découlant. Il s'agit d'une création authentique, apparue dans un temps non réversible, qui ne pouvait être connue à l'avance en faisant appel à une équation déterministe.

Nicolas Gisin a nommé ce temps un « temps créateur » , creative time. La science ne comprend pas bien aujourd'hui ce concept, mais la théorie de la gravitation quantique pourrait changer les choses. Elle obligera à une synthèse entre la théorie einstenienne de la gravité, entièrement déterministe, et le hasard introduit par l'observateur d'un système quantique.

Si l'on accepte cette hypothèse, il faudra en revenir à la question que nous avons précédemment posée. Faudrait-il admettre que le libre-arbitre, à quelque niveau qu'il s'exprime, serait dans la nature même de l'univers, ou du multivers si l'on retient cette dernière hypothèse. En ce cas, dans un univers supposé être évolutif, quelle serait l'essence profonde du phénomène ou, si l'on préfère, comment serait-il apparu? Et se poursuivra-t-il lorsque l'univers que nous connaissons aura disparu?

Notes

1) https://www.newscientist.com/article/mg23030740-400-physics-killed-free-will-and-times-flow-we-need-them-back/

Voir aussi, de Nicolas Gisin, Time Really Passes, Science Can't Deny That http://arxiv.org/abs/1602.01497

2) Sur Nicolas Gisin, voir https://fr.wikipedia.org/wiki/Nicolas_Gisin

3) Rappelons que l'on nomme chaos déterministe des situations dans lesquelles des différences infimes dans les conditions initiales entraînent des résultats totalement différents pour les systèmes concernés, rendant en général toute prédiction impossible à long terme. Cela est valable même pour des systèmes déterministes, ce qui signifie que leur comportement futur est entièrement déterminé par leurs conditions initiales, sans intervention du hasard.

Repost 0
20 décembre 2015 7 20 /12 /décembre /2015 19:21

Place de la Terre dans l'histoire de l'univers selon le site Planck
De gauche à droite: Big Bang -- Ère de l'inflation - Découplage de l'interaction forte et faible et formation des particules - Formation des étoiles et galaxies - Formation du système solai
re.
En dessous: La Terre actuel
le.

Biblionet

The Master Algorithm: How the quest for the ultimate learning machine will remake our world

Pedro Dom
ingos


Basic Books/Penguin 2015

Analyse et commentaires par Jean-Paul Baquiast
20/12/2015

Sur l'auteur, voir sa page
http://homes.cs.washington.edu/~pedrod/

Les hypothèses n'ont jamais manqué concernant la possibilité que l'univers tel que nous le connaissons ait été dès son origine le produit de processus calculatoires informatiques profondément ancrés dans le réel . Ils ne seraient pas seulement ancrés, mais consubstantiels à l'existence de l'univers, inséparables de lui, de même que la parole et le langage sont pratiquement inséparables. Récemment, des chercheurs tels que Seth Lloyd ont défendu l'idée que l'univers n'était pas seulement un ordinateur classique géant, mais un ordinateur quantique. Ceci expliquerait beaucoup de ses propriétés hors de portée d'un ordinateur numérique. 1).

Ces hypothèses sont intéressantes, mais elles se heurtent à la difficulté de faire apparaître clairement les bases naturelles qui dans l'univers seraient responsables de la production de ces calculs. Même un ordinateur quantique doit être organisé autour de composants et unités de traitement capables de manipuler des « bits quantiques ».
Certes, il est relativement facile de montrer que tous les processus cosmologiques, biologiques ou neurologiques identifiables dans l'univers, et plus particulièrement sur la Terre, pourraient être simulés sur de super-calculateurs, et par conséquent résulter du fait que l'univers responsable de la production de ces processus serait lui-même un super-calculateur. Mais où seraient les unités centrales de celui-ci, ses mémoires, ses organes d'entrée-sortie ou plus immédiatement ses composants élémentaires?

Par ailleurs, dans la mesure où la cosmologie moderne admet que l'univers s'est développé depuis le Big bang à partir d'atomes élémentaires surgis du vide dit quantique, il est difficilement admissibles de penser que dès le Big Bang les programmes nécessaires à la production ultérieure d'un univers capables de computations telles que nous les observons aujourd'hui se trouvaient prêt à opérer. On peut envisager qu'ils auraient pu progressivement se développer sur le mode darwinien, comme la vie elle-même, mais à partir de quelles semences initiales? A moins d'admettre que celles-ci aient toujours été présentes dans un univers primordial, que l'on pourrait qualifier de multivers, à partir duquel émergeraient des univers analogues au nôtre, ou proches.

The Master Algorithm

Dans un livre tout récent, The Master Algorithm, Pedro Domingos, concepteur informaticien réputé, ne remonte pas, tout au moins au début de son ouvrage, à l'origine de l'univers pour comprendre le monde numérique dans lequel nous vivons et dont il est l'un des acteurs. Il se borne à expliquer ce dont beaucoup de personnes aujourd'hui ne se sont pas encore rendu compte, le fait que les données de masse en ligne (Big Data) et que les algorithmes dits « intelligents » de plus en plus nombreux les exploitant sont en train de révolutionner nos sociétés.

Le propre de ces algorithmes, ce qui les rend intelligents, est qu'ils sont en train d'apprendre à devenir intelligents en exploitant ces Big Data. On parle à leur propos de « learning algorithms » ou d'algorithmes capables d'apprendre. Cexs-ci sont en train de s'organiser, à partir des supports informatiques et les réseaux nécessaires, en véritables « machines apprenantes », learning machines. Certains futuristes imaginent qu'ils pourraient un jour supplanter l'intelligence humaine, à condition que les supports physiques ou réseaux sur lesquels ils prospèrent ne soient pas détruits par un cataclysme quelconque.Le discours n'est pas à proprement nouveau. Beaucoup de nos lecteurs ont lu sur notre site de nombreux articles évoquant cette perspective ou des recensions d'ouvrages l'abordant. Nous avons nous-mêmes édité ici deux livres d'Alain Cardon traitant ce problème 2)

Dans ces ouvrages, Alain Cardon anticipait avec quelques années d'avance un phénomène qui est en train se se produire dans certains secteurs, l'apparition d'algorithmes et de machines autonomes, c'est-à-dire susceptibles d'opérer sans l'intervention d'organismes humains. Il s'agit précisément de ce que montre clairement aujourd'hui Pedro Domingos.

Il rappelle qu'existent dorénavant des millions de tels algorithmes apprenants. Ils sont en train de donner une impulsion qui sans eux serait inimaginable aux sciences, aux technologies, à l'économie, à la vie politique. Ils le font aussi dans le domaine militaire, qu'il s'agisse de guerres classiques ou de guerre de 4e génération conduites par des milices insurgées ou terroristes. Les entreprises mondiales telles que Google et Facebok, ou les hébergeurs plus locaux, tirent exclusivement leur pouvoir des Big Data que leur livrent les personnes privées ou les agents économiques faisant appel à elles.

De leur coté, les grands Etats, les Etats-Unis en premier lieu par l'intermédiaire de la NSA, CIA et autres agences, s'en servent pour espionner et tenter de dominer le monde entier. Les uns et les autres ont en projet l'intention de réaliser des cerveaux artificiels par lesquels ils parachevront leur actuelle domination.

Mais Pedro Domingos ne se limite pas à ces constatations. Il se demande s'il ne serait pas possible de concevoir un « master algorithm » ou « algorithme maître » susceptible de modifier en profondeur les machines apprenantes, et de ce fait nos vies et celles de beaucoup d'organismes vivants. Cet algorithme maître tirerait son immense pouvoir du fait qu'il serait capable d'exploiter toutes les Data existant sur la planète. De celles-ci, il pourrait tirer des connaissances illimitées intéressant le passé, le présent et aussi l'avenir.
Il n'y aurait pas besoin pour ce faire de se référer à des lois de la nature que les scientifiques se sont toujours efforcés de faire apparaître avec plus ou moins de difficultés. En collectant les données en masse, ceux-ci pourraient décrire la nature sans avoir besoin de faire appel à de telles lois, et sans avoir besoin de compétences spécialisées pour les élaborer.

Nous avons plusieurs fois évoqué ce point. Google peut-il obtenir sur la progression d'une épidémie des informations plus précises que celles découlant des observations des épidémiologistes, en utilisant simplement les données résultant de la consultation par des milliers de malades ou de personnes craignant de le devenir des sites de diagnostic en ligne ou de publicités pharmaceutiques? Longtemps incertaine, la réponse à cette question paraît désormais pouvoir être affirmative.

De la même façon, affirme Pedro Domingos, si les données observées par Tycho Brahé et autres astronomes de l'époque avaient pu être exploitées par un algorithme maitre, celui-ci en aurait déduit les lois de la gravitation bien avant l'apparition de Newton.

Mais pour cela, l'algorithme maître doit être capable, comme le font à petite échelle d'ailleurs les scientifiques, d'exploiter les données (Data) du passé ou du présent, comme d'anticiper ce que pourraient être les données du futur. Selon Pedro Domingos, ces données existent déjà dans les laboratoires ou dans les publications, mais personne ne s'est organisé pour les exploiter en masse. De multiples raisons, spécificités disciplinaires, incompatibilités entre langages et méthodes, crainte des risques liés à l'anticipation ou plus simplement manque de crédits pour les mémoriser et les rendre disponibles, contribuent à laisser dormir ce trésor.

Pedro Domingos va cependant plus loin que ces constatations relativement faciles à faire. Il se demande si les algorithmes capables d'exploiter les données naturelles omniprésentes dans l'univers ne seraient déjà pas en place, tout au moins dans certains organes ou organismes. Ainsi le cerveau humain pourrait de par son organisation neurologique transformer en connaissances intelligentes, voire conscientes, les données que lui apportent en permanence les organes sensoriels et moteurs. De même, au niveau bien plus général de l'évolution darwinienne des espèces vivantes, un tel algorithme maître, évidemment réparti, n'a-t-il pas optimisé les processus darwiniens par essais et erreurs, en favorisant les plus aptes à permettre la survie des espèces.

Observations

Nous ne prolongerons pas ici l'analyse de The Master Algorithm, ce que nous incitons vivement le lecteur à faire lui-même en se procurant le livre. Revenons par contre sur quelques perspectives non évoquées dans celui-ci, qui pourraient intéresser les scientifiques.

Si l'on admettait que les algorithmes maitres moteurs des machines auto-apprenantes décrits par Pedro Domingos existeraient dans la nature ailleurs que dans les actuels réseaux numériques, il ne faudrait pas se limiter à les rechercher dans les cerveaux ou dans les génomes. En s'appuyant sur le principe de Copernic selon lequel rien de spécifique n'existe dans l'univers, il faudrait postuler que de tels algorithmes et machines sont présents ailleurs sur la Terre, et au delà de la Terre, dans le système solaire et au delà de celui-ci, dans l'univers tout entier. Ils seraient apparus dès origines du cosmos.

Selon les hypothèses cosmologiques modernes, l'univers tel que nous le connaissons et dans lequel nous vivons a émergé en quelques fractions de seconde (seconde de notre temps actuel) sous la forme d'une structure presque infiniment petite, dense et chaude. Ce phénomène a été qualifié de Big Bang. Très rapidement, après sa naissance c'est-à-dire après ce Big Bang, l'univers a subi un processus dit d'inflation qui l'a conduit aux dimensions telles que celles observées aujourd'hui. L'inflation pourrait se poursuivre durant de très longues durées jusqu'à la dissolution complète des structures matérielles de l'univers. Dans les phases finales, le temps se ralentirait sans cesse et l'espace perdrait toutes dimensions mesurables.

Le milieu original dont serait issu notre univers, composé de particules et de photons, serait ce que l'on nomme le vide quantique. Il s'agirait de particules virtuelles dites quantiques car, selon les hypothèses de la physique quantique, elles n'obéiraient pas aux lois de la physique einstenienne , autrement dit elles ne seraient pas caractérisées par des dimensions d'espace et de temps déterminées. Faute d'une échelle de temps et d'espace au sein de l'univers quantique, celui-ci ne pourrait pas être décrit en termes d'infini ou de fini, ni concernant l'espace ni concernant le temps.

Du vide quantique émergerait en permanence (si le terme peut s'appliquer à un univers dépourvu de temps), des particules matérielles, c'est-à-dire dotées, comme celles de notre univers, de propriétés d'espace et de temps. La plupart s'effondreraient ensuite pour retourner dans le vide quantique. Certaines pourraient rester matérielles, et subir des inflations qui les conduiraient à devenir des univers analogues au nôtre.

Concernant l'origine et l'histoire de notre univers, c'est l'observation du rayonnement du fonds diffus cosmologique ou rayonnement fossile cosmologique (dit aussi CMB ou Cosmic Micro-ondes Background) par les satellites successifs dédiés à cette tâche, dont le dernier en date est le satellite européen Planck, qui en fournit des éléments permettant la modélisation des évènements. Le schéma présenté en début d'article représente l'histoire de l'univers depuis le Big Bang jusqu'à nos jours.

Or il n'y a pas de raison de refuser l'apparition de premiers algorithmes maitres et machines auto-apprenantes dès le Big Bang. Ces éléments de computation se seraient formés non sous leur forme sophistiquée actuelle mais sous des formes primitives, fonctions elles-mêmes des ressources disponibles lors de chacune des phases d'univers, Big Bang, découplage de l'interaction forte et faible et formation des particules, formation des premières étoiles et galaxies, formation du système solaire et de la Terre, apparition de la vie sur celle-ci et finalement apparition du web des réseaux numériques enveloppant la Terre d'une couverture dense.

Ce seraient les capacités d'auto-apprentissage des premiers ordinateurs naturels qui auraient dirigé, mieux qu'un doigt de Dieu encore évoqué par des milliards de croyants de par le monde, la sélection des facteurs les plus favorables à la généralisation de systèmes intelligents et conscient dont les humains se croient les seuls représentants. Si l'on admet l'existence du multivers, il n'y aurait d'ailleurs pas de raison de refuser le principe de tels systèmes au sein de celui-ci.

Le postulat de l'existence d'un univers quantique ne contrarierait en rien ces diverses hypothèses. Des algorithmes et machines auto-apprenantes constituées de bits quantiques n'en seraient que plus efficaces pour servir à l'évolution ayant conduit à la Terre actuelle et à notre société de l'information. Celle-ci, lorsque les premiers calculateurs quantiques seront réalisés à grande échelle, pourra utiliser à son tour les Big Data quantiques et leurs systèmes d'exploitation.

Il en résulterait que ce que nous appelons l'intelligence humaine aurait été incluse en germe dès les premiers pas de l'univers et pourrait évidemment se trouver ailleurs aujourd'hui au sein de celui-ci. L'intelligence et les capacités d'apprentissage ne se limiteraient sans doute pas aux seules planètes habitables, mais pourraient se retrouver dans toutes les structures de grande échelle identifiées dans l'univers, amas galactique ou nuages de poussière cosmique notamment. Elles disparaitraient également avec la mort progressive de notre univers. On ne voit pas comment en effet, malgré leurs grandes compétences à apprendre, elles pourraient résister à des facteurs d'extinction de cette importance.

Travaux pratiques

Certes, pour rendre tout ceci matière à travail scientifique, il faudrait montrer comment, phase par phase depuis au moins la formation des particules, des systèmes d'abord extrêmement simples, composés de quelques atomes, auraient pu s'organiser en moteurs générant des données sous-produits de leur action. Celles-ci leur auraient servi de base pour contribuer à leur auto-perfectionnement sur le mode darwinien. Des concepteurs de systèmes aussi avertis et compétents que Pedro Domingos n'auraient certainement pas de difficultés à en réaliser des prototypes, s'ils disposaient du temps et des équipes nécessaires.

Ces prototypes, inutile de le souligner, pourraient ouvrir la voie aux ordinateurs moléculaires, génétiques ou neuronaux dont l'on parle beaucoup de nos jours, mais qui n'existent en fait que dans les publications scientifiques. Leur organisation sous la forme de consommateurs de Big Data naturelles donnerait une valeur considérables à celles-ci, valeur généralement ignorées de tous. Les véritables sources pour les inventions de demain se trouveraient là.

Notes

1) Voir à ce sujet notre commentaire du livre Programming the Universe

2) Alain Cardon

* "Modélisation constructiviste pour l'autonomie des systèmes"
Edition Automates Intelligents. 24 mai 2012
(publié sous Licence Creative Commons)

* " Vers un système de contrôle total"
Edition Automates Intelligents, 20 octobre 2011
(publié sous Licence Creative Commons)

Repost 0
Jean-Paul Baquiast - dans sciences
commenter cet article
4 juillet 2015 6 04 /07 /juillet /2015 15:34

Le Big Rip
Jean-Paul Baquiast 04/07/2015

Le concept de viscosité cosmologique concerne l'application à la cosmologie du concept de viscosité. Celui-ci ne désigne pas seulement un état de la matière ordinaire (la viscosité d'un liquide, par exemple) mais la façon de mesurer la résistance d'un fluide en expansion ou en contraction. Sur Terre, la viscosité d'un liquide donné (qu'il s'agisse d'eau pure ou d'un sirop épais) ne change que très peu, car aux conditions habituelles, ce liquide ne peut être comprimé ou décomprimé que faiblement. Il n'en est pas de même au plan cosmologique.

Les théories aujourd'hui admises relativement à l'évolution de l'univers postulent que celui-ci a commencé sous une forme extrêmement dense, celle qu'il avait quelques instants après le Big Bang, et qu'il pourrait finir (dans l'hypothèse dite du Big Freeze), sous une forme extrémement peu dense ou diluée, les galaxies et les étoiles s'éloignant inexorablement les unes des autres et la matière s'étant trop dispersée pour pouvoir sous l'effet de la gravité donner naissance à de nouveaux nuages pré-galactiques ou pré-stellaires.

Aujourd'hui, une équipe de mathématiciens et de cosmologistes provenant entre autres de l'Université Vanderbilt, vient de publier dans le journal Physical Review un article (voir abstract ci-dessous) proposant une autre approche de la viscosité cosmologique. Pour cela, ils se sont efforcés de résoudre l'incompatibilité entre la Théorie de la relativité générale proposée par Einstein et les lois de la thermodynamique gouvernant l'évolution de la viscosité.

Leur nouveau modèle est mathématique. Il ne peut être soumis à vérification expérimentale, ce que certains d'autres chercheurs reprochent à ce travail. Mais les auteurs répondent qu'il en est de même des modèles cosmologiques évoqués ci-dessus, impliquant l'évolution de l'univers, comme de la plupart des autres modèles, sans mentionner les formulations plus contestées de la théorie des cordes.

Ce nouveau modèle trouve une application directe à ce que pourrait être la fin de l'univers, si celui-ci était soumis à une expansion accélérée et non à une expansion qui se ralentirait progressivement pour se transformer en contraction (le Big Crunch) ramenant l'univers à l'état qu'il avait lors du Big Bang. Le modèle propose le terme de Big Rip (dissolution) pour caractériser l'état final de l'univers – le terme d'état final supposant évidemment des mesures du temps telles que nous l'utilisons actuellement, c'est-à-dire un temps invariable, tel que décrit Lee Smolin dans son dernier livre (Voir référence ci-dessous)

Un des auteurs de l'étude, Marcelo Disconzi, est parti d'une réflexion sur l'état de la matière-énergie soumiseà des vitesses relativistes (extrêmement élevées), telle qu'elle est produite par des étoiles à neutrons ou lors de l'explosion des supernovas. Personne n'avait jusqu'ici réfléchi à ce que devenait la viscosité de tels fluides. Les modèles mathématiques actuels cherchant à décrire l'état de fluides accélérés à des vitesses proches de celle de la lumière aboutissent à des incohérences, telles que celles selon lesquelles ces fluides pourraient se déplacer à des vitesses supra-lumineuses

Lichnerowicz

Le mathématicien a donc ré-écrit les équations de la dynamique relativiste des fluides, en éliminant le postulat selon lequel ces fluides puissent se déplacer plus vite que la lumière. Il s'est appuyé au départ sur les travaux du mathématicien français André Lichnerowicz dans les années 1950. Il les a étendus sous la forme d'une théorie cosmologique plus large. Celle-ci l'a conduite à jeter un regard nouveau sur la mystérieuse énergie noire, souvent mentionnée sur ce site, et qui serait le facteur répulsif moteur de l'expansion accélérée de l'univers telle qu'observée aujourd'hui.

Les hypothèses concernant l'énergie noire ne prennent pas en compte, selon Disconzi, la viscosité cosmologique, en dépit du fait qu'elle aurait un effet répulsif très voisin de celui résultant de l'énergie noire. Il est possible qu'au moins une partie de l'énergie noire puisse s'expliquer, beaucoup plus simplement, dans le cadre de la viscosité cosmologique.

Nous renvoyons à l'article de la Physical Review ceux de nos lecteurs ayant les bases mathématiques nécessaires pour apprécier la validité des hypothèses formulées par l'équipe de Vanderbilt. Signalons seulement qu'une des conclusions qui en découlerait serait, dans l'hypothèse d'une expansion infinie de l'univers et non d'un Big Crunch, qu'un scénario possible serait celui qu'ils ont nommé le Big Rip.

Dans le cas d'une énergie noire accélérant d'une façon ininterrompue la vitesse d'expansion de l'univers, dans un temps approximatif de 22 milliards d'années (sans commentaires) les objets matériels pourraient se désassembler complètement, les atomes eux-mêmes se désagrégeant en particules élémentaires et radiation.

Les chercheurs pensent pouvoir proposer un paramètre d'état ou équation mesurant les différences de pression et de densité entre l'énergie noire et viscosité cosmologique, telle que calculée par eux. Si ce paramètre tombe en dessous de – 1, le Big Rip deviendrait possible. Pour approfondir ces perspectives, ils auront besoin de calculateurs plus puissants que ceux à leur disposition. Il n'est pas impossible, espèrent-ils, que dans ces conditions ils aboutissent à des hypothèses pouvant recevoir un début de preuves expérimentales.

L'étude ne situe pas le scénario du Big Rip résumé ici dans ceux concernant le multivers. Ils pourraient être incompatibles. Rappelons que beaucoup de théoriciens du multivers imaginent, comme Lee Smolin précité, que les univers se succèderaient de Big Crunch en Big Bang, dans un cadre temporel invariable. Pour d'autres au contraire, les univers pourraient être en très grand nombre, pour ne pas dire infiniment nombreux. En ce cas, chacun d'eux, issus de fluctations du vide quantique, pourrait disposer de lois fondamentales différentes, dans lesquelles les calculs concernant la viscosité cosmologique telle que proposée par l'équipe de Vanderbilt pourraient être inapplicables.


Abstract of New approach to cosmological bulk viscosity

We examine the cosmological consequences of an alternative to the standard expression for bulk viscosity, one which was proposed to avoid the propagation of superluminal signals without the necessity of extending the space of variables of the theory. The Friedmann equation is derived for this case, along with an expression for the effective pressure. We find solutions for the evolution of the density of a viscous component, which differs markedly from the case of conventional Eckart theory; our model evolves toward late-time phantomlike behavior with a future singularity. Entropy production is addressed, and some similarities and differences to approaches based on the Mueller-Israel-Stewart theory are discussed.

Reference

New approach to cosmological bulk viscosity
http://journals.aps.org/prd/abstract/10.1103/PhysRevD.91.043532

Pour en savoir plus

Sur la question des multivers et du temps, voire notre article recensant les 3 ouvrages de Aurélien Barrau, de Caelo Rovelli et de Roberto Mangabeira Unger/ Lee Smolin
http://www.automatesintelligents.com/biblionet/2014/oct/univers_est_il_unique.html

Repost 0
Jean-Paul Baquiast - dans sciences
commenter cet article
18 avril 2015 6 18 /04 /avril /2015 20:25

Les croyances traditionnelles postulent que la vie sur Terre est un phénomène unique, peut-être apparu une seule fois. De là, il est aisé d'affirmer que cette apparition, de par son caractère improbable, n'a été rendue possible que par une intervention extérieure, nécessairement divine. Cette croyance se trouve fortifiée, de nos jours encore, par l'impossibilité de découvrir avec suffisamment de certitude l'existence, actuelle ou passé, de formes de vie sur d'autres planètes que la Terre au sein du système solaire, et a fortiori dans le reste de l'univers.

Cyanide

Cependant, l'observation de ce que l'on nomme des molécules organiques complexes, dites aussi briques de base de la vie ou molécules prébiotiques, s'est généralisée, soit sur des comètes, soit dans le système solaire sur des lunes de Saturne et Jupiter, soit même dans les nuages de poussières dites cosmiques, pouvant précéder la formation de planètes. S'agit-il cependant de phénomènes exceptionnels ou au contraire de phénomènes absolument généraux, pouvant laisser penser que, dans la galaxie voire dans l'univers lui-même, la vie pourrait émerger, sous des formes proches de celles que nous connaissons, dès que des conditions favorables, de température, d'ensoleillement et d'humidité le permettraient ?

Une découverte, dont le compte-rendu vient d'être publié dans la revue Nature, laisse penser que dans le disque protoplanétaire entourant une jeune étoile se trouvent de telles molécules organiques. Le disque protoplanétaire est un disque composé de divers molécules susceptibles de s'agréger en planètes orbitant autour de l'astre. Y trouver des molécules organiques peut laisse penser que, dès la formation de ces proto-planètes, les briques de base de la vie pourraient se trouver présentes. Autrement dit, des formes de vie pourraient apparaître sur ces proto-planètes très peu de temps après leur formation (accrétion).

Selon les astronomes, de telles molécules se trouveraient dans une région analogue à celle que l'on nomme dans le système solaire la ceinture de Kuyper. C'est dans celle-ci que se forment, au delà de Neptune, des planétésimaux et des comètes, lesquelles peuvent ensuite voyager dans tout le système solaire. On estime que cette ceinture est riche, non seulement en molécules organiques mais en eau, supposée principalement sous forme de glace.

L'étoile MWC 480, dont la masse est à peu près le double de celle du Soleil, se trouve approximativement à une distance de 455 années-lumière, dans la région dite du Taurus riche en formation d'étoiles. La grande sensibilité d'ALMA a permis de prouver que dans le voisinage d'une telle étoile, les molécules organiques ne sont pas détruites par des rayonnements divers, mais au contraire prospèrent. Elle se trouvent en effet en bien plus grande quantité que dans les nuages interstéllaires. Les astronomes ont calculé qu'il se trouve assez de méthyl-cyanide autour de l'astre pour remplis tous les océens de la Terre.

Repousser le problème de la formation des molécules prébiotiques mais non le résoudre

Il va de soi que ces observations très intéressantes ne résolvent pas les questions qui se posent nécessairement en amont mais aussi en aval. En amont, reste à comprendre par quels mécanismes se forment les molécules complexes, au sein d'un univers essentiellement empli de corps simples. S'agit-il de corps présents dès la naissance de l'univers ou apparaissent-ils seulement dans les secondes, minutes ou jours suivant celle-ci, notamment dans le cadre de ce que l'on appelle l'inflation. Leur formation initiale résulte-t-elle d'un hasard ou était-elle inévitable dans le cadre de ce que l'on nomme les lois fondamentales de l'univers.

En amont, reste à démontrer, y compris par des expériences de laboratoire sur Terre, comment ces molécules prébiotiques peuvent s'organiser pour donner naissance aux molécules réplicatives caractérisant la vie sur Terre. La réponse à cette seconde série de questions paraît plus à la portée de la science que celle concernant les premiers instants de l'univers. Mais pour le moment elle ne l'est pas. .

Références

Article dans Nature

Alma . Son site

Wikipedia Cyanide

1) En forçant un peu le raisonnement, on pourrait même envisager que de telles molécules puissent être des précurseurs du pétrole abiotique supposé présent sur certaines planètes, notamment la Terre. Cf notre article.

Repost 0
Jean-Paul Baquiast - dans sciences
commenter cet article

Articles Récents

Liens