Overblog
Suivre ce blog
Administration Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

18 avril 2016 1 18 /04 /avril /2016 20:37


Jean-Paul Baquiast 17/04/2016

Références
* The Tides of Mind: Uncovering the Spectrum of Consciousness
David Gelernter
(W.W. Norton & Company)
L'auteur est "Yale University computer scientist",
https://en.wikipedia.org/wiki/David_Gelernter

* Surfing Uncertainty: Do our dynamic brains predict the world?
Andy Clark
L'auteur est "professor of philosophy and Chair in Logic and Metaphysics at the University of Edinburgh in Scotland.
https://en.wikipedia.org/wiki/Andy_Clark

Deux livres récents fournissent sans s'être apparemment concerté des hypothèses nouvelles, et partiellement concordantes, sur les liens entre le cerveau, les images du monde qu'il construit et la conscience qu'il en prend. Nous les présenterons successivement ici.

1. The Tides of Mind: Uncovering the Spectrum of Consciousness

David Gelernter est professeur de sciences informatiques à l'Université de Yale. Mais son oeuvre et ses lectures l'ont conduit à réfléchir sur le « hard problem » de la conscience. Il s'appuie pour ce faire sur un grand nombres d'ouvrages proprement littéraires, venant notamment d'essayistes et de romanciers provenant de divers pays, dont la France. Le nombre et la fiabilité des citations qu'il fournit dans ce livre pour illustrer ses hypothèses est considérables. Ce qui montre que pour les hommes de culture tel que lui, il n'y a pas de barrière étanche entre les sciences computationnelles et les autres formes de pensée. Au contraire, elle peuvent se féconder respectivement.

Généralement, pour les chercheurs et enseignants en littérature, l'ordinateur ne sert qu'à donner lieu à d'innombrables études statistiques sur la forme et le fond des oeuvres. Pour David Gelernter au contraire, il est possible de trouver dans la littérature des éléments de base pour construire des modèles informatiques précisant le rôle du cerveau en relation avec les formes les plus complexes de la conscience humaine. Il est même possible de s'en servir pour participer à la grande oeuvre de 21 siècle, la construction d'une conscience artificielle émanant d'un cerveau artificielle. Dans cette perspective l'introspection est un outil indispensable.

Il montre clairement dans son livre, en produisant de nombreuses références, que les oeuvres littéraires, celles de Marcel Proust, Franz Kafka, Austen, Charlotte Brontë, Ernest Hemingway et d'autres, fournissent des bases indispensables aux neurosciences s'efforçant de comprendre l'émergence de la conscience à partir du fonctionnement d'un cerveau, lui-même en relation avec un corps plongé dans un milieu bien défini.

Pour ce faire, il est conduit à apporter une attention renouvelée à l'introspection. Celle-ci exprime en permanence à notre esprit la façon dont nous avons, de l'intérieur, conscience de nous-mêmes. Depuis déjà de nombreuses décennies, les scientifiques de la cognition avaient refusé d'attribuer à l'introspection des capacités permettant de comprendre en profondeur la conscience. La raison essentielle en était le « manque d'objectivité » des vues que par l'introspection nous pouvions obtenir de notre cerveau et de son fonctionnement.

Cet ostracisme a conduit à considérer comme négligeables des siècles de philosophie, de littérature et d'arts grâce auxquels nos prédécesseurs se sont au contraire efforcés de se donner des représentations de plus en plus élaborées de la conscience, conscience du monde comme conscience de soi. Toute subjectives qu'aient été les multiples formes de « réalités » décrites par ces créateurs, elles demeurent les meilleures sources permettant d'obtenir, à supposer que ce concept ait un sens scientifique, une représentation d'un réel objectif.

Comme on peut cependant le deviner, David Gelernter n'aborde pas sans une méthode appropriée le monde infiniment complexe des réalités subjectives, notamment telles que décrites par les oeuvres auxquelles il se réfère. Il a construit pour ce faire un outil qu'il nomme un "spectrum of consciousness" que l'on peut traduire par « échelle de degré de conscience », que notre cerveau produit à partir du monde dans lequel il est plongé. Bien évidemment, ce « spectrum », selon lui, ne concerne pas seulement la conscience que nous pouvons avoir du monde extérieur, mais celle qu'à tous moments nous avons de nous-mêmes.

L'introspection notamment critique constitue une réflexion aussi « objective » que possible que nous pouvons exercer à l'égard de nos pensées. Elle en est un élément clef, mais elle n'est pas la seule. Toute perception que nous pouvons avoir de nous-mêmes, par la pensée éveillée ou par le rêve – ceux des rêves du moins dont nous pouvons nous souvenir, contribue à la construction des différents niveaux de conscience constituant l'échelle, le spectre » dans laquelle se répartissent nos multiples états et faits de conscience.

Haute et basse mer

Pour Gelernter, la hiérarchie des divers états mentaux à travers lesquels nous passons chaque jour et de façon permanente, est comparable à un effet de marée, la haute mer revenant périodiquement remplacer la basse mer. De même que (la comparaison est de nous) à haute mer le navire voit s'ouvrir pour lui toutes les possibilités de voyage et de découverte, à basse mer, il s'échoue sur une plage. Mais il n'en demeure pas moins un navire, susceptible de reprendre le large à la haute mer suivante.

Au sommet de la pleine mer, ou du spectre pour reprendre le terme de l'auteur, se trouvent comme nul ne s'en étonnera, les états mentaux par lesquels nous nous absorbons dans le monde extérieur, utilisant pour ce faire la logique, le raisonnement abstrait et pour certains esprits les mathématiques. Grâce à ces outils qui sont le plus souvent le produit de constructions sociales, nous pouvons, non seulement mieux formaliser nos pensées conscientes, mais aussi les communiquer aux autres et construire ainsi une conscience collective du monde.

Mais lorsque dans le cours de la journée et plus particulièrement avant le sommeil, notre mémoire reprend la parole, elle redonne vie à nos valeurs subjectives, nos appréciations personnelles et à différentes formes de pensées non formellement logiques, c'est-à-dire analogiques. Avant le sommeil enfin et durant les rêves, c'est-à-dire aux approches de la marée basse, nous dérivons vers des états de conscience encore moins formalisés en apparence. Mais ceux-ci, comme l'ont montré les psychologues, peuvent nous servir, avec l'aide d'un minimum d'interprétation extérieure, à mieux comprendre notre moi profond. C'est alors que les oeuvres littéraires et plus généralement artistiques nous permettent d'enrichir à l'infini nos références.

D'une façon similaire, en fonction de notre âge, nous nous élevons progressivement vers les états de conscience supérieurs, sans pour autant abandonner tous ceux qui nous ont permis au fil des années et dès l'enfance de construire notre moi conscient.

Le livre très riche de David Gelernter ne se borne pas à développer ces considérations qui pourront paraître un peu banales. Il illustre sa pensée de très nombreux exemples tirés, comme nous l'avons dit, de la littérature mais aussi de l'expérience de tous les jours. Ceux-ci sont fournis par l'étude des sociétés primitives ou contemporaines, l'analyse des expressions du langage (laisser son esprit vagabonder) et même d'observations cliniques ou fournies par la psychanalyse. De plus, le spectre d'analyse qu'il propose peut permettre de nombreuses observations prédictives vérifiables, concernant les comportements normaux individuels et collectifs, ainsi que leurs déviations chez les individus et les foules.

Une autre conséquence plus immédiate de son approche, qui intéressera les neurosciences cognitives, est le rejet du « computationnalisme », c'est-à-dire le point de vue selon lequel l'esprit est au cerveau ce que le software est au hardware, point de vue qui conduit à croire que les cerveaux sont analogues à des calculateurs digitaux. Pour lui au contraire l'esprit est fondamentalement lié, en chaque minute, à l'état de notre corps et à son insertion dans le milieu. Ceci veut dire que les scientifiques voulant vraiment construire des esprits artificiels devront prendre en compte un nombre très grand de facteurs définissant l'état des corps artificiels inséparables de ces esprits. Beaucoup le soupçonnaient. Mais le travail de Gelernter le confirme.

2. Surfing Uncertainty: Do our dynamic brains predict the world?

Le thème de ce nouveau livre de Andy Clark contredit l'image traditionnelle selon laquelle nos cerveaux se forment des représentations du monde à partir des images sensorielles qu'ils peuvent en avoir, c'est-à-dire a postériori. Pour lui au contraire nos cerveaux construisent a priori des représentations internes du monde, qu'ils comparent et corrigent en fonctions des données concernant le monde qu'ils peuvent ultérieurement acquérir. La différence paraitra minime. En fait elle est essentielle. Il est possible selon cette thèse de proposer l'idée que le cerveau construit le monde dans lequel il vit, au lieu d'être construit par ce dernier.

Ainsi Einstein avait remarqué que si Kepler ne s'était pas construit a priori une image elliptique des orbites planétaires, il aurait continué comme ses prédécesseurs à les imaginer sous une forme circulaire et n'aurait jamais cherché de preuves expérimentales permettant de contredire cette hypothèse, laquelle à l'expérience s'est révélée fausse.

Mais comment le cerveau peut-il construire des hypothèses originales, que ce soit dans le domaine scientifique ou dans tout autre domaine de la vie courante? C'est, explique Andy Clark, parce que l'évolution l'a doté du pouvoir prédictif. On objectera qu'en fait, tout organisme vivant, dès qu'il est capable de réagir aux stimulations du milieu, élabore des prédictions relatives à celui-ci, qu'il soumet à la sanction de l'expérience. S'il se trompe, il meurt. Dans ce cas contraire, il améliore son adaptation et donc sa compétitivité. Mais le cerveau supérieur, celui de l'homme en particulier, procède de cette façon à une toute autre échelle. Il consacre à la prédiction une grande partie des 100 milliards de neurones qui composent sa masse corporelle, répartis en hiérarchies organisées de couches cognitives.

Le cerveau, qui reçoit en permanence des millions d'entrées sensorielles, a du donner un sens à ces perception chaotiques, afin notamment d'en éliminer les incertitudes. Ceci s'est fait au cours des âges grâce à la construction de ce que l'auteur nomme la “predictive processing story”, autrement dit l'histoire de l'élaboration du pouvoir prédictif.

Selon la vision traditionnelle, y compris en ce qui concerne l'activité scientifique, le cerveau s'efforce d'identifier des structures ou patterns supposés existant dans la nature en dehors de lui, identification qu'il cherche ensuite à vérifier de façon expérimentale. Ce faisant, il modifie les représentations internes du monde qu'il s'était auparavant données.

L'aptitude au pouvoir prédictif renverse l'ordre des processus. Comme le physicien allemand Hermann von Helmholtz l'avait proposé dès 1860, le cerveau génère des données sensorielles à partir des modèles du monde dont ce même cerveau et le corps s'étaient antérieurement dotés. A partir de cela il élabore de nouvelles hypothèses sur le monde qu'il soumet ensuite à l'expérience, ne gardant finalement que celles correspondant statistiquement, non au monde tel qu'il serait en soi, mais au monde dans lequel vit le cerveau et le corps du sujet. Ceci jusqu'à de nouvelles preuves du contraire.

L'observation a souvent été faite, bien que de façon moins savante, concernant la pratique de la police répressive. Aujourd'hui, aux Etats-Unis, beaucoup de policiers pensent que les Noirs sont dotés d'armes à feu et s'en servent. Il arrive très fréquemment qu'ils croient voir de telles armes dans la main d'un suspect et n'hésitent pas à abattre celui-ci préventivement. Ils se sont trompés mais jusqu'au dernier moment, y compris devant le juge. ils affirment avoir vu une arme. Ils ne sont pas à proprement parler de mauvaise foi. Leur cerveau a effectivement vu une arme, dans le cadre d'une sorte d'hallucination. Heureusement, le plus souvent, les évènements ne se déroulent pas de façon aussi dramatique. Le cerveau vérifie mentalement les prédictions qu'il élabore, avant de passer à l'acte.

Des "prédictavores proactifs "

Pour contrôler la validité de ses prédictions, qui s'élaborent généralement dans les couches supérieures du cortex associatif, le cerveau fait appel aux couches corticales inférieures, qui reçoivent et interprètent les données sensorielles. Pour enrichir ces données, le cerveau se réfèredonc au corps proprement dit, enserré dans le milieu qui est le sien. Comme l'écrit Clark, nous ne sommes pas des pommes de terre attendant passivement les informations que leur fournira le terrain. Nous sommes des « prédictavores proactifs » s'efforçant de rester toujours un peu en avance de ce que nous apportent les organes des sens, qui sont eux liés davantageà l'expérience immédiate.

Que ce soit au plan individuel ou collectif, si beaucoup des prédictions formulées en permanence se révèlent inexactes à l'expérience et sont abandonnées, c'est en leur sein cependant que s'élaborent les hypothèses les plus audacieuses formulées par les scientifiques. Aussi, si Einstein s'émerveillait de la prescience de Kepler au sujet des orbites planétaires, nous-mêmes à notre tour nous nous émerveillons de sa prescience en matière de cosmologie relativiste.

De là à imaginer que les prédictions du cerveau finiraient par construire un monde subjectif devenant objectif, du fait que nous mettrons en oeuvre des expériences scientifiques nous permettant de les vérifier, il n'y a qu'un pas...que Clark ne franchit pas.

Mais, dans le domaine de la physique quantique, où les relations entre la prédiction et sa vérification sont infiniment plus flexibles, l'idée que notre cerveau construit le monde qu'il observe n'est pas aussi étrange. C'est un peu ce que Mioara Mugur Schaechter a nommé le relativisme épistémologique.
.

24 février 2016 3 24 /02 /février /2016 10:06

.
Jean-Paul Baquiast 23/02/2016

Le 11 février 2016, l'observatoire LIGO (Laser Interferometer Gravitational-Wave observatory) a identifié, sans erreur possible semble-t-il, un signal précis indiquant le passage d'une onde gravitationnelle attribuée à la fusion de deux trous noirs.

De telles ondes caractérisent l'effet produit dans l'espace-temps par les mouvements de corps massifs. Elles se propagent à la vitesse de la lumière. D'autres observations de ce type devraient être faites prochainement, soit par LIGO, soit par VIRGO, l'observatoire européen où se terminent actuellement les travaux de mise à niveau.

Les cosmologistes n'ont pas caché leur enthousiasme. Derrière ces signaux apparemment complémentaires à ceux que reçoivent en permanence des détecteurs d'ondes radio-électriques, ce serait une face jusqu'ici cachée du cosmos qui deviendrait accessible. Certains ont même parlé de la découverte d'un nouveau cosmos, se superposant à celui exploré jusqu'ici par les observatoires optiques et radios actuellement en service. De la même façon, toutes choses égales d'ailleurs, les premiers microscopes ont fait apparaître un monde inconnu, le monde cellulaire et bactérien jusque là invisible à l'oeil nu.

Cet enthousiasme peut étonner, vu tout ce qu'ont révélé les observatoires actuels, dont beaucoup d'éléments demeurent d'ailleurs encore mal compris. Mais il faut se rendre compte que les observations ne peuvent s'intéresser qu'à ce qu'elles voient, c'est-à-dire les rayons lumineux produits par l'émission il y environ 380.000 ans des photons ou quanta d'énergie résultant de la formation au sein de la soupe primordiale des premiers atomes, produits de la liaison entre électrons négatifs et protons positifs.

Auparavant, les observations directes de ce qu'était cette soupe primordiale et son évolution par refroidissement étaient impossibles. Il en était à plus forte raison de même concernant le ou les phénomènes initiaux dénommés big bang, comme de la phase primordial supposée dite d'inflation.

Aujourd'hui, les hypothèses théoriques concernant ces événements primordiaux sont à peu près cohérentes dans les grandes lignes, mais elles laissent encore de nombreux points incompris ou mal précisés. Il y a tout lieu de penser que l'observation des ondes gravitationnelles permettra de les mettre à l'épreuve et d'éclairer les domaines encore en discussion – voire de suggérer des hypothèses entièrement nouvelles.

Objectifs des prochaines observations

Si l'on admet que le signal perçu par LIGO a confirmé l'existence de trous noirs binaires jusqu'ici par définition inobservables sauf si un objet lumineux tel qu'une étoile orbite autour d'eux, le prochain objectif sera d'observer la fusion de deux étoiles à neutrons elles-mêmes en orbite. Cette fusion produira à travers l'espace des jets de matière chaude et dense. Peut-être pourra-t-on les relier à des phénomènes électromagnétique jusqu'ici inexpliqués, les explosions de rayons gamma. L'observation de ces jets pourrait peut-être aussi permettre de mieux comprendre la formation des atomes lourds tels que l'uranium, le thorium et l'or.

Par la suite, l'augmentation en cours de la sensibilité des interféromètres rendra possible dans les prochaines années d'étendre les observations de fusions de trous noirs et d'étoiles à neutron jusqu'aux 300.000 galaxies les plus proches. La probabilité de recevoir des signaux augmentera alors considérablement. On parle d'un signal par mois éventuellement, sinon plus. Le travail ne manquera donc pas.

Par ailleurs et en conséquence, le nombre des signaux reçus permettra de mieux préciser l'histoire et la composition de l'univers, faisant apparaître des paysages jusqu'ici mal compris, comme l'énergie noire considérée comme responsable de l'expansion actuelle du cosmos.

L'étude du signal proprement dit, concernant la fréquence et le volume des ondes, permettra par ailleurs de préciser la taille des trous noirs émetteurs, ainsi que la distance de l'évènement. Par comparaison avec les observations optiques, il sera possible d'évaluer le temps pris par les ondes pour nous parvenir, c'est-à-dire notamment l'effet de l'énergie noire sur la dilatation de l'espace.

Dans un autre domaine, il devrait être possible de soumettre la loi de la gravité à des tests approfondis, concernant par exemple d'éventuelles variations dans le temps ou dans l'espace de la façon dont elle se manifeste.

Lorsque la sensibilité des détecteurs sera encore améliorée, comme le font espérer les nouvelles générations d'interféromètres actuellement à l'étude, des ondes gravitationnelles de plus courte longueur d'onde pourront être observées, pouvant provenir des premiers instants de l'univers lors de l'inflation. Il s'agira des ondes gravitationnelles dites primordiales, beaucoup plus faciles à identifier de cette façon qu'en observant le fonds de ciel cosmologique - ce que on s'en souvient n'avait pas réussi à faire l'observatoire antarctique BICEP2.

Au delà de ces points, tout laisse penser que, comme toujours dans les sciences expérimentales, des évènements non encore envisageables pourront être suggérés par l'étude des ondes gravitationnelles, l'imagination des chercheurs n'ayant pas plus de limites que celles du cosmos.

17 février 2016 3 17 /02 /février /2016 18:39

A la poursuite des ondes gravitationnelles

Pierre Binétruy

Dunod (Quai des sciences)

3 juin
2015

Présentation Jean-Paul Baquiast
17/02/2016

Voir nos articles

* Ondes gravitationnelles et cosmologie quantique http://www.admiroutes.asso.fr/larevue/2016/166/ligo.htm

* Ligo. Choisir entre la science et les bombes
http://www.admiroutes.asso.fr/larevue/2016/166/edito3.htm

Sur l'auteur, voir page sur Paris Centre Cosmologie Physique
http://pariscosmo.in2p3.fr/fr/content/pierre-bin%C3%A9truy

Pierre Bénétruy est Directeur du PCCP, Directeur du Fonds de Dotation « Physique de l’Univers »

Il est professeur à l'Université Paris Diderot et a été directeur du laboratoire AstroParticule et Cosmologie ( APC ) à Paris depuis sa création en 2006 jusqu'en 2013. Après un doctorat au CERN , il a commencé sa carrière au LAPP à Annecy avant de rejoindre l'Université Paris 11 en tant que professeur en 1990 puis l'Université Paris Diderot en 2003 pour créer l’APC.

Ses principaux intérêts ont évolué de la physique des hautes énergies , notamment la supersymétrie , à la cosmologie et la gravitation, plus précisément l’interface entre l’étude de l'Univers primordial et les théories des interactions fondamentales . Ses intérêts actuels incluent les modèles d'inflation , l'énergie sombre et les fonds cosmologiques d'ondes gravitationnelles . Il est fortement impliqué dans la mission eLISA sur les ondes gravitationnelles , ainsi que membre du consortium Euclid.

Pierre Binétruy a été directeur du groupement de recherche européen " Supersymétrie " (1997-2004) , président du Fundamental Physics Advisory Group (2008-2010) et du Fundamental Physics Roadmap Committee (2009-2010) de l'ESA. Il est actuellement membre de l’European Space Science Committee, du Comité de Programme Scientifique (SPC) du Laboratoire National SLAC ( Stanford , Etats-Unis ) et du comité d'évaluation international (CVI ) de l'INFN .


Le livre comporte 9 chapitres, entre lesquels sont intercalés ce que l'auteur nomme des focus, lui permettant de prendre un peu de recul sur le sujet traité.
En résumant beaucoup, les thèmes en sont

- La théorie de la gravitation, depuis ses origines avec Galilée, puis Newton et Einstein avec le concept d'espace temps.

- La relativité générale et ses applications à l'expansion de l'univers et au Big bang

- L'observation actuelle du cosmos, astres, galaxies, matière sombre, depuiis l'époque di te la recombinaison ayant permis à la lumière de s distinguer de la matière.

- Les deux infinis, le vide quantique et le cosmos, avec l'antimatière et les hypothèses de la gravité quantique.

- Les premiers instants de l'univers, Big bang, inflation, recombinaison et la formation d'anitropopies, c'est-à-dire l'apparition de structures différentes, poussières, galaxies, détectées par les observations micro-ondes du fonds cosmologique; les dern,ires données en datea étant apportées par l'observatoire satellitaire européen Planck.

- L'énergie sombre et le vide quantique, qu'il est préférable comme le recommande l'auteur de nommer état fondamental, caractérisée par les fluctuations du vide, donnant naissance en permanence à des particules et anti-particules. Les plus nombreuses s'annihilent elles-mêmes, mais certaines peuvent donner naissance à de nouveaux univers.

- Les trous noirs, depuis les plus petits jusqu'aux trous noirs géant au centre des galaxies. L'auteur insiste sur le fait que ces trous noirs sont aussi riches et créateurs que les astres de matière et de lumière. Ils définissent un cosmos jusqu'ici peu soupconné, dont l'étude par les ondes gravitationneles sera aussi riche que celle permise par l'astronomie optique et radio.

- Les ondes gravitationnelles ou ondes de courbure de l'espace temps dues au big bang (ondes primordialles) ou à des masses en déplacement ou en interaction. Ces ondes se déplacent elles-aussi la vitesse de la lumière

- Les observatoires actuels permettant une étude de plus en plus précises d'ondes gravitationnelles de plus en plus anciennes. Les principaux de ces instruments sont les interféromètres. L'interféromètre américain Ligo vient d'entrer dans l'actualité mondiale. Il sera sans doute suivi de près par l'interféromètre européen Virgo, en attendant le grand interféromètre satellitaire prévu par l'ESA, dit eLISA.

- L'avenir du temps et de l'espace tels qui pourra être imaginé dans la suite de ces recherches.

Un index très complet, auquel il convient de se reférer pour préciser les thèmes évoqués, termine le livre.

On voir par cet examen rapide des tètes de chapitre, que la cosmologie faisant pratiquement intervenir tous les domaines de la physique, qu'elle soit macroscopique ou microscopique (quantique) , l'auteur a utilement décidé de débuter son livre par un résumé de l'évolution de cette science. Il s'agit de thèmes très souvent évoqués, tant dans les publications scientifiques que dans les ouvrages grand public. Nous y avons nous-mêmes sur ce site consacré un certain nombre d'articles. Mais ils ont fait l'objet de nombreuses approximations voire de détournement.

Souvent aussi, dans les publications destinées à des lecteurs généralistes, ils sont présentés de façon insuffisamment pédagogique. Ceci en fait, selon le terme de Churchill appliqué à l'ex URSS, des rebus enveloppés de mystères. Certains passages du livre exigent un minimum de culture scientifique, mais le lecteur ne disposant pas de celle-ci peut sans mal sauter les passages difficiles.

Au delà des préliminaires historiques, l'auteur se concentre sur les points qui vont et feront de plus en plus l'objet de recherches intensives. Nous avons insisté ci-dessus sur l'importance qu'il donne aux trous noirs. Ces astres, car il s'agit de véritables astres nous mettent théoriquement en leur coeur au contact d'un univers profondément différent de celui perçu par l'homme depuis l'origine des civilisations.

On les identifiera et étudiera de plus en plus car, en principe, ils émettent des ondes gravitationnelles d'une amplitude suffisante (l'amplitude de ces ondes est beaucoup plus faible que celle des ondes radio ou lumineuses) pour qu'elles soient détectables par des instruments bien plus sensible que ceux dont nous disposons en astronomie optique et radio, les interféromètres. dont la construction est projetée dans les 20 prochaines années.

Un mérite (entre autres) de ce livre, dont les compétences scientifiques de l'auteur sont impressionnantes, est de nous expliquer l'importance de la recherche des ondes gravitationnelles et de nous communiquer l'enthousiasme de ceux qui s'y adonnent. La détection des ondes gravitationnelles constitue un moyen complètement nouveau d'exploration de l'espace lointain qui devrait considérablement faire évoluer la connaissance de l'univers, de la physique en général et plus généralement de la philosophie et la politique de la science.

Commentaire

Au delà des questions scientifiques multiples abordées par l'auteur, nous voudrions ici revenir sur un sujet qu'il évoque, mais sur lequel il n'insiste peut-être pas assez. Il s'agit du rôle que les Européens pourraient jouer pour prendre une place dominante dans la course aux nouveaux savoirs qui découleront de l'amélioration notamment des interféromètres permettant d'étudier la nouvelle gravité.

L'Europe, par l'intermédiaire de l'ESA (Agence spatiale européenne) a développé un projet d'interféromètre spatial, intitulé eLISA qui une fois en service révolutionnera sans doute la façon dont nous percevons le cosmos. Il jouera probablement en astronomie gravitationnelle le même rôle qu'à joué la lunette de Galilée en astronomie optique, qui fut aux origines du Siècle des Lumières.

Pierre Binétruy, dans ce livre comme dans ses exposés ultérieurs, a eu le mérite de donner suffisamment de précision sur ce projet pour que l'on puisse au niveau politique et géopolitique commencer à en apercevoir la portée. Mais il fait plus. Il regrette que faute de financements adéquats, eLisa déjà citée n'entrera en service que dans les années 2030-2040 au mieux. Le temps que la communauté scientifique puisse en étudier convenablement les résultats, il faudra ajouter au moins une décennie.

Autrement dit la vision révolutionnaire du cosmos gravitationnel et plus généralement du cosmos qui pourra en découler devra attendre la mi 2100 pour être diffusée. Les citoyens qui ont atteint la cinquantaine n'en entendront jamais parler.

Ce dont aurait besoin l'ESA pour gagner de précieuses années sur ce délai serait de disposer dans la prochaine décennie de quelques milliards supplémentaires, milliards que son budget, étroitement contingenté par les Etats membres, ne lui fournira pas.

Or si l'on considère, comme le livre nous invite à le faire, que la nouvelle vision du cosmos découlant de l'étude des ondes gravitationnelles aura d'immenses conséquences, non seulement en physique mais dans le domaine des applications pratiques, telles qu'étudiées aujourd'hui notamment par la physique quantique, l'argument de la majorité des décideurs politiques selon lequel les dépenses évoquées seraient plus utiles dans le domaine de l'amélioration de la vie des individus que dans d'abstraites recherches cosmologiques, ne tient pas.

Il fait preuve en fait d'une effrayante ignorance, non seulement dans le domaine scientifique, mais en géopolitique. Cette ignorance, si elle ne disparait pas rapidement, ne permettra pas aux sociétés scientifiques de faire valoir leurs atouts au regard de tous les obscurantismes et guerres de religions qui semblent en train aujourd'hui de mener le monde à sa perte.

Ceci concerne en premier lieu l'avenir de l'Europe. Tout laisse penser actuellement que sa soumission librement consenties aux autres grandes puissances, notamment à l'Amérique de Wall Street et du Pentagone, la fasse rapidement disparaître des radars, malgré ses potentialités industrielles et scientifiques.

Or dans le domaine qui est au coeur de ce livre, le spatial, l'astronomie classique, l'astronomie gravitationnelle, elle avait toujours su, notamment d'une part grâce à ses universités, grâce d'autre part à l'ESA, se conserver un rôle majeur. Ceci est en train dedépéri sous la pression d'intérêts financiers et économiques principalement non-européens. Alors que les européens, en développant et protégeant convenablement leurs ressources propres, pourraient rapidement dégager des plus-values permettant de financer leurs sciences, ils laissent des acteurs financiers et politiques extérieurs leur imposer leur avenir.

Concernant plus particulièrement l'astronomie gravitationnelle, dont ce livre montre l'importance non seulement scientifique mais économique, l'Europe est en train de laisser perdre la position qu'elle avait su se ménager, face à une science américaine dotée d'infiniment plus de moyens. Il ne s'agirait pas de refuser la nécessaire coopération internationale indispensable dans ces domaines - lorsque le secret militaire ne l'interdit pas - mais de continuer à y jouer un rôle moteur. Espérons que ce livre sera lu par d'actuels ou futurs responsables politiques et électeurs européens, pour qu'ils en fassent une de leur priorités.

Mais cet espoir a toutes les chances d'être déçu, vu à la façon dont disparaît l'intérêt que les classes politiques européennes pouvaient sur le mode gaullien, éprouver précédemment pour les sciences.

14 février 2016 7 14 /02 /février /2016 13:54

Choisir entre LIGO et les décapitations.
Jean-Paul Baquiast, 14/02/2016

La détection des ondes gravitationnelles annoncée par la collaboration LIGO ne doit pas seulement être considérée comme un résultat scientifique. Elle montre le succès de certaines formes de sociétés humaines ayant permis cet exploit.

Il s'agit de sociétés comportant des humains acceptant de consacrer à une recherche scientifique sans applications immédiates, et ne générant aucun profit capitaliste, des ressources importantes de matière grise, de temps et aussi de moyens matériels.

Le détecteur LIGO (Laser Interferometer Gravitational-Wave Observatory) comme son homologue européen Virgo1) constituent semble-t-il, les instruments les plus précis jamais construits. Ils peuvent mesurer des ondulations dans l'espace temps se traduisant par des déplacement d'environ un atome entre les deux branches du détecteur.

Leur mise au point a résulté de recherches de plusieurs décennies dans les domaines des lasers, de la technologie du vide, de la séismologie et bien d'autres. De nouvelles mathématiques ont du être développées pour extraire le bruit d'un signal cosmologique noyé dans les multiples bruits provenant du détecteur et du milieu environnant. Des milliers de scientifiques et d'ingénieurs ont résolu tous les défis techniques et progressivement amélioré la sensibilité des détecteurs.

Ce travail se poursuit aujourd'hui, tant dans les interféromètres à terre que dans la mise au point des interféromètres satellitaires du projet eLISA. Tout laisse prévoir que les défis à résoudre seront encore plus grands.

De plus, comme ceci a été amplement souligné, la forme particulière du signal (voir image ci-dessus), correspond aux prévisions des équations de la relativité générale imaginée par Einstein pendant et peu après une première guerre mondiale, guerre ayant entrainé la mort de millions d'humains, parmi lesquels d'ailleurs des scientifiques ayant contribué indirectement aux découvertes d'Einstein. Ces équations ont permis d'attribuer avec précision le « bruit » de quelques fractions de seconde à la fusion finale de deux trous noirs de taille moyenne, soit une trentaine de masses solaires, formés par l'effondrement gravitationnel des deux étoiles ayant gravité en harmonie pendant sans doute plusieurs milliards d'années.

Comme souligné par les articles scientifiques, l'astronomie gravitationnelle prendra dans les prochaines années, sauf de nouvelles guerres destructrices, une importance sans doute supérieure à celle de l'astronomie optique et électromagnétique. Les ondes gravitationnelles primordiales, résultant d'un événement de bien plus grande ampleur, le Big Bang, pourront être enfin analysées , donnant de nouvelles lumières sur la nature de cet événement et son insertion dans un univers plus pluriel que le nôtre. Il en sera de même de l'étude de la matière noire, invisible aujourd'hui mais qui est le principal facteur de la formation des astres par condensation gravitationnelle de nuages de poussières galactiques antérieures.

Le matérialisme scientifique

Les formes de sociétés humaines capables de consacrer du temps et de l'enthousiasme à de telles recherches sont aussi celles qui refusent les conceptions religieuses du monde, selon lesquelles tout ce qui existe résulte de l'intervention d'un Dieu créateur lequel, par définition, sera à jamais connaissable. Elles refusent aussi toutes les mythologies et politiques prospérant dans l'irrationnel, dont les conséquences meurtrières sont de plus en plus visibles, sous la forme notamment aujourd'hui des combattants du djihad qui n'hésiteraient pas, profitant d'un moment d'inattention, à se faire sauter pour détruire un interféromètre, produit du diable.

Chacun des 7 milliards d'humains vivant aujourd'hui sur Terre sera rapidement capable, avec le progrès des communications et débats sur support numérique, de décider s'il veut se dégager de constructions mythologiques millénaires imposant de soumettre les esprits à la domination de religions, de sectes et d'intérêts matériels. Le feront-ils? On peut en douter, vu les disproportions entre le nombre de ceux qui se tournent vers les sciences pour progresser, et ceux qui préfèrent s'en remettre à la violence la plus primitive.

Mais la question doit aussi être posée aux humains qui, au sein des sociétés dites développées et riches, acceptent de consacrer aux dépenses militaires et aux guerres l'essentiel des ressources résultant de l'industrie et de la science. Combien d'interféromètres ou instruments analogues pourraient être financés par le budget militaire du Pentagone? Plus immédiatement, combien de technologies permettant de lutter contra la faim dans le monde, le réchauffement climatique et la destruction des espèces vivantes pourraient être financées par des budgets comparables.

Or dans nos sociétés dites riches si fières de leurs capacités scientifiques, le citoyen de la base est-il en présence, lors des élections notamment, de partis et candidats leur donnant à choisir réellement entre la science désintéressée ou le profit et la guerre ? Certainement pas.

De tels candidats, s'il s'en trouvaient, seraient vite éliminés par les représentants du 1% d'hyper-riches et d'hyper-puissants qui mènent le monde. Le citoyen de la base, pour sa part, renonce à l'idée même de s'opposer à eux, fasciné qu'il est par le clinquant dont s'entourent ce 1%. Plutôt que s'identifier aux scientifiques de LIGO et Virgo, il se croit obligé de s'identifier aux « personnalités » du monde médiatiques, quand ce n'est pas, plus directement, aux chefs de guerre, décapiteurs et massacreurs divers.

Sources

1) LIGO voir http://journals.aps.org/prl/abstract/10.1103/PhysRevLett.116.061102#fulltext

2) Virgo. Nommé ainsi par référence à un amas galactique géant dans la constellation Virgo. Voir https://en.wikipedia.org/wiki/Virgo_interferometer

15 janvier 2016 5 15 /01 /janvier /2016 11:49

Cette rédaction annule et remplace la précédente publiée 15/01/2016

Le Pr Roland Omnès est un grand physicien français, spécialiste en mécanique quantique (physique quantique). Il a bien voulu répondre à quelques questions pour nos lecteurs.

Pour en savoir plus sur Roland Omnès
Bibliographie. Ouvrages.

* Wikipedia (article en français)
https://fr.wikipedia.org/wiki/Roland_Omn%C3%A8s

* Wikipedia (article en anglais, fortement conseillé)
https://en.wikipedia.org/wiki/Roland_Omn%C3%A8s

* Présentation de quelques ouvrages sur le site Odile Jacob
http://www.odilejacob.fr/catalogue/auteurs/roland-omnes/

Introduction.
JPB pour A
I. Cher Roland Omnes, merci de prendre le temps de répondre à quelques questions pour l'information de nos lecteurs. Nous en sommes d'autant plus heureux que vous êtes un des premiers, sinon le premier des spécialistes français de la mécanique quantique. Vous êtes mondialement consulté.

Roland Omnès RO: Etre "mondialement connu" est très loin de mon fait. Il en va de même pour être "le premier spécialiste français de la mécanique quantique". C'est trop d'honneur ou trop d'erreur, pourrait-on dire (si vous voulez bien le pardonner).
Il m'arrive parfois de dire plutôt que le nom que je porte (Omnès, ou Omnes) est bienvenu : C'est un nom breton d'origine incertaine (peut-être donné par des moines en fonction d'un office du jour). Vous savez qu'il signifie "tous" en latin et n'est donc pas loin de "tout le monde" ou "n'importe qui". C'est un nom merveilleux pour se sentir philosophe ou mathématicien, comme d'être placé au point quelconque ou d'être la droite quelconque. Mais c'est sans importance.

JPB. Vos recherches récentes sont trop complexes pour attirer d'emblée l'attention de scientifiques ou enseignants non physiciens, mais elles ouvrent différentes perspectives qui mériteraient d'être dès maintenant connues de ceux-ci. La première question à laquelle je vous propose de répondre, si vous le voulez bien, serait de résumer l'objet actuel de vos travaux, en les situant dans l'état actuel des points de vue admis par la communauté scientifique concernant la physique quantique

RO. Je résume: Toutes les difficultés d'interprétation de la mécanique quantique proviennent de ce qu'on appelle "enchevêtrement", comme Schrödinger, d'une part, et Einstein, Podolsky et Rosen d'autre part l'ont montré dès 1935.

Or en 1974, deux théoriciens, Lieb et Robinson 1), ont trouvé qu'il existe un raffinement local dans cet enchevêtrement. Le mot "local" est essentiel. Il signifie que l'enchevêtrement n'est pas toujours absolu et total, comme on le rencontre dans les expériences où deux atomes, ou deux photons, ou un peu plus de deux sont enchevêtrés. L'enchevêtrement "local" est spécifique à des cas où l'un de deux systèmes enchevêtrés est macroscopique, c'est-à-dire constitué d'un nombre énorme (mais fini) d'atomes.

On n'a tiré que peu de conséquences de ce fait dans les fondements de la mécanique quantique (pour autant que je sache), si bien que l'enchevêtrement local est relativement peu connu dans ce domaine et que je l'ai "redécouvert" vers 2011 dans ce cadre.Je ne peux l'expliquer ici, sinon dire qu'on peut déduire cet effet de la fameuse équation de Schrödinger, qu'il est contenu dans l'histoire de la fonction d'onde (l'ensemble de ses valeurs au cours du temps), mais qu'il est insaisissable dans n'importe quelle de ses valeurs instantanées. Il est irréversible (ordonné dans le temps) et ceci est très important. Je l'appelle "intrication" , et non "enchevêtrement local" comme Lieb et Robinson le faisaient, pour des raisons de logique dans lesquelles il vaut mieux ne pas entrer.

Il se trouve (et là aussi, je ne peux pas entrer dans les détails) que cette intrication peut prendre la forme d'une incohérence dans les fonctions d'onde, quand on l'applique à l'enchevêtrement d'un système macroscopique avec ce qui l'environne. Mais ceci est un des points essentiels nouveaux que je soumet pour critique à la collectivité scientifique. La conséquence la plus surprenante (si surprenante qu'elle peut paraître hérétique) est qu'alors le fameux "collapse" (ou effondrement, le passage à l'unicité, la déconstruction) de la fonction d'onde résulterait de ces deux effets conjugués de l'intrication et l'incohérence. C'est trop important, potentiellement, pour ne pas souligner d'un trait épais qu'il y a des conjectures dans certains des arguments. Tout reste à vraiment démontrer et l'ours est très loin d'être tué.

JPB. Quand avez vous jugé bon d'entreprendre la tâche considérable consistant à mener à bien ce travail? Quel lectorat visez vous, théoriciens, praticiens voire industriels? Quelles réactions ou suites en espérez vous, au plan théorique ou pratique ?

RO. Je suis venu un jour à ces questions en me demandant: Que faire maintenant ? Quelle réflexion entreprendre sur un sujet assez beau pour ne pas s'altérer par ma réflexion et rester inchangé après moi ? Sur quoi méditer, en somme ? Quant au lectorat, je n'y ai pas songé. Pour le texte actuel, il s'agit de spécialistes, de collègues en somme, avec qui on est franc et direct et qui ne le sont pas moins. Quant à écrire, on verra, ou on ne verra rien si je me suis trompé. De toute manière je n'attends pour ma part rien de spécial et j'aime bien Pascal (Le "moi" est haïssable) en de telles matières.

JPB. Vous abordez, entre autres questions, celle de la résolution de la fonction d'onde ou décohérence et celle de l'intrication. Les lecteurs de notre site sont assez informés pour savoir que ces questions, au plan pratique, posent des problèmes de très grande portée, par exemple dans le domaine des futurs ordinateurs quantiques. Quels sont vos pronostics à cet égard?

RO. Un jour, dans un congrès, un physicien proposait une conjecture, qu' il assurait n'avoir qu'une probabilité d'un cent-milliardième d'être fausse. Steven Weinberg (plus tard lauréat du Prix Nobel) sortit alors une dime de sa poche et dit : "Je prends le pari ! " J'étais parmi les spectateurs et l'anecdote me revient parfois en mémoire quand le mot "pronostic" est employé. Celui que vous me demandez me laisse rêveur et je plaide une incompétence assumée.

JPB. Nous avons beaucoup échangé sur ce site avec Mme Mioara Mugur-Shächter. Ses travaux paraissent importants, notamment sur le plan méthodologique. Qu'en pensez vous?

RO. J'ai du respect pour la personne et les travaux de Mme Mugur-Shächter, mais ils ont peu de recoupement avec les miens.

JPB. Au delà du champ strict de la mécanique quantique, notre attention a été ici attirée par de nombreuses recherches cherchant à identifier dans le cosmos des processus déterminés par la mécanique quantique. Ainsi, nous venons de faire référence à des hypothèses concernant, à travers celles de la gravitation quantique à boucles, la possibilité qu'au sein des trous noirs s'opèrent par effet tunnel la transformation du trou noir en trou blanc, c'est-à-dire en ré-émetteur de matière/énergie. Que pensez vous, très globalement, de ces approches cosmologiques?
Plus généralement, attachez vous de l'intérêt aux hypothèses comme celles de Seth Lloyd, selon lesquelles l'univers serait fondamentalement quantique?

RO. J'aime beaucoup Seth Lloyd. Il est brillant et passionnant. Il fait rêver et certains rêves deviennent parfois vrais. Je lui souhaite que ce soit le cas pour les siens.Quant à la cosmologie, if fut un temps où elle m'a passionné activement et où j'ai eu le bonheur de collaborer à ce sujet avec Evry Schatzmann, vers 1970. Nous avions une belle théorie, mais elle était prédictive et les observations l'ont rejetée. C'est très instructif pour apprendre ce qu'est la science. A présent, la cosmologie passionne toujours en moi le spectateur et l'admirateur des résultats nouveaux et profonds, provenant parfois de mes anciens élèves que j'admire.

Quant aux hypothèses autour, elles sont multiples, souvent fascinantes, pas toujours très crédibles aussi. Ainsi, vous m'apprenez que des trous noirs pourraient devenir des trous blancs. Je l'ignorais et n'ai pas d'opinion là-dessus, sinon le souvenir d'une intervention d'un de mes élèves (Xavier Artru) lors d'un séminaire que je faisais (jadis) sur des sujets voisins : "Ces trous noirs, c'est troublant", dit-il. On l'a répété depuis.

JPB. A une toute autre échelle du réel, de plus en plus de biologistes croient pouvoir observer, dans certains organes sensoriels ou même du cerveau, des mécanismes faisant appel, ne fut-ce que très brièvement, à des phénomènes de maintien de cohérence permettant l'équivalent de calculs quantiques par le vivant. Que pensez vous de ces voies de recherche? Et que pensez vous du travail de JohnJoe McFadden?

RO. Permettez-moi de plaider l'incompétence.


JPB. Finalement, quel « message » suggéreriez vous concernant l'avenir de la mécanique quantique et des formes qu'elle adoptera?

RO. Je ne suis pas devin, mais j'admire : Tout souffle, tout rayon, ou propice ou fatal... (voir Victor Hugo pour la suite)

1) NDLR. Lieb et Robinson. Wikipedia

12 janvier 2016 2 12 /01 /janvier /2016 16:31


Mécanique quantique. Décohérence. Intrication
12/01/2016

Le Pr Roland Omnès est un grand physicien français, spécialiste en mécanique quantique (physique quantique). Il a bien voulu répondre à quelques questions pour nos lecteurs.

Pour en savoir plus sur Roland Omnès
Bibliographie. Ouvrages.

* Wikipedia (article en français)
https://fr.wikipedia.org/wiki/Roland_Omn%C3%A8s

* Wikipedia (article en anglais, fortement conseillé)
https://en.wikipedia.org/wiki/Roland_Omn%C3%A8s

* Présentation de quelques ouvrages sur le site Odile Jacob
http://www.odilejacob.fr/catalogue/auteurs/roland-omnes/

Introduction.
JPB pour A
I. Cher Roland Omnes, merci de prendre le temps de répondre à quelques questions pour l'information de nos lecteurs. Nous en sommes d'autant plus heureux que vous êtes un des premiers, sinon le premier des spécialistes français de la mécanique quantique. Vous êtes mondialement consulté. L'occasion de cet entretien nous est donné par la lecture d'un article que vous venez de publier à l'adresse http://arxiv.org/abs/1601.01214

Roland Omnès RO: Etre "mondialement connu" est très loin de mon fait. Il en va de même pour être "le premier spécialiste français de la mécanique quantique". C'est trop d'honneur ou trop d'erreur, pourrait-on dire (si vous voulez bien le pardonner).
Il m'arrive parfois de dire plutôt que le nom que je porte (Omnès, ou Omnes) est bienvenu : C'est un nom breton d'origine incertaine (peut-être donné par des moines en fonction d'un office du jour). Vous savez qu'il signifie "tous" en latin et n'est donc pas loin de "tout le monde" ou "n'importe qui". C'est un nom merveilleux pour se sentir philosophe ou mathématicien, comme d'être placé au point quelconque ou d'être la droite quelconque. Mais c'est sans importance.

JPB. Votre article est trop complexe pour attirer d'emblée l'attention de scientifiques ou enseignants non physiciens, mais il ouvre différentes perspectives qui mériteraient d'être dès maintenant connues de ceux-ci. La première question à laquelle je vous propose de répondre, si vous le voulez bien, serait de résumer en quelques pages le contenu de cet article tout en le situant dans l'état actuel des points de vue admis par la communauté scientifique concernant la physique quantique

RO. Pardonnez-moi de ne pouvoir le faire. L'article que je viens de terminer est déjà un résumé sur bien des points. Il compte 36 pages denses et fait pratiquement l'impasse sur toute comparaison avec des propositions antérieures, hormis pour signaler les emprunts qui leur sont faits.

Quant au point de vue qu'il présente, il paraît très simple et je le résume :
Toutes les difficultés d'interprétation de la mécanique quantique proviennent de ce qu'on appelle "enchevêtrement", comme Schrödinger, d'une part, et Einstein, Podolsky et Rosen d'autre part l'ont montré dès 1935.

Or en 1974, deux théoriciens, Lieb et Robinson (voir leurs initiales dans la biblio de mon papier), ont trouvé qu'il existe un raffinement local dans cet enchevêtrement. Le mot "local" est essentiel. Il signifie que l'enchevêtrement n'est pas toujours absolu et total, comme on le rencontre dans les expériences où deux atomes, ou deux photons, ou un peu plus de deux sont enchevêtrés. L'enchevêtrement "local" est spécifique à des cas où l'un de deux systèmes enchevêtrés est macroscopique, c'est-à-dire constitué d'un nombre énorme (mais fini) d'atomes.

On n'a tiré que peu de conséquences de ce fait dans les fondements de la mécanique quantique (pour autant que je sache), si bien que l'enchevêtrement local est relativement peu connu dans ce domaine et que je l'ai "redécouvert" vers 2011 dans ce cadre.Je ne peux l'expliquer ici, sinon dire qu'on peut déduire cet effet de la fameuse équation de Schrödinger, qu'il est contenu dans l'histoire de la fonction d'onde (l'ensemble de ses valeurs au cours du temps), mais qu'il est insaisissable dans n'importe quelle de ses valeurs instantanées. Il est irréversible (ordonné dans le temps) et ceci est très important. Je l'appelle "intrication" dans mon papier, et non "enchevêtrement local" comme Lieb et Robinson le faisaient, pour des raisons de logique dans lesquelles il vaut mieux ne pas entrer.

Il se trouve (et là aussi, je ne peux pas entrer dans les détails) que cette intrication peut prendre la forme d'une incohérence dans les fonctions d'onde, quand on l'applique à l'enchevêtrement d'un système macroscopique avec ce qui l'environne. Mais ceci est un des points essentiels nouveaux que l'article soumet pour critique à la collectivité scientifique.La conséquence la plus surprenante (si surprenante qu'elle peut paraître hérétique) est qu'alors le fameux "collapse" (ou effondrement, le passage à l'unicité, la déconstruction) de la fonction d'onde résulterait de ces deux effets conjugués de l'intrication et l'incohérence. C'est trop important, potentiellement, pour ne pas souligner d'un trait épais qu'il y a des conjectures dans certains des arguments. Tout reste à vraiment démontrer et l'ours est très loin d'être tué.

JPB. Quand avez vous jugé bon d'entreprendre la tâche considérable consistant à mener à bien ce travail? Quel lectorat visez vous, théoriciens, praticiens voire industriels? Quelles réactions ou suites en espérez vous, au plan théorique ou pratique ?

RO. Je suis venu un jour à ces questions en me demandant: Que faire maintenant ? Quelle réflexion entreprendre sur un sujet assez beau pour ne pas s'altérer par ma réflexion et rester inchangé après moi ? Sur quoi méditer, en somme ? Quant au lectorat, je n'y ai pas songé. Pour le texte actuel, il s'agit de spécialistes, de collègues en somme, avec qui on est franc et direct et qui ne le sont pas moins. Quant à écrire, on verra, ou on ne verra rien si je me suis trompé. De toute manière je n'attends pour ma part rien de spécial et j'aime bien Pascal (Le "moi" est haïssable) en de telles matières.

JPB. Vous abordez dans l'article, entre autres questions, celle de la résolution de la fonction d'onde ou décohérence et celle de l'intrication. Les lecteurs de notre site sont assez informés pour savoir que ces questions, au plan pratique, posent des problèmes de très grande portée, par exemple dans le domaine des futurs ordinateurs quantiques. Quels sont vos pronostics à cet égard?

RO. Un jour, dans un congrès, un physicien proposait une conjecture, qu' il assurait n'avoir qu'une probabilité d'un cent-milliardième d'être fausse. Steven Weinberg (plus tard lauréat du Prix Nobel) sortit alors une dime de sa poche et dit : "Je prends le pari ! " J'étais parmi les spectateurs et l'anecdote me revient parfois en mémoire quand le mot "pronostic" est employé. Celui que vous me demandez me laisse rêveur et je plaide une incompétence assumée.

JPB. Nous avons beaucoup échangé sur ce site avec Mme Mioara Mugur-Shächter. Ses travaux paraissent importants, notamment sur le plan méthodologique. Qu'en pensez vous?

RO. J'ai du respect pour la personne et les travaux de Mme Mugur-Shächter, mais ils ont peu de recoupement avec les miens.

JPB. Au delà du champ strict de la mécanique quantique, notre attention a été ici attirée par de nombreuses recherches cherchant à identifier dans le cosmos des processus déterminés par la mécanique quantique. Ainsi, nous venons de faire référence à des hypothèses concernant, à travers celles de la gravitation quantique à boucles, la possibilité qu'au sein des trous noirs s'opèrent par effet tunnel la transformation du trou noir en trou blanc, c'est-à-dire en ré-émetteur de matière/énergie. Que pensez vous, très globalement, de ces approches cosmologiques?
Plus généralement, attachez vous de l'intérêt aux hypothèses comme celles de Seth Lloyd, selon lesquelles l'univers serait fondamentalement quantique?

RO. J'aime beaucoup Seth Lloyd. Il est brillant et passionnant. Il fait rêver et certains rêves deviennent parfois vrais. Je lui souhaite que ce soit le cas pour les siens.Quant à la cosmologie, if fut un temps où elle m'a passionné activement et où j'ai eu le bonheur de collaborer à ce sujet avec Evry Schatzmann, vers 1970. Nous avions une belle théorie, mais elle était prédictive et les observations l'ont rejetée. C'est très instructif pour apprendre ce qu'est la science. A présent, la cosmologie passionne toujours en moi le spectateur et l'admirateur des résultats nouveaux et profonds, provenant parfois de mes anciens élèves que j'admire.

Quant aux hypothèses autour, elles sont multiples, souvent fascinantes, pas toujours très crédibles aussi. Ainsi, vous m'apprenez que des trous noirs pourraient devenir des trous blancs. Je l'ignorais et n'ai pas d'opinion là-dessus, sinon le souvenir d'une intervention d'un de mes élèves (Xavier Artru) lors d'un séminaire que je faisais (jadis) sur des sujets voisins : "Ces trous noirs, c'est troublant", dit-il. On l'a répété depuis.

JPB. A une toute autre échelle du réel, de plus en plus de biologistes croient pouvoir observer, dans certains organes sensoriels ou même du cerveau, des mécanismes faisant appel, ne fut-ce que très brièvement, à des phénomènes de maintien de cohérence permettant l'équivalent de calculs quantiques par le vivant. Que pensez vous de ces voies de recherche? Et que pensez vous du travail de JohnJoe McFadden?

RO. Permettez-moi de plaider l'incompétence.


JPB. Finalement, quel « message » suggéreriez vous concernant l'avenir de la mécanique quantique et des formes qu'elle adoptera?

RO. Je ne suis pas devin, mais j'admire : Tout souffle, tout rayon, ou propice ou fatal... (voir Victor Hugo pour la suite)

11 janvier 2016 1 11 /01 /janvier /2016 15:51


Présentation
Jean-Paul Baquiast
11/01/2016

Aurélien Barrau est Enseignant-chercheur
Professeur à l'UGA,Communauté Université Grenoble Alpes
membre honoraire de l'IUF Institut Universitaire de France

Laboratoire de Physique Subatomique et de Cosmologie (CNRS-IN2P3)
F-38026 Grenoble

Page personnelle

Présentation du livre par l'éditeur

Notre Univers a-t-il un début ? Est-il unique ? La science moderne a révolutionné notre compréhension de l’Univers. Bien que l’étude du cosmossoit sans doute aussi ancienne que la pensée, notre image du réel est en ce moment même en train de se redessiner. Il est maintenant possible de connaître certains aspects des processus qui eurent lieu moins d’un milliardième de milliardième de milliardième de seconde après le Big Bang.
À la lumière des dernières découvertes du satellite Planck, Aurélien Barrau décrit en termes simples le cosmos qui se dessine sous nos yeux. Trous noirs, modèle standard de la physique des particules,
gravité… les piliers et les énigmes du Big Bang sont abordés les uns après les autres, à la manière d’une balade aux origines de l’Univers.
« Parce que la science est avant tout une aventure humaine, j’ai esquissé, ici et là, en contrepoint des explications physiques fournies dans la langue la plus simple
et la plus accessible possible, mon expérience et mes ressentis. J’ai parfois même fait part de mes convictions et révoltes personn
elles. »

Aurélien Barrau est un physicien et un cosmologiste dont les compétences dans les domaines les plus vastes de ces disciplines, qu'elles soient théoriques ou observationnelles, sont impressionnantes. Comme il le précise dans sa page personnelle, elles couvrent au plan théorique : cosmologie, phénoménologie de la gravité quantique, diffusion des particules dans la Galaxie, trous noirs, théorie des champs en espace courbe. Au plan expérimental, il s'agit d'astronomie grand champ, de matière noire et d'énergie noire, du rayonnement cosmique, de l'astronomie gamma. Il a participé personnellement et autres autres aux équipes chargées de la réalisation et de l'exploitation du satellite Planck, merveille de l'astrophysique européenne. Il trouve aussi le temps d'être enseignant dans ces divers domaines

.Nous avons présenté plusieurs fois Aurélien Barrau sur ce site, ainsi que quelque uns de ces livres, car il écrit aussi beaucoup, non seulement dans des revues scientifiques, mais à destination du grand public.1)

Il se trouve que, ce même mois de janvier 2016, les Editions Dunod viennent de rendre disponible un ouvrage de Aurélien Barrau, réédition considérablement augmentée et mise à jour, de « Big Bang et au delà, les nouveaux horizons de l'univers ». publié en 2013. Cette réédition ne tient cependant pas compte, sauf par allusions aux recherches mentionnée par notre article de ce mois. Il n'y a rien d'étonnant en cela, vu les délais imposés par l'édition.

Présentation

Le livre comporte 10 chapitres, depuis la question initiale:" Peut-on comprendre l'Univers? jusqu'à la question finale, "Le multivers". En 150 pages, on y trouve tout ce qu'il faut savoir, si l'on veut se donner une connaissance convenablement informée, de l'origine et du devenir de l'univers. Ces thèmes sont très souvent abordés, non seulement dans des articles scientifiques, mais dans des ouvrages, films et séries télévisées destinés au grand public. Sans être sévère, on peut en dire que l'on trouve dans les medias beaucoup d'approximations et erreurs scientifiques. D'où l'intérêt d'un ouvrage lui même destiné à des lecteurs généralistes, qui fasse le point en 160 pages de l'état des connaissances et hypothèses sur ces questions.

Le livre présente par ailleurs, comme les précédents, de nombreuses références à la philosophie, la littérature et la création artistique, montrant pour qui en douterait l'étroite parenté qui existe entre la cosmologie et les différents domaines de la création. L'auteurpossède tous les titres pour en discuter car sa culture et ses relations sociales l'ont mis en contact avec la plupart de ces oeuvres de l'esprit et beaucoup de leurs auteurs. A ces références, il ajoute de nombreuses considérations personnelles, sur la science, sur la recherche scientifique, l'enseignement et des pratiques sociales quotidiennes, notamment celles qu'il abhorre personnellement, en tant que défenseur des animaux et de leurs droits.

Il résulte de tout ceci que les passages consacrés à la cosmologie, bien que faisant l'essentiel du livre, sont présentés de façon extrêmement synthétique 3). Pour bien les comprendre, il faut disposer d'une base de connaissances scientifiques dont nos lecteurs, sur ce site, sont certainement dotés, mais que beaucoup de lecteurs du livre n'auront pas nécessairement. Ils devront donc se référer sur tous les points difficiles, à défaut d'autressources, à l'encyclopédie en ligne Wikipedia, comme nous le faisons nous mêmes constamment dans nos articles.

Commentaires

Ce serait une erreur de penser que ce livre se borne à rassembler une synthèse des connaissances disponibles dans d'autres ouvrages au sujet du Big Bang, de ses suites, notamment l'inflation, et des « évènements l'ayant précédé », si l'on peut employer cette formulation simplificatrice. Chaque chapitre ou presque présente des considérations originales ou mal connues, dont certaines découlent directement des recherches de l'auteur.

Ainsi p. 21 et 22, les méthodes utilisées par lui et des collègues pour préciser l'étude des rayons gamma à partir des flash de lumière bleue, dite lumière Cherenkov, que ceux ci produisent quand ils percutent l'atmosphère terrestre De même, p.24, les modalités d'interaction des ondes gamma avec les ondes infrarouges et ce qu'elles révèlent concernant la formation des galaxies primitives Ou bien, p. 26, Aurélien Barrau évoque les recherches qu'il a menées avec le détecteur de rayons cosmiques AMS placé sur la Station Spatiale Internationale

Concernant les trous noirs il nous rapporte (p.76) qu'il s'est consacré à leur étude non seulement pour les comprendre dans le cadre de la relativité générale, mais dans le cadre de modèles dits de la relativité étendue, ainsi que de théories modernes de la physique des particules, montrant que certaines instabilités connues en physique des trous noirs peuvent être décrites sans faire appel à des paramètres tendant vers l'infini.

Concernant l'énergie noire, il présente les conclusions des nombreuses années de recherche qu'il y a consacrées. Celle-ci lui permettent aujourd'hui de participer à la mise au point du grand télescope LSST (Large Synoptic Survey Téléscope.) Celui-ci devrait dans quelques années présenter des vues panoramiques du ciel bien plus étendues que celles obtenues par les grands télescopes actuels, VLT ou Keck. Dans ce projet il a pris la responsabilité du banc de test et d'étalonnage de la caméra du LSST, qui sera la plus complexe de celles construites à ce jour. Compte tenu de l'importance du projet et des nombreuses équipes qui y travaillent, on mesure l'importance de son rôle.

Concernant enfin la réalisation et l'exploitation du satellite européen Planck, entré en service en 2013 et consacré à de nouvelles analyses du fond de rayonnement fossile, l'auteur montre bien que ces résultats confirment dans l'ensemble en les précisant les résultats déjà fournis par les prédécesseurs américains COBE et WMAP. Mais il montre aussi que certains « détails » confirment la théorie de l'inflation cosmologique et permettent par exemple de préciser l'époque de l'allumage des étoiles. Il rapporte également certaines anomalies récemment observées dans la répartition du fonds de ciel selon les hémisphères et l'existence d'une vaste zone froide. Certains cosmologistes y voient l'indice d'une rencontre avec un autre univers (voir notre article du 15/12/2015 ) mais Aurélien Bareau ne s'étend pas sur ce point, peut-être du fait que la date d'édition du livre ne lui a pas permis d'évoquer des conjectures trop récentes.

Le livre se termine par l'évocation des deux grandes théories actuelles intéressant la gravitation quantique, c'est-à-dire une synthèse entre la physique relativiste et la physique quantique. Il s'agit, comme nos lecteurs le savent certainement depuis longtemps, de la gravitation quantique à boucles et de la théorie des Cordes. Bien qu'il ait très récemment avec Carlo Rovelli proposé une application de la première dans le cas du possible passage d'un trou noir en trou blanc, il continue à porter le plus grand intérêt à la théorie des Cordes., dite parfois aussi théorie du Tout.

Celle-ci est souvent décrédibilisée par le fait qu'elle évoque la possibilité d'apparition d'un nombre astronomique d'univers, hypothèse non testable pour le moment. Mais Aurélien Barrau, fervent défenseur de l'hypothèse des univers multiples ou plus exactement du multivers, continue à y trouver matière à d'innombrables réflexions, tant d'un point de vue scientifique que philosophique.

L'hypothèse du multivers nous pose évidemment des problèmes considérables, dans le cadre de notre conception traditionnelle du monde. Mais celle-ci se fonde indubitablement sur les images limitées que nous nous donnons de l'univers et de ses origines, Big Bang et/ou Big Crunch. Avec le multivers, nous sommes obligés d'affronter des questions cruciales, non seulement sur le cosmos, mais sur notre cerveau lui-même, qui en construit des représentations ( Voir la deuxième partie de notre article précité « l'univers est-il unique ? )

Pour Aurélien Barrau, la question du multivers ne doit pas être abordée de façon anecdotique. Elle obligera sans doute l'espèce humaine à revoir radicalement la façon dont elle se représente le monde où elle vit. Ceci notamment en incluant les concepts d'univers dépourvus de temps et d'espace tels que définis non seulement par les équations relativistes mais par notre pratique quotidienne. D'ores et déjà la mécanique quantique le fait et nous utilisons un grand nombre d'instruments divers exploitant par exemple le concept de q.bit. Il faudra sans doute nécessairement, à en croire Aurélien Barrau, faire de même à l'échelle plus large de la cosmologie.

Le cerveau, comme nous l'évoquons dans l'article précité, pourra-t-il
nous permettre cet exploit un jour? Pourquoi pas, si grâce au progrès des sciences, il s'entraine à le faire, y compris dans la vie quotidienne? Les primates issus de la forêt du tertiaire ont bien fini par découvrir la mécanique quantique évoquée ci-dessus. Dans ce cas, Aurélien Barrau, avec les quelques collègues qui comme lui explorent la question du multivers, auront entrebâillé des portes bien plus importantes encore que celles ouvertes par les philosophes grecs du 6e siècle avant JC.

Notes

1) Voir notamment
* en octobre 2007
* en décembre 2014
* en ce mois de janvier 2016, nous venons de résumer les hypothèses qu'il vient tout récemment de formuler avec Carlo Rovelli concernant la possible transformation d'un trou noir en trou blanc, autrement dit réémetteur de matière et d'énergie une fois atteint un certain degré de densité. Ces hypothèses s'appuient sur les versions les plus récentes de la gravitation quantique à boucles, dont désormais Carlo Rovelli s'est fait le théoricien mondial le plus consulté.

2) AMS Spectromètre Magnétique Alpha, voir wikipedia

3) Par exemple cette phrase, p.77. « j'ai passé un certain temps à étudier ces modèles, dits de gravitation étendue, où le lagrangien était un peu plus compliqué que celui d'Einstein-Hilbert. Ils ne contredisent pas la relativité mais ils la complètent ». Ou bien, p. 85 « schématiquement, il est possible de considérer que l'interaction nucléaire faible est construite pour être invariante en tournant dans un espace dont les axes seraient l'électron et le neutrino ».
Ceci dit notre propos n'est pas un reproche mais un constat. On ne peut pas demander à un scientifique d'expliquer tous les termes qu'il utilise, sauf à construire une encyclopédie.

4) On observera, mais ce n'est pas un argument suffisamment déterminant, que Lee Smolin vient de se convaincre du caractère irréductible du Temps. comme rapporté dans notre article de décembre 2014 .

8 janvier 2016 5 08 /01 /janvier /2016 16:14

Jean-Paul Baquiast 08/01/2016

Image: NewScientist

Un article de Stuart Clarck, « Quantum Bounce » publié par le NewScientist du 2 janvier 2016, p. 32, présente des hypothèses nouvelles concernant les trous noirs et leur devenir. Nos lecteurs s'intéresseront particulièrement à ces hypothèses, car deux cosmologistes qu'ils connaissent bien notamment par leurs interventions sur ce site, y jouent un rôle très important. Il s'agit de Carlo Rovelli, de la faculté d'Aix Marseille, et de Aurélien Barrau, de la faculté de Grenoble.

En simplifiant la question, nous pouvons dire que leurs travaux, menés conjointement avec ceux d'autres théoriciens tel Hal Haggard du Bard College à New York, posent la question de savoir si en conjuguant théorie de la relativité générale et physique quantique, il ne serait pas possible d'éclairer la nature et le devenir des trous noirs. Ceux-ci, dont l'existence n'est plus discutée, posent une question insoluble dans la cadre de la relativité générale: que deviennent-ils lorsque après avoir capturé un nombre immense de particules, leur densité et la force gravitationnelle qui y règne deviennent telles que les lois de la physique, s'appliquant à notre univers, cessent de pouvoir s'exercer dans leur cas? .Les théoriciens avaient nommé l'état atteint par eux une Singularité, terme qui n'a aucun intérêt en pratique puisqu'il décourage toute recherche ultérieure à ce sujet. Autant parler de mystère divin.

Le concept de Singularité présente cependant un intérêt, puisqu'il est utilisé pour désigner l'état préexistant au Big Bang, état dont serait issu notre univers. Mais il n'éclaire pas plus les questions relatives à l'origine du Bang Bang que celles relatives à l'origine ou au destin final des trous noirs. Dans les hypothèses dites des univers successifs, il est possible de supposer qu'un univers précédant le Big Bang aurait pu à la fin de sa vie se concentrer au point de former un état extrêmement dense (big crunch) dont aurait pu surgir notre propre univers. C'est l'hypothèse du rebond. Dans cette perspective, on peut imaginer que tous les trous noirs observés par nous pourraient à la fin de leur évolution donner naissance par rebond à des bébés-univers, participant d'un multivers que nous n'aurions en principe aucune possibilité d'observer. Encore faudrait-il préciser le mécanisme générateur.

La gravitation quantique à boucle

L'originalité de l'hypothèse formulée par Carlo Rovelli et ses collègues est qu'elle tente une synthèse entre ces deux grands domaines de la physique encore inconciliables, la physique einsténienne et la physique quantique. Carlo Rovelli, un moment associé avec le cosmologiste américain Lee Smolin également souvent cité sur ce site, a imaginé une synthèse entre gravitation et mécanique quantique qu'il a nommé gravitation quantique à boucles. Celle-ci, bien plus qu'un autre type de gravitation quantique dite Théorie des Cordes, pourrait résoudre, y compris un jour expérimentalement, la question de savoir ce qu'il advient du temps et de l'espace einsténiens quand ils atteignent des niveaux extrêmes de concentration. Dans l'hypothèse de la gravitation quantique à boucles, l'espace-temps serait fait de boucles très petites et enchevêtrées. Celles-ci n'apparaissent pas à un observateur éloigné, mais elles constituent des quanta d'un espace-temps ultime, ne pouvant pas être divisées davantage afin de former des éléments encore plus petits. Elles obéissent alors aux lois de la physique quantique.

Carlo Rovelli et Hal Haggard ont étendu en 2014 cette hypothèse à ce qui pourrait se passer à l'intérieur d'un trou noir parvenu à des degrés ultimes de concentration. Au lieu de disparaitre de notre monde physique sous la forme d'une Singularité, l'entassement des boucles en son sein deviendrait tel que le trou noir exploserait, ou plutôt rebondirait en éjectant des quantités considérables de matière. Le mécanisme responsable de ce changement d'état serait « l'effet tunnel » par lequel, au sein d'une réaction de type fusion nucléaire telle qu'elle se produit dans notre soleil, les noyaux d'hydrogène fusionnent en noyaux d'hélium et relâchent ce faisant des photons énergétiques. Le trou noir, pour ce qui le concerne, deviendrait alors un trou blanc (phénomène troublant selon une plaisanterie classique) d'une extrême densité. Le trou blanc renverrait dans l'univers toute la matière qu'il aurait accumulé précédemment. Resterait à préciser à quel moment dans la vie du trounoir et pour quelle raison se déclencherait ce changement d'état

Les flashs d'ondes-radio

Dans le cas de petits trous noirs primordiaux, tels que ceux créés lors du Big Bang, l'éjection de matière pourrait s'accompagner ou prendre la forme de phénomènes très rares observables de la Terre, dits flash d'ondes radio. ( burst of radio waves) Dans le cas de grands trous noirs, elle pourrait aboutir à la création d'un bébé-univers inobservable en principe de la Terre, avec ou sans émission de flashs. Il faut rappeler que dans un trou noir, le temps n'est pas le même que pour un observateur extérieur. Il est très ralenti. La transformation du trou noir en trou blanc pourrait demander des milliers voire des millions d'années, tout en paraissant quasi instantanée, sous forme de flash, à un observatoire terrestre.

Cette hypothèse pourrait permettre d'expliquer l'observation d'un radio flash intense faite le 2 novembre 2012 à l'Observatoire d'Arecibo. Elle pourrait permettre aussi de comprendre la raison d'une douzaine de flashs observés précédemment par l'observatoire Parkes en Nouvelle Galle du Sud (Australie). Elle ne donnerait cependant pas d'explication précise sur le fait que ces flashs n'ont été remarqués à ce jour qu'à l'Observaroire Parkes. Les mêmes hypothèses pourraient permettre d'expliquer certains des phénomènes plus fréquents, mais également mystérieux, dits flashs de rayons gamma, supposés jusqu'à présent provenir des confins de l'univers. Inutile de dire que beaucoup de cosmologistes ne sont pas d'accord avec ces hypothèses. Mais ils n'ont pas encore proposé de théories ou même de possibilités d'expérimentation permettant d'offrir d'autres explications, non seulement aux flashs, mais au destin des trous noirs et finalement aux origines mêmes de notre univers.

Pour notre part, et pas seulement par patriotisme, nous conseillons d'apporter la plus grande attention aux développements des hypothèses de Carlo Rovelli et Aurélien Barrau qui ne manqueront pas de survenir dans les prochains mois.

20 décembre 2015 7 20 /12 /décembre /2015 19:21

Place de la Terre dans l'histoire de l'univers selon le site Planck
De gauche à droite: Big Bang -- Ère de l'inflation - Découplage de l'interaction forte et faible et formation des particules - Formation des étoiles et galaxies - Formation du système solai
re.
En dessous: La Terre actuel
le.

Biblionet

The Master Algorithm: How the quest for the ultimate learning machine will remake our world

Pedro Dom
ingos


Basic Books/Penguin 2015

Analyse et commentaires par Jean-Paul Baquiast
20/12/2015

Sur l'auteur, voir sa page
http://homes.cs.washington.edu/~pedrod/

Les hypothèses n'ont jamais manqué concernant la possibilité que l'univers tel que nous le connaissons ait été dès son origine le produit de processus calculatoires informatiques profondément ancrés dans le réel . Ils ne seraient pas seulement ancrés, mais consubstantiels à l'existence de l'univers, inséparables de lui, de même que la parole et le langage sont pratiquement inséparables. Récemment, des chercheurs tels que Seth Lloyd ont défendu l'idée que l'univers n'était pas seulement un ordinateur classique géant, mais un ordinateur quantique. Ceci expliquerait beaucoup de ses propriétés hors de portée d'un ordinateur numérique. 1).

Ces hypothèses sont intéressantes, mais elles se heurtent à la difficulté de faire apparaître clairement les bases naturelles qui dans l'univers seraient responsables de la production de ces calculs. Même un ordinateur quantique doit être organisé autour de composants et unités de traitement capables de manipuler des « bits quantiques ».
Certes, il est relativement facile de montrer que tous les processus cosmologiques, biologiques ou neurologiques identifiables dans l'univers, et plus particulièrement sur la Terre, pourraient être simulés sur de super-calculateurs, et par conséquent résulter du fait que l'univers responsable de la production de ces processus serait lui-même un super-calculateur. Mais où seraient les unités centrales de celui-ci, ses mémoires, ses organes d'entrée-sortie ou plus immédiatement ses composants élémentaires?

Par ailleurs, dans la mesure où la cosmologie moderne admet que l'univers s'est développé depuis le Big bang à partir d'atomes élémentaires surgis du vide dit quantique, il est difficilement admissibles de penser que dès le Big Bang les programmes nécessaires à la production ultérieure d'un univers capables de computations telles que nous les observons aujourd'hui se trouvaient prêt à opérer. On peut envisager qu'ils auraient pu progressivement se développer sur le mode darwinien, comme la vie elle-même, mais à partir de quelles semences initiales? A moins d'admettre que celles-ci aient toujours été présentes dans un univers primordial, que l'on pourrait qualifier de multivers, à partir duquel émergeraient des univers analogues au nôtre, ou proches.

The Master Algorithm

Dans un livre tout récent, The Master Algorithm, Pedro Domingos, concepteur informaticien réputé, ne remonte pas, tout au moins au début de son ouvrage, à l'origine de l'univers pour comprendre le monde numérique dans lequel nous vivons et dont il est l'un des acteurs. Il se borne à expliquer ce dont beaucoup de personnes aujourd'hui ne se sont pas encore rendu compte, le fait que les données de masse en ligne (Big Data) et que les algorithmes dits « intelligents » de plus en plus nombreux les exploitant sont en train de révolutionner nos sociétés.

Le propre de ces algorithmes, ce qui les rend intelligents, est qu'ils sont en train d'apprendre à devenir intelligents en exploitant ces Big Data. On parle à leur propos de « learning algorithms » ou d'algorithmes capables d'apprendre. Cexs-ci sont en train de s'organiser, à partir des supports informatiques et les réseaux nécessaires, en véritables « machines apprenantes », learning machines. Certains futuristes imaginent qu'ils pourraient un jour supplanter l'intelligence humaine, à condition que les supports physiques ou réseaux sur lesquels ils prospèrent ne soient pas détruits par un cataclysme quelconque.Le discours n'est pas à proprement nouveau. Beaucoup de nos lecteurs ont lu sur notre site de nombreux articles évoquant cette perspective ou des recensions d'ouvrages l'abordant. Nous avons nous-mêmes édité ici deux livres d'Alain Cardon traitant ce problème 2)

Dans ces ouvrages, Alain Cardon anticipait avec quelques années d'avance un phénomène qui est en train se se produire dans certains secteurs, l'apparition d'algorithmes et de machines autonomes, c'est-à-dire susceptibles d'opérer sans l'intervention d'organismes humains. Il s'agit précisément de ce que montre clairement aujourd'hui Pedro Domingos.

Il rappelle qu'existent dorénavant des millions de tels algorithmes apprenants. Ils sont en train de donner une impulsion qui sans eux serait inimaginable aux sciences, aux technologies, à l'économie, à la vie politique. Ils le font aussi dans le domaine militaire, qu'il s'agisse de guerres classiques ou de guerre de 4e génération conduites par des milices insurgées ou terroristes. Les entreprises mondiales telles que Google et Facebok, ou les hébergeurs plus locaux, tirent exclusivement leur pouvoir des Big Data que leur livrent les personnes privées ou les agents économiques faisant appel à elles.

De leur coté, les grands Etats, les Etats-Unis en premier lieu par l'intermédiaire de la NSA, CIA et autres agences, s'en servent pour espionner et tenter de dominer le monde entier. Les uns et les autres ont en projet l'intention de réaliser des cerveaux artificiels par lesquels ils parachevront leur actuelle domination.

Mais Pedro Domingos ne se limite pas à ces constatations. Il se demande s'il ne serait pas possible de concevoir un « master algorithm » ou « algorithme maître » susceptible de modifier en profondeur les machines apprenantes, et de ce fait nos vies et celles de beaucoup d'organismes vivants. Cet algorithme maître tirerait son immense pouvoir du fait qu'il serait capable d'exploiter toutes les Data existant sur la planète. De celles-ci, il pourrait tirer des connaissances illimitées intéressant le passé, le présent et aussi l'avenir.
Il n'y aurait pas besoin pour ce faire de se référer à des lois de la nature que les scientifiques se sont toujours efforcés de faire apparaître avec plus ou moins de difficultés. En collectant les données en masse, ceux-ci pourraient décrire la nature sans avoir besoin de faire appel à de telles lois, et sans avoir besoin de compétences spécialisées pour les élaborer.

Nous avons plusieurs fois évoqué ce point. Google peut-il obtenir sur la progression d'une épidémie des informations plus précises que celles découlant des observations des épidémiologistes, en utilisant simplement les données résultant de la consultation par des milliers de malades ou de personnes craignant de le devenir des sites de diagnostic en ligne ou de publicités pharmaceutiques? Longtemps incertaine, la réponse à cette question paraît désormais pouvoir être affirmative.

De la même façon, affirme Pedro Domingos, si les données observées par Tycho Brahé et autres astronomes de l'époque avaient pu être exploitées par un algorithme maitre, celui-ci en aurait déduit les lois de la gravitation bien avant l'apparition de Newton.

Mais pour cela, l'algorithme maître doit être capable, comme le font à petite échelle d'ailleurs les scientifiques, d'exploiter les données (Data) du passé ou du présent, comme d'anticiper ce que pourraient être les données du futur. Selon Pedro Domingos, ces données existent déjà dans les laboratoires ou dans les publications, mais personne ne s'est organisé pour les exploiter en masse. De multiples raisons, spécificités disciplinaires, incompatibilités entre langages et méthodes, crainte des risques liés à l'anticipation ou plus simplement manque de crédits pour les mémoriser et les rendre disponibles, contribuent à laisser dormir ce trésor.

Pedro Domingos va cependant plus loin que ces constatations relativement faciles à faire. Il se demande si les algorithmes capables d'exploiter les données naturelles omniprésentes dans l'univers ne seraient déjà pas en place, tout au moins dans certains organes ou organismes. Ainsi le cerveau humain pourrait de par son organisation neurologique transformer en connaissances intelligentes, voire conscientes, les données que lui apportent en permanence les organes sensoriels et moteurs. De même, au niveau bien plus général de l'évolution darwinienne des espèces vivantes, un tel algorithme maître, évidemment réparti, n'a-t-il pas optimisé les processus darwiniens par essais et erreurs, en favorisant les plus aptes à permettre la survie des espèces.

Observations

Nous ne prolongerons pas ici l'analyse de The Master Algorithm, ce que nous incitons vivement le lecteur à faire lui-même en se procurant le livre. Revenons par contre sur quelques perspectives non évoquées dans celui-ci, qui pourraient intéresser les scientifiques.

Si l'on admettait que les algorithmes maitres moteurs des machines auto-apprenantes décrits par Pedro Domingos existeraient dans la nature ailleurs que dans les actuels réseaux numériques, il ne faudrait pas se limiter à les rechercher dans les cerveaux ou dans les génomes. En s'appuyant sur le principe de Copernic selon lequel rien de spécifique n'existe dans l'univers, il faudrait postuler que de tels algorithmes et machines sont présents ailleurs sur la Terre, et au delà de la Terre, dans le système solaire et au delà de celui-ci, dans l'univers tout entier. Ils seraient apparus dès origines du cosmos.

Selon les hypothèses cosmologiques modernes, l'univers tel que nous le connaissons et dans lequel nous vivons a émergé en quelques fractions de seconde (seconde de notre temps actuel) sous la forme d'une structure presque infiniment petite, dense et chaude. Ce phénomène a été qualifié de Big Bang. Très rapidement, après sa naissance c'est-à-dire après ce Big Bang, l'univers a subi un processus dit d'inflation qui l'a conduit aux dimensions telles que celles observées aujourd'hui. L'inflation pourrait se poursuivre durant de très longues durées jusqu'à la dissolution complète des structures matérielles de l'univers. Dans les phases finales, le temps se ralentirait sans cesse et l'espace perdrait toutes dimensions mesurables.

Le milieu original dont serait issu notre univers, composé de particules et de photons, serait ce que l'on nomme le vide quantique. Il s'agirait de particules virtuelles dites quantiques car, selon les hypothèses de la physique quantique, elles n'obéiraient pas aux lois de la physique einstenienne , autrement dit elles ne seraient pas caractérisées par des dimensions d'espace et de temps déterminées. Faute d'une échelle de temps et d'espace au sein de l'univers quantique, celui-ci ne pourrait pas être décrit en termes d'infini ou de fini, ni concernant l'espace ni concernant le temps.

Du vide quantique émergerait en permanence (si le terme peut s'appliquer à un univers dépourvu de temps), des particules matérielles, c'est-à-dire dotées, comme celles de notre univers, de propriétés d'espace et de temps. La plupart s'effondreraient ensuite pour retourner dans le vide quantique. Certaines pourraient rester matérielles, et subir des inflations qui les conduiraient à devenir des univers analogues au nôtre.

Concernant l'origine et l'histoire de notre univers, c'est l'observation du rayonnement du fonds diffus cosmologique ou rayonnement fossile cosmologique (dit aussi CMB ou Cosmic Micro-ondes Background) par les satellites successifs dédiés à cette tâche, dont le dernier en date est le satellite européen Planck, qui en fournit des éléments permettant la modélisation des évènements. Le schéma présenté en début d'article représente l'histoire de l'univers depuis le Big Bang jusqu'à nos jours.

Or il n'y a pas de raison de refuser l'apparition de premiers algorithmes maitres et machines auto-apprenantes dès le Big Bang. Ces éléments de computation se seraient formés non sous leur forme sophistiquée actuelle mais sous des formes primitives, fonctions elles-mêmes des ressources disponibles lors de chacune des phases d'univers, Big Bang, découplage de l'interaction forte et faible et formation des particules, formation des premières étoiles et galaxies, formation du système solaire et de la Terre, apparition de la vie sur celle-ci et finalement apparition du web des réseaux numériques enveloppant la Terre d'une couverture dense.

Ce seraient les capacités d'auto-apprentissage des premiers ordinateurs naturels qui auraient dirigé, mieux qu'un doigt de Dieu encore évoqué par des milliards de croyants de par le monde, la sélection des facteurs les plus favorables à la généralisation de systèmes intelligents et conscient dont les humains se croient les seuls représentants. Si l'on admet l'existence du multivers, il n'y aurait d'ailleurs pas de raison de refuser le principe de tels systèmes au sein de celui-ci.

Le postulat de l'existence d'un univers quantique ne contrarierait en rien ces diverses hypothèses. Des algorithmes et machines auto-apprenantes constituées de bits quantiques n'en seraient que plus efficaces pour servir à l'évolution ayant conduit à la Terre actuelle et à notre société de l'information. Celle-ci, lorsque les premiers calculateurs quantiques seront réalisés à grande échelle, pourra utiliser à son tour les Big Data quantiques et leurs systèmes d'exploitation.

Il en résulterait que ce que nous appelons l'intelligence humaine aurait été incluse en germe dès les premiers pas de l'univers et pourrait évidemment se trouver ailleurs aujourd'hui au sein de celui-ci. L'intelligence et les capacités d'apprentissage ne se limiteraient sans doute pas aux seules planètes habitables, mais pourraient se retrouver dans toutes les structures de grande échelle identifiées dans l'univers, amas galactique ou nuages de poussière cosmique notamment. Elles disparaitraient également avec la mort progressive de notre univers. On ne voit pas comment en effet, malgré leurs grandes compétences à apprendre, elles pourraient résister à des facteurs d'extinction de cette importance.

Travaux pratiques

Certes, pour rendre tout ceci matière à travail scientifique, il faudrait montrer comment, phase par phase depuis au moins la formation des particules, des systèmes d'abord extrêmement simples, composés de quelques atomes, auraient pu s'organiser en moteurs générant des données sous-produits de leur action. Celles-ci leur auraient servi de base pour contribuer à leur auto-perfectionnement sur le mode darwinien. Des concepteurs de systèmes aussi avertis et compétents que Pedro Domingos n'auraient certainement pas de difficultés à en réaliser des prototypes, s'ils disposaient du temps et des équipes nécessaires.

Ces prototypes, inutile de le souligner, pourraient ouvrir la voie aux ordinateurs moléculaires, génétiques ou neuronaux dont l'on parle beaucoup de nos jours, mais qui n'existent en fait que dans les publications scientifiques. Leur organisation sous la forme de consommateurs de Big Data naturelles donnerait une valeur considérables à celles-ci, valeur généralement ignorées de tous. Les véritables sources pour les inventions de demain se trouveraient là.

Notes

1) Voir à ce sujet notre commentaire du livre Programming the Universe

2) Alain Cardon

* "Modélisation constructiviste pour l'autonomie des systèmes"
Edition Automates Intelligents. 24 mai 2012
(publié sous Licence Creative Commons)

* " Vers un système de contrôle total"
Edition Automates Intelligents, 20 octobre 2011
(publié sous Licence Creative Commons)

Jean-Paul Baquiast - dans sciences
commenter cet article
15 décembre 2015 2 15 /12 /décembre /2015 18:58

Jean-Paul Baquiast 15/12/2015

Selon le modèle cosmologique le plus répandu, l'univers tel que nous le connaissons et dans lequel nous vivons a émergé en quelques fractions de seconde (seconde de notre temps actuel) sous la forme d'une structure presque infiniment petite, dense et chaude. Ce phénomène a été qualifié de Big Bang. Très rapidement, après sa naissance c'est-à-dire après ce Big Bang, l'univers a subi un processus dit d'inflation qui l'a conduit aux dimensions telles que celles observées aujourd'hui. L'inflation pourrait se poursuivre durant de très longues durées jusqu'à la dissolution complète des structures matérielles de l'univers. Dans les phases finales, le temps se ralentirait sans cesse et l'espace perdrait toutes dimensions mesurables.


Le milieu original dont serait issu notre univers, composé de particules et de photons, serait ce que l'on nomme le vide quantique. Il s'agirait de particules virtuelles dites quantiques car, selon les hypothèses de la physique quantique, elles n'obéiraient pas aux lois de la physique einstenienne , autrement dit elles ne seraient pas caractérisées par des dimensions d'espace et de temps déterminées. Faute d'une échelle de temps et d'espace au sein de l'univers quantique, celui-ci ne pourrait pas être décrit en termes d'infini ou de fini, ni concernant l'espace ni concernant le temps.

Du vide quantique émergerait en permanence (si le terme peut s'appliquer à un univers dépourvu de temps), des particules matérielles, c'est-à-dire dotées, comme celles de notre univers, de propriétés d'espace et de temps. La plupart s'effondreraient ensuite pour retourner dans le vide quantique. Certaines pourraient rester matérielles, et subir des inflations qui les conduiraient à devenir des univers analogues au nôtre.

Concernant l'origine et l'histoire de notre univers, c'est l'observation du rayonnement dit fonds diffus cosmologique ou rayonnement fossile cosmologique (dit aussi CMB ou Cosmic Micro-ondes Background) par les satellites successifs dédiés à cette tâche, dont le dernier en date est le satellite européen Planck, qui en fournit des éléments permettant la modélisation des évènements. On trouve sur le site Planck 1) les principales conclusions aujourd'hui disponibles, formulées dans un langage accessible au grand public.

Selon un principe proposé par Copernic, dit principe cosmologique, et généralement admis depuis, l'univers devrait être homogène à grande échelle. Certes le rayonnement observé par Planck montre une grande variété de formes matérielles, amas de galaxies, galaxies, étoiles, filaments de poussière, sans mentionner l'hypothétique matière noire non observable directement. Mais à l'échelle suffisante, tout ceci devient homogène, du moins pour un regard superficiel. De même, une soupe composée de grumeaux de légumes se présente comme un liquide homogène vue à une distance suffisante.

Selon le principe cosmologique, observé à une échelle suffisante, l'univers ne devrait pas présenter de structures spéciales. La théorie de la relativité générale présentée par Einstein ne peut d'ailleurs convenablement s'appliquer que dans un univers homogène.

Le principe cosmologique en échec ?

Cependant des observations faites très récemment semblent faire apparaître des structures spécifiques dans le réseau de galaxies constituant le cosmos. Elles se présentent aujourd'hui sous forme de trois phénomènes différents.

Le premier phénomène est un espace géant vide de galaxies, ou ne comportant qu'un très petit nombre de celles-ci. Il s'agit du supervide géant découvert dans la constellation Eridanus par le cosmologiste András Kovács de l'Institut de la physique des hautes énergies à Barcelone. Il s'étendrait sur 2 milliards d'années-lumière. Il s'agit de distances considérables.Il faudrait 2 milliards d'années avant qu'un rayon lumineux le parcourre dans son entier, soit à peu près la moitié du temps de la vie sur Terre. 2)

Le second phénomène est constitué d'ensemble de quasars s'étendant sur la distance de plusieurs milliards d'années lumière. Le quasar (source de rayonnement quasi-stellaire ou presqu'étoile) est une galaxie très lumineuse du fait d'un noyau galactique fortement énergétique en termes de rayonnement. Ainsi le quasar SDSS J0100+2802 est considéré comme un trou noir supermassif, ayant absorbé l’équivalent de 12 milliards de masses solaires. 3) Or récemment, ce fut le Huge Large Quasar Group observé par Roger Clowes de l'University of Central Lancashire, UK qui a retenu l'attention. Il s'étend sur 4 milliards d'années-lumière. 4)

Le troisième phénomène consiste en une explosion de radiations très énergétiques s'étendant sur 6% de l'univers visible et dont la cause reste inconnue. Il s'agit du Gamma Ray Burst étudié par Lajos Balázs de l'observatoire de Konkoly à Budapest 5)

Comme les modèles cosmologiques actuels ne permettent pas d'expliquer de telles anomalies, présentant de telles dimensions, l'explication la plus simple serait que ces phénomènes ne seraient qu'apparents, résultant d'erreurs dans l'interprétation des observations. Mais aujourd'hui rien ne permet d'affirmer l'existence de telles erreurs.

Une seconde explication, beaucoup plus exotique, suggère que ces structures massives n'appartiennent pas à notre univers. Elles proviendrait d'autres dimensions, autrement dit d'autres univers, ou d'autres formes d'univers. Ainsi le principe cosmologique pourrait être sauvegardé. Mais ceci aux dépends d'un autre principe bien ancré depuis deux siècles, celui de l'unicité de notre univers.

Dans ce sens Rainer Dick, physicien théoricien à l'université de Saskatchewan, Canada, estime qu'il faut faire appel à des théories jusqu'ici restées spéculatives, celles de la Gravitation Quantique et plus précisément de la Théorie des Cordes, notamment la Théorie M. Celle-ci suggère que nous vivons dans un espace de 11 dimensions dont 7 sont trop petites pour être observables. Elle ne peuvent encore être observées expérimentalement, mais l'une des variantes de la Théorie M, lla Théorie des Branes, pourrait proposer des domaines vérifiables expérimentalement. 6)

Cet ensemble de théories permettrait de justifier l'hypothèse des multivers, très largement admise aujourd'hui (Voir nos articles précédents sur ce sujet). On pourrait alors admettre que les phénomènes évoqués ci-dessus et difficilement explicables dans la cadre de la cosmologie actuelle, pourraient résulter d'intrusions passées (ou même actuelles) d'autres univers dans le nôtre. Un article du NewScientist donne des précisions à cet égard. Nous ne pouvons pas le reprendre ici mais y renvoyons le lecteur intéressé 7) .


Références

1) Planck http://public.planck.fr/

2) CMB https://en.wikipedia.org/wiki/CMB_cold_spot

3) Quasar SDSS J0100+2802 https://fr.wikipedia.org/wiki/SDSS_J0100%2B2802

4) Huge Large Quasar Group https://fr.wikipedia.org/wiki/Huge-LQG

5) Gamma Ray Burst https://www.ras.org.uk/news-and-press/2693-5-billion-light-years-across-the-largest-feature-in-the-universe

6) Brane Theory https://fr.wikipedia.org/wiki/Brane

7) NewScientist, octobre 2015. When worlds collide

Articles Récents

Liens