Overblog
Suivre ce blog Administration + Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

Archives

22 mars 2017 3 22 /03 /mars /2017 11:41

Repenser l'étude du cerveau
Jean-Paul Baquiast 22/03/2017



Carte des connections neuronales. Source. Article cité ici

Nous republions ici, avec l'accord de l'éditeur, l'article désigné ci-dessus. On retrouvera sur le site Theconversation l'article complet avec ses liens et ses illustrations.

Auparavant, nous voudrions présenter quelques réflexions sur le thème.

En simplifiant beaucoup, il faut constater que l'on retrouve là une question qui est toujours à l'arrière plan de tous les débats scientifiques: faut-il pour comprendre au mieux un phénomène, recourir à une approche globale aussi synthétique, ou à une approche analytique. Celle-ci étudie les détails du phénomène, qui risquent de disparaître dans l'approche synthétique. En mettant bout à bout ces détails, on peut espérer retrouver le phénomène, mais en éclairant plus complètement ses composantes.

L'approche synthétique a toujours été celle de la philosophie: qu'est-ce que l'esprit, l'intelligence voire l'âme? . Mais elle est aussi celle de tous les organismes vivants confrontés à des difficultés qu'ils doivent résoudre en urgence sans chercher à les comprendre en détail. Si je me trouve dans la forêt confronté à un carnivore menaçant, je dois constater la menace afin de la fuir sans chercher à savoir à quelle espèce appartient cet animal, et plus précisément s'il s'agit d'un mâle ou d'une femelle. Ceci dit, le danger évité, je peux utilement me poser la question du sexe de l'animal, afin de me demander si, selon l'espèce ou le sexe, il est plus ou moins dangereux: par exemple un mâle en quête de proie ou une femelle défendant ses petits.

Depuis des millénaires, les humains, dotés du langage, ont donné des noms aux phénomènes qu'ils observaient, et attaché à ces noms les grandes caractéristiques de ces phénomènes. Ceci afin d'obtenir et de transmettre une connaissance minimum. Ce faisant, dès qu'ils le pouvaient, ils observaient les détails visibles de ces phénomènes, ce qui leur permettaient d'en obtenir une représentation plus fidèle. Ils pratiquaient donc ainsi une approche analytique.

A partir de ces détails, ils étaient tentés d'aller plus loin dans l'analyse, afin de définir plus en profondeur l'objet observé: le mâle et la femelle, pour suivre notre exemple, se distinguant par le taille, le pelage, les détails de comportement. Pour approfondir encore, il fallait analyser plus complètement ces détails de comportement.

Le cerveau

Le langage transmettait ainsi non seulement l'information globale acquise sur le phénomène, mais le cas échéant les informations de détail en donnant des descriptions plus précises. Concernant le cerveau et son rôle dans le contrôle des comportements, une même approche synthético-analytique a toujours été pratiquée. Le cerveau est d'abord apparu comme commandant globalement l'état du corps, la mort du cerveau entraînant ainsi la mort du corps. De même, un comportement enfantin était associé à un cerveau en cours de développement, les adultes disposant, comme on pouvait l'observer dans une autopsie post mortem, d'un cerveau plus important en taille et en complexité.

Mais très vite, des analyses anatomique portant sur des cerveaux blessés ont permis d'associer telle aire cérébrale à tel comportement global. Ainsi, dans le cas célèbre de Phineas Gage (1823 - 1860), contremaître des chemins de fer victime d'une perforation crânienne ayant endommagé le cerveau mais qui avait survécu, il fut possible d'associer le trouble profonde de sa personnalité consécutif à la destruction d'une aire cérébrale précise. Par la suite, notamment dans le traitement des blessés de guerre ayant reçu des atteintes au cerveau, il fut possible de mieux préciser les troubles de comportement consécutifs à tel ou tel dommage identifié dans la boite crânienne et dans la partie du cerveau correspondant.

De proche en proche, par des observations anatomiques de plus en plus précises associées à l'observation des comportements correspondants, il fut ainsi possible d'identifier les aires spécifiques, par exemple les aires dites de Broca et Wernicke intervenant dans la compréhension et dans l'émission du langage. Mais les anatomistes furent dès le début conscients que ces aires définissaient des zones globales sans constituer des régions anatomiques et fonctionnelles uniformes. Le reste du cerveau intervenait aussi, d'une façon mal comprise. Il en fut ainsi progressivement des autres grandes fonctions du cerveau.

Aussi bien, très vite, les neurologues en arrivèrent à considérer que le cortex supérieur ou associatif mettait en relation, grâce notamment à des neurones à longue fibre, toutes les zones du cerveau internant dans le traitement des opérations complexes. Certains d'ailleurs en vinrent à penser que le cortex supérieur était le siège de la conscience. Mais très vite une étude plus approfondie des comportements associés à la conscience montrèrent qu'il n'en était rien.

La MRI

La multiplication enregistrée depuis une vingtaine d'années des techniques d'analyse fonctionnelle dites globalement MRI ou Magnetic resonance imaging, ou leurs variantes, a permis d'oberver avec de plus en plus de précision le rôle des fibres neuronales voire de neurones individuels s'activant dans telle ou telle aire cérébrale à l'exercice de telle ou telle fonction. Les observations de type analytique se sont ainsi multipliées, rendant de plus en plus difficiles des analyses synthétiques mettant en corrélation l'activité des neurones et le rôle du cerveau dans des fonctions complexes encore mal caractérisées telles que l'interprétation des messages sensoriels, l'apprentissage, l'intelligence voire la conscience.

Certes des scans du cerveau entier du cerveau à l'exercice de ses fonctions commencent à apparaître. Mais ils restent difficiles à interpréter et surtout ne permettent pas l'observation en profondeur. Celle-ci, dite stimulation cérébrale profonde, est une méthode invasive consistant à implanter des électrodes dans le cortex supérieur. On conçoit que les volontaires pour subir de telles expérimentations ne se précipitent pas.

L'article publié ci-dessous veut cependant montrer que des approches globales seront de plus en plus envisagées. Elles viseront à considérer le cerveau comme un réseau complexe interconnecté. Des perturbations introduites dans ce réseau, comme résultant de la prise d'une drogue telle que le LSD, pourraient alors être analysées comme des perturbations dans un réseau se traduisant par des perturbations dans le comportement global du sujet.

L'article, qui semble-t-il n'a pas été écrit par un spécialiste des réseaux numériques, ne précise pas assez comment une connaissance précise de tels réseaux et de leur comportement face à l'introduction de facteurs nouveaux pourrait renseigner, voire orienter, l'étude des comportements globaux du cerveau et de leurs perturbations. I

ll y aura là, on le devine, un champ immense pour la formulation et la vérification d'hypothèses originales. Mais les ressources disponibles pour ce faire sont rares. De plus elles sont en pratique très largement mobilisées par les gouvernements ou par des organisations (telles que Google) préparant la guerre dite de 4e génération 2.0 ou guerre psychologique utilisant les données et les réseaux.

 

The brain: a radical rethink is needed to understand it

Understanding the human brain is arguably the greatest challenge of modern science. The leading approach for most of the past 200 years has been to link its functions to different brain regions or even individual neurons (brain cells). But recent research increasingly suggests that we may be taking completely the wrong path if we are to ever understand the human mind.

The idea that the brain is made up of numerous regions that perform specific tasks is known as “modularity”. And, at first glance, it has been successful. For example, it can provide an explanation for how we recognise faces by activating a chain of specific brain regions in the occipital and temporal lobes. Bodies, however, are processed by a different set of brain regions. And scientists believe that yet other areas – memory regions – help combine these perceptual stimuli to create holistic representations of people. The activity of certain brain areas has also been linked to specific conditions and diseases.

The reason this approach has been so popular is partly due to technologies which are giving us unprecedented insight into the brain. Functional magnetic resonance imaging (fMRI), which tracks changes in blood flow in the brain, allows scientists to see brain areas light up in response to activities – helping them map functions. Meanwhile, Optogenetics, a technique that uses genetic modification of neurons so that their electrical activity can be controlled with light pulses – can help us to explore their specific contribution to brain function.

While both approaches generate fascinating results, it is not clear whether they will ever provide a meaningful understanding of the brain. A neuroscientist who finds a correlation between a neuron or brain region and a specific but in principle arbitrary physical parameter, such as pain, will be tempted to draw the conclusion that this neuron or this part of the brain controls pain. This is ironic because, even in the neuroscientist, the brain’s inherent function is to find correlations – in whatever task it performs.

But what if we instead considered the possibility that all brain functions are distributed across the brain and that all parts of the brain contribute to all functions? If that is the case, correlations found so far may be a perfect trap of the intellect. We then have to solve the problem of how the region or the neuron type with the specific function interacts with other parts of the brain to generate meaningful, integrated behaviour. So far, there is no general solution to this problem – just hypotheses in specific cases, such as for recognising people.

The problem can be illustrated by a recent study which found that the psychedelic drug LSD can disrupt the modular organisation that can explain vision. What’s more, the level of disorganisation is linked with the severity of the the “breakdown of the self” that people commonly experience when taking the drug. The study found that the drug affected the way that several brain regions were communicating with the rest of the brain, increasing their level of connectivity. So if we ever want to understand what our sense of self really is, we need to understand the underlying connectivity between brain regions as part of a complex network.

A way forward?

Some researchers now believe the brain and its diseases in general can only be understood as an interplay between tremendous numbers of neurons distributed across the central nervous system. The function of any one neuron is dependent on the functions of all the thousands of neurons it is connected to. These, in turn, are dependent on those of others. The same region or the same neuron may be used across a huge number of contexts, but have different specific functions depending on the context.

It may indeed be a tiny perturbation of these interplays between neurons that, through avalanche effects in the networks, causes conditions like depression or Parkinson’s disease. Either way, we need to understand the mechanisms of the networks in order to understand the causes and symptoms of these diseases. Without the full picture, we are not likely to be able to successfully cure these and many other conditions.

In particular, neuroscience needs to start investigating how network configurations arise from the brain’s lifelong attempts to make sense of the world. We also need to get a clear picture of how the cortex, brainstem and cerebellum interact together with the muscles and the tens of thousands of optical and mechanical sensors of our bodies to create one, integrated picture.

Connecting back to the physical reality is the only way to understand how information is represented in the brain. One of the reasons we have a nervous system in the first place is that the evolution of mobility required a controlling system. Cognitive, mental functions – and even thoughts – can be regarded as mechanisms that evolved in order to better plan for the consequences of movement and actions.

So the way forward for neuroscience may be to focus more on general neural recordings (with optogenetics or fMRI) – without aiming to hold each neuron or brain region responsible for any particular function. This could be fed into theoretical network research, which has the potential to account for a variety of observations and provide an integrated functional explanation. In fact, such a theory should help us design experiments, rather than only the other way around.

Major hurdles

It won’t be easy though. Current technologies are expensive – there are major financial resources as well as national and international prestige invested in them. Another obstacle is that the human mind tends to prefer simpler solutions over complex explanations, even if the former can have limited power to explain findings.

The entire relationship between neuroscience and the pharmaceutical industry is also built on the modular model. Typical strategies when it comes to common neurological and psychiatric diseases are to identify one type of receptor in the brain that can be targeted with drugs to solve the whole problem.

For example, SSRIs – which block absorption of serotonin in the brain so that more is freely available – are currently used to treat a number of different mental health problems, including depression. But they don’t work for many patients and there may be a placebo effect involved when they do.

Similarly, epilepsy is today widely seen as a single disease and is treated with anticonvulsant drugs, which work by dampening the activity of all neurons. Such drugs don’t work for everyone either. Indeed, it could be that any minute perturbation of the circuits in the brain – arising from one of thousands of different triggers unique to each patient – could push the brain into an epileptic state.

In this way, neuroscience is gradually losing compass on its purported path towards understanding the brain. It’s absolutely crucial that we get it right. Not only could it be the key to understanding some of the biggest mysteries known to science – such as consciousness – it could also help treat a huge range of debilitating and costly health problems.

Références

The brain: a radical rethink is needed to understand it

Auteur Henrik Jörntell
Senior Lecturer in Neuroscience, Lund University

https://theconversation.com/the-brain-a-radical-rethink-is-needed-to-understand-it-74460

Lund University https://theconversation.com/institutions/lund-university-756

 

Partager cet article
Repost0
11 mars 2017 6 11 /03 /mars /2017 17:54

From Bacteria to Bach and Back. The Evolution of Minds

Daniel C Dennett

Allen Lane novembre 2016

Commentaire par Jean-Paul Baquiast 11/03/2017

Dennett Home page
http://ase.tufts.edu/cogstud/dennett/
Daniel Dennett Wikipedia
https://fr.wikipedia.org/wiki/Daniel_Dennett

Dans un éditorial précédent "Daniel Dennett est-il le dernier des scientifiques matérialistes ? " nous présentions rapidement le dernier livre de Daniel Dennett: From Bacteria to Bach and Back. The Evolution of Minds. Nous indiquions que, comme les autres ouvrages de l'auteur, il s'agissait d'un livre remarquable.

Il est d'autant plus important que Daniel Dennett en a fait si l'on peut dire la synthèse de son oeuvre précédente, et y propose de nouveaux développements et réponses originales concernant les questions posées précédemment. Nous conseillons donc à tous nos lecteurs intéressés par les questions de philosophie de l'évolutionnisme biologique de s'y référer.

La question de l'origine de l'esprit humain a toujours préoccupé les scientifiques et philosophes refusant l'explication théologique et téléologique faisant appel à une intervention divine. Par esprit il faut entendre la faculté d'imaginer, de comprendre et de créer. Dans cette perspective, le concept d'esprit inclut nécessairement celui de conscience, même si l'un et l'autre ne se recoupent pas.

Dennett est un darwinien convaincu et inébranlable, ami de Richard Dawkins. Pour les darwiniens, dont nous sommes évidemment, l'esprit est apparu à travers la sélection naturelle à partir de la conjonction au hasard d'atomes ayant donné naissance à la vie sur Terre, quelques 4,5 milliards d'années dans le passé. Mais il faut ajouter une autre explication concernant l'apparition de l'esprit humain, inconnu sauf sous des formes primitives dans les autres espèces.

Les mèmes

Dennett est, non seulement un darwinien convaincu, mais un méméticien également convaincu. Il explique que l'esprit a pris les formes récentes que nous lui connaissons dès que les proto-humains ont découvert le langage, c'est-à-dire la faculté de créer et transmettre leurs connaissances sur le monde d'une façon impersonnelle, mémorisable et capable de s'auto-enrichir, autrement dit par l'appel à des mèmes langagiers. Nous avons consacré de nombreux articles à la mémétique. Inutile d'y revenir ici.

Les mèmes langagiers peuvent être partagés d'un individu à l'autre. Ce faisant, ils évoluent et se complexifient. Ils génèrent donc des sociétés bien plus riches et adaptatives que celles découlant de la programmation génétique. De plus les mèmes langagiers permettent, du fait de la compétition permanente, de type darwinienne elle-aussi, qui les oppose, de créer de nouveaux mèmes dont certains peuvent se révéler les outils d'une meilleure compréhension du monde. Aux sociétés définies par des compétitions génétiques s'ajoutent donc des sociétés résultant de compétitions dites culturelles.

Tout ceci n'a rien de très original, objectera-t-on. L'originalité de Dennett est de faire appel à ses connaissances très étendues en matière d'intelligence artificielle et de robotique évolutionnaire pour mieux comprendre le rôle des mèmes langagiers dans l'apparition des phénomènes ancestraux de compétition culturelle donnant naissance à la conscience.

Il explique en effet avoir constaté les innombrables résistances opposées par des philosophes et scientifiques se disant pourtant darwinistes lorsqu'il s'agit d'en venir à la question du « pourquoi faire ?» à propos des origines de la vie et de l'esprit. Ils admettent tous les explications du « comment ? » , c'est-à-dire par quels mécanismes l'esprit s'est développé depuis les amibes aux humains mais ils ne peuvent se résoudre à admettre qu'il s'est agi d'une suite de compétitions au hasard s'étant succédé sur le mode darwinien sans que soit jamais intervenu aucun concepteur intelligent (intelligent designer) ayant dirigé la naissance et le développement de ces compétitions.

En finalistes invétérés, bien que plus ou moins inconscients, ils ne peuvent accepter le fait que l'esprit s'est développé spontanément et sans aucun but préalable. Cette hypothèse représente pour eux une application dangereuse du darwinisme et est donc à rejeter. Dennett avait montré cela dans un livre précédent « Darwin dangerous idea ». Nous y avions consacré, ainsi qu'à un autre ouvrage de lui, « La conscience expliquée » un de nos premiers articles

Aujourd'hui, avec l'explosion des systèmes évolutionnaires d'Intelligence Artificielle avancée, Daniel Dennett, particulièrement informé de ces développements, peut montrer qu'à leur tour de tels systèmes, entrant en compétition darwinienne, peuvent faire naître des robots intelligents qui pourront éventuellement se répandre sur d'autres planètes, en s'adaptant spontanément à d'autres environnements. Ils pourront, pourquoi pas, héberger des formes de conscience plus évoluées ou différentes des nôtres.

Certes au départ ces robots auront été conçus par l'homme, mais ils échappent d'ores et déjà de plus en plus à leurs créateurs. Si on leur demandait: « Pour quoi faire ? », ils n'auraient pas de réponse, puisqu'ils ne savent pas eux-mêmes dans quel but final ils se développent.

Le dualisme cartésien

Comme Dennett l'écrit au début de son livre, l'esprit humain est composé de « trillion mindless robots dancing ». Aucun de ces petits robots ne peut préciser la raison pour laquelle nous pensons, mais dans leur chorégraphie d'ensemble ils peuvent nous donner l'illusion que nous disposons d'un « moi » qui nous contrôle et décide de faire ce qui est bon pour nous.

Ce « moi » peut aussi, s'il constate qu'il ne comprend pas tout, ni vers quel avenir il nous oriente, faire appel à un Dieu extérieur omniscient crée par lui, qui répondra à toutes nos questions sur la finalité. Le « dualisme cartésien » que Dennett combat avec persévérance, opposant l'esprit et la matière, est une des formes de cette illusion. Dennett montre qu'il réapparait sans cesse même chez ceux se disant matérialistes 1).

From Bacteria to Bach and Back intéressera donc particulièrement, au delà des biologistes et neuro-scintifiques, tous ceux qui se préoccupent de l'évolution de l'Intelligence Artificielle, ainsi, accessoirement, que ceux réfléchissant à la présence possible d'êtres conscients dans l'univers extraterrestre. Le livre est empli de références et d'anecdotes en faisant un ouvrage véritablement essentiel à notre époque, d'autant plus qu'il est très facile à lire.
Il faut espérer qu'il sera rapidement traduit en français.

Bien évidemment, il sera rejeté par les centaines de millions d'individus qui expliquent que de telles recherches sont inutiles, étant entendu que « tout est dans le Coran » .

1) On peut penser que le phénomène sévit plus particulièrement aux Etats-Unis, dont la science reste profondément imprégnée de théologie.

Voir les commentaires

Partager cet article
Repost0
23 décembre 2016 5 23 /12 /décembre /2016 19:23

La "riche Allemagne", lors de la deuxième conférence franco-allemande sur le numérique, s'est interrogée sur l'avenir de son système économique dans la mesure où le numérique remplacera rapidement une grande partie des emplois actuels, même dans le domaine des services. La création de nouveaux emplois dans l'industrie numérique et dans la robotisation ne suffira pas à faire face à la destruction des emplois actuels. Ceci d'autant plus que les investissements nécessairement coûteux pour créer de nouveaux outils numériques ne seront plus à la portée de société nécessairement appauvries par la perte des emplois actuels.

Seules pourront les consentir les quelques super-entreprises numériques déjà existantes. Il s'agit principalement des 7 grands de l'Internet déjà existants et tous américains. Google en est l'exemple souvent cité, mais il n'est pas le seul. On ne voit pas pourquoi ces accapareurs de l'intelligence collective détourneraient une partie de leurs bénéfices pour en faire profiter la masse des citoyens. Ils se bornent à redistribuer le peu d'activité et de revenus nécessaires pour que les 7 milliards d'humains numérisés ou potentiellement numérisés puissent survivre sans se révolter radicalement.

Mais que font de leurs bénéfices les Google et homologues? Certes, leurs dirigeants, cadres et rares employés vivent raisonnablement bien, mais ceci ne suffira pas à assurer leur avenir. Nous avons plusieurs fois montré qu'ils investissent de plus en plus massivement dans les recherches visant à mettre en place un « cerveau numérique « global » dont ils seront les éléments moteurs.

Un cerveau global

Un tel cerveau pourra défricher les immenses champs de production, de consommation et de profit résultant du développement, grâce aux outils numériques, de champs jusqu'ici inexplorés, car hors de portée des sociétés actuelles, même de la « riche Allemagne ». Ces champs permettront d'échapper aux limites imposées au développement actuel par la raréfaction de l'énergie et des ressources, la perte dramatique de la biodiversité et l'extension d'une pollution destructrice. Pour se développer, ils auront besoin de peu de ressources matérielles mais d'énormes ressources intellectuelles.

Ces ressources existent potentiellement chez tous les humains. Mais seule la généralisation des recherches et applications scientifiques visant, au sens large, à la construction de ce cerveau global permettra d'y faire appel. Or seuls les Google et homologues se réservent la possibilité de mettre en place de telles recherches. Leurs coûts seront progressivement amortis grâce à l'accès a de nouvelles ressources dont ils se réserveront le monopole.

Mentionnons à titre d'exemple les domaines souvent cités de la biologie génétique, de la physique des nouveaux matériaux, de la chimie des nouveaux composants. Tout ceci permettra, pour reprendre une image souvent critiquée mais qui paraît incontournable, l'apparition de quelques dizaines de milliers de post-humains capables d'exploiter les possibilités du spatial, de territoires inaccessibles à la vie sous sa forme actuelle, tant sur les continents que dans les océans, d'une intelligence artificielle de plus en plus autonome dans ses capacités de création.

On peut comprendre que, lors des conférences sur le numérique, ces sujets difficiles ne soient pas étudiés en détail. Tout au moins devraient-ils être évoqués. L'Allemagne comme d'ailleurs la France sont assez riches en capacités scientifiques pouvoir disputer aux grands américains de l'Internet leur avance actuelle. Encore faudrait-il que les gouvernements s'en soient rendu compte et mettent en place les conditions minimum nécessaires au développement des recherches. Il ne s'agira pas alors de permettre l'émergence de quelques rares post-humain, mais d'étendre ces capacités au plus grand nombre.

Le problème ne sera évidemment pas évoqué par les futurs candidats à la présidence de la République française. Le sera-t-il, en dehors de l'Amérique, en Russie et en Chine?

Références

http://www.economie.gouv.fr/deuxieme-conference-numerique-franco-allemande-a-berlin

https://www.mediapart.fr/journal/international/221216/comment-l-allemagne-tente-de-maitriser-la-digitalisation-de-son-economie

 

Partager cet article
Repost0
2 novembre 2016 3 02 /11 /novembre /2016 10:51



Les recherches récentes sur les systèmes d'intelligence artificielle (AI) dits évolutionnaires, c'est-à-dire capables de s'adapter pour survivre à un environnement complexe changeant, font de plus allusion au fait qu'ils pourraient se doter progressivement de capacités cognitives analogues à celle d'un humain.

Celles-ci leur permettraient de se donner des représentations d'eux-mêmes et mettre en place des aptitudes au langage et à l'invention – le tout évidemment aujourd'hui encore sous des formes très primitives. Alain Cardon, dont les principaux ouvrages sont disponibles en accès libre sur ce site, explore en détail ce thème.

La littérature spécialisée n'a pas encore donné d'exemples concluants montrant que cette capacité est déjà à l'oeuvre dans des systèmes d'AI existants, sauf peut-être dans le cas d'algorithmes utilisés dans la gestion des marchés financiers, dits « à haute fréquence ». La pratique a montré que ceux-ci pouvaient prendre en quelques millisecondes des décisions d'achat et de vente plus pertinentes que celles des meilleurs traders humains.

Nous mentionnons par ailleurs le fait que Google, ambitionnant de mettre au point un « cerveau global artificiel » ou Google Global Brain, susceptible de se substituer aux cerveaux humains, avait racheté récemment la plupart des laboratoires d'AI travaillant sur ce thème. Il est clair que son intention, très largement partagée avec le Pentagone américain, est de mettre au service de son projet mondial des systèmes d'AI évolués, capables de prendre eux-mêmes des décisions en faveur des intérêts de Google, sans que celui-ci perde pour autant le contrôle d'ensemble de ces logiciels évolutionnaires.

Un progrès décisif

Or une publication sur ces capacités d'auto-décisions dont seront dotés les algorithmes de demain au service de Google vient d'être produite par des chercheurs de Google travaillant sur leprojet Google Brain. Elle montre que des machines capables d'apprentissage profond ou « deep learning » sont capables d'inventer des systèmes de cryptologie leur permettant d'échanger des messages qu'elles seraient seules à déchiffrer.

On objectera que l'objectif est loin de celui intéressant les capacités de décision autonome d'un cerveau humain. Mais quand on connait l'importance sur les sujets dits sensibles qu'ont pris les outils de cryptologie, le fait que des machines puissent communiquer entre elles de façon inaccessible aux humains fait réfléchir.

On trouvera in fine la référence à l'article de ces chercheurs, publié par arXiv. Martin Abadi et David Andersen y montrent que des systèmes dits neuronaux (neural nets), basés sur des architectures de neurones artificiels, ont pu mettre au point par eux-mêmes un système cryptographique n'empruntant pas aux techniques humaines déjà en service. Le système est très basique, mais rien n'interdira aux neurones artificiels de le complexifier ensuite, toujours de leur propre chef.

L'expérience a utilisé trois réseaux neuronaux indépendants, classiquement nommés Alice, Bob et Eve. Alice devait envoyer un message secret à Bob, message que Bob devait décoder. Eve devait s'y efforcer de son côté,à l'insu d'Alice et de Bob. Pour écrire ce message, Alice et Bob devaient produire un texte crypté faisant appel à un certain nombre de « clefs » inconnues d'Eve.

Initialement, les réseaux neuronaux se sont montrés peu efficaces dans cette tâche, mais après 15.000 tentatives menées par Alice pour produire un texte crypté, Bob s'est montré capable de le comprendre. Eve qui ne disposait que d'un petit nombre des clefs nécessaires, n'a pas pu le faire,

Les chercheurs précisent qu'ils n'ont pas à ce jour bien compris comment les réseaux neuronaux Alice et Bob ont procédé pour produire des textes cryptés. Il s'agissait manifestement d'une initiative autonome dans laquelle aucun humain n'était intervenu. Certes les recherches concernant la réalisation de machines capables d'échanger des messages qui ne seraient accessibles qu'à elles-mêmes sont encore dans l'enfance. Mais le projet Google Brain est désormais en bonne voie pour le faire

Référence: https://arxiv.org/abs/1610.06918

Abstract
We ask whether neural networks can learn to use secret keys to protect information from other neural networks. Specifically, we focus on ensuring confidentiality properties in a multiagent system, and we specify those properties in terms of an adversary. Thus, a system may consist of neural networks named Alice and Bob, and we aim to limit what a third neural network named Eve learns from eavesdropping on the communication between Alice and Bob. We do not prescribe specific cryptographic algorithms to these neural networks; instead, we train end-to-end, adversarially. We demonstrate that the neural networks can learn how to perform forms of encryption and decryption, and also how to apply these operations selectively in order to meet confidentiality goals.

 

 

Partager cet article
Repost0
26 septembre 2016 1 26 /09 /septembre /2016 17:22


LE LIBRE ARBITRE SCIENTIFIQUEMENT REFUTE

par Jean Robin

Editions TATAMIS

septembre-octobre 2016


commentaire par Jean-Paul Baquiast 24/09/2016

L’auteur :

Jean Robin, journaliste et éditeur, a publié 35 livres à ce jour. Du livre pour être heureux (2013) en passant par Ils ont tué la télé publique (2006), il défend la liberté d’expression, l’ouverture d’esprit et la démocratie. Il a fondé la maison d’édition Tatamis en 2006 et le site d’information en ligne Enquête & Débat en 2010.

1) Présentation de l'ouvrage

.Nous nous appuyons pour ce faire afin de gagner du temps, sur ce qu'en dit le site du livre

Les thèmes.Le non choix de naître:
La grossesse et la naissance : Grossesse – Enfant non désiré – Alimentation de la mère – Naissance – Par césarienne – Prématuré – Bébés – Les différentes influences une fois né
Notre corps :
Notre patrimoine génétique – Nos membres – Les mécanismes qui nous maintiennent en vie – Notre cerveau – Nos cinq sens – Nos hormones et nos émotions – Notre genre – Notre beauté – Notre attirance pour les filles ou les garçons – Notre sexualité – Nos nom et prénom – Notre vieillissement – Notre espérance de vie
Nos dons à la naissance ou qui se révèlent plus tard
Notre femme (ou notre mari)
La famille dans laquelle nous naissons :
Nos frères et sœurs – Nos parents – Notre belle-famille – Nos grands-parents
Le choix de notre école
Abus sexuels ou violence
L’époque à laquelle nous naissons
Le lieu où nous naissons
Nos enfants (ou notre enfant)
Notre environnement :
Notre culture:
Notre langue maternelle – Les gens qui nous entourent – Les infrastructures mises à votre disposition – Le système politique en place – L’environnement économique – Le système judiciaire – Le temps – Les lois physiques – L’alternance jour-nuit, saisons, etc. – L’influence des astres – L’effet papillon – Les inventions
L’enfance et l’adolescence
Quelques auteurs qui ne croyaient pas au libre-arbitre
John Locke – Albert Einstein – Sir Isaac Newton – Descartes – Pierre Simon Laplace – Martin Luther – Jean Calvin – Voltaire – Arthur Schopenhauer – Luc de Clapiers, marquis de Vauvenargues – Baruch Spinoza – Donald Hebb – Friedrich Nietzsche – Charles Renouvier – Francis Crick – Henri Laborit – Vassilis SAROGLOU – Antoine VERGOTE – Sam Harris – Wolf Singer – Chris Frith – Paul Bloom – Jerry Coyne – Stephen Hawking – John Searle – Geroge Ortega – Thalia Wheatley – Christof Koch – Bruce Hood2.

2. Nos commentaires

Nous avons sur ce site présenté et commenté de nombreux ouvrages et articles de scientifiques et plus particulièrement de neuroscientifiques examinant la question du libre arbitre et celle de la conscience qui lui es étroitement associé. La première de leur démarche consiste, non à nier ces phénomènes au nom d'un matérialisme radical, mais à en rechercher les bases dans le cerveau. Il est en effet incontestable que le corps, à quelque niveau que ce soit dans l'ordre du vivant, et plus particulièrement le cerveau chez ceux qui en sont dotés, prennent en permanence des décisions qui leur permettent de survivre et s'adapter. Ces décisions relèvent de comportements plus ou moins complexes et intriqués impossible à identifier dans le détail, mais qui paraissent tous étroitement déterminés par des causes ou situations existant préalablement. Autrement dit, ils ne sont pas libres, au sens où l'entendent les philosophes ou religions défendant le libre arbitre.

Or il est impossible de nier, même en restant déterministe, que beaucoup de décisions prennent leurs origines non seulement dans le cerveau mais dans les aires neurales associées à la conscience et plus particulièrement à la décision consciente. Il est donc tentant de rechercher si dans le cerveau et plus généralement dans le corps pourraient être identifiées des zones que l'on pourrait considérer comme le siège de la conscience et de la décision consciente. Il faudrait ensuite déterminer si les processus de décision consciente prises au niveau de ces zones sont « libres » au sens où l'entend le libre-arbitre, ou bien sont déterminés par des facteurs ou processus non encore identifiés, mais qui devraient pouvoir l'être par des études expérimentales plus approfondies.

Or jusqu'à présent, il n'a pas été été possible d'identifier des aires cérébrales qui seraient le siège de la conscience. Leur existence est démontrée à tout instant par différents accidents cérébraux se traduisant par la perte de conscience. Mais on ne peut pas individualiser dans le cerveau sain des aires commandant non pas seulement la décision consciente mais ce que l'on pourrait qualifier de décision libre, résultant d'une intervention elle-même libre du sujet, c'est-à-dire dont il assumerait la responsabilité seule et entière. Il semble que ce soit le cerveau global qui intervienne, en relation constante, notamment, avec les appareils sensori-moteurs.

Pour les neurosciences modernes, les phénomènes indiscutables de conscience et de prise de décision consciente relèvent du cerveau tout entier, voire du corps. Ils se produisent de façon par ailleurs très variable et difficile à analyser dans le détail. Mais ce n'est pas là une raison justifiant de faire appel à une cause relevant d'une philosophie séduisante mais indémontrable de la liberté pour les expliquer. Les diverses religions qui par ailleurs depuis leurs origines reposent sur ce concept de liberté pour y voir le reflet d'une divinité quelconque ne sont pas davantage crédibles. Toutes ces considérations permettent donc de confirmer la validité de l'affirmation selon laquelle le libre-arbitre serait scientifiquement réfuté.

Reste cependant à expliquer en termes de science déterministe la perception de liberté - relative- qu'ont toujours eu les individus ou les collectivités confrontés à des décisions. Chacun d'entre nous la ressent en permanence. Même s'ils peuvent admettre que la décision a déjà été prise de façon inconsciente, c'est-à-dire non libre, avant d'être formalisée sous une forme consciente, la grande majorité des humains ne peut s'empêcher en pratique d'évoquer la liberté et les conséquences en termes de responsabilité que celle-ci entraine.

Il n'a aurait notamment plus de règle de droit, civil ou pénal, si l'on postulait que les individus et les collectivités sont entièrement conditionnés au préalable, c'est-à-dire non responsables, pour prendre les décisions qu'ils prennent. De la même façon aucun chef ne s'efforcerait de convaincre ses subordonnés de prendre des décisions contraires aux règles dominantes s'il ne s'estimait pas doté d'une libre volonté l'autorisant à le faire.

Il est cependant possible, en termes déterministes, d'expliquer que l'évolution des individus et des sociétés n'aurait pas été aussi riche et adaptative qu'elle l'a été si les individus n'avaient pas été persuadés qu'ils étaient capables de décisions libres. Mais cette persuasion, et c'est le point important, n'aurait pas été le fait de décisions volontaires antérieures, elle se serait spontanément formalisée et imposée sous forme de contraintes déterministes collectives, ayant émergé si l'on peut dire de la même façon que le langage.

Dans certains cas, elle aurait pris la forme de mécanismes héréditairement transmissibles, inscrites dans les génomes. De la même façon, à un niveau plus simple, dans la vie sauvage, des règles implicites s'étant imposées d'elles-mêmes aux espèces commandent des comportements de fuite à l'égard d'un prédateur - ceci quelles que soient les tendances à folâtrer qui peuvent caractériser les proies.

Dans ces perspectives, il faut considérer que le livre de Jean Robin « Le libre arbitre scientifiquement réfuté » constitue un petit ouvrage simple, de lecture facile, énumérant l'essentiel des conditionnements divers qui nous déterminent, fut-ce à notre insu. Certes l'auteur met pratiquement pratiquement au même niveau tous les déterminismes, alors que certains sont évidents et que d'autres sont plus difficiles à expliquer, notamment dans le cas du cerveau, considéré comme la machine la plus complexe de l'univers. Mais ceci est inévitable, concernant les dimensions de l'ouvrage. Nous nous devons en conseiller la lecture. Dans un siècle où sous l'influence d'un islam de combat se répand à une vitesse inquiétante l'idée que les croyants, inspirés par le Coran, peuvent et doivent remettre en cause tous les fondements de la société, il sera particulièrement nécessaire.

Malheureusement, on peut penser que le livre ne convaincra que des lecteurs déjà convaincus. Le poids des croyances au libre-arbitre, propagées par des structures de pouvoir qui les disséminent pour éviter toute approche scientifique matérialiste et déterministe de la question, continuera à s'imposer. Même un lecteur scientifique, tel il doit l'avouer l'auteur de cet article, ne pourra pas très épisodiquement ne pas se demander « s'il n'y aurait pas quand même quelque chose » fondant le libre arbitre dont il se sent intuitivement doté.

Nicolas Gisin

Ceci fait qu'un certain nombre d'arguments se voulant scientifiques ont depuis longtemps essayé de rattacher le libre arbitre à des causes fondamentales pouvant être inscrites dans l'univers profond. La physique quantique avec ses hypothèses sur l'indétermination a depuis son apparition été utilisée en ce sens, sans caractères bien convaincants du fait du caractère ésotérique des arguments utilisés. Mais les tentatives se poursuivent. Nous avons dans un article récent évoqué le travail du physicien quantique Nicolas Gisin. Le lecteur pourra se reporter à l'article et aux sources citées. Néanmoins nous pouvons ici en présenter une adaptation.

Dans un article du NewScientist, daté du 21 mai 2016, intitulé Time to decide, le physicien quantique suisse Nicolas Gisin, pionnier de la téléportation des états quantique et de l'une de ses applications, la cryptographie quantique, explique pourquoi il ne peut admettre les arguments de la science déterministe selon lesquels le libre arbitre n'est qu'une illusion.

Sa conviction ne découle pas d'hypothèses religieuses selon lesquelles le libre-arbitre aurait été conféré à l'homme du fait que celui-ci ait été fait à l'image de Dieu, dont aucune loi ne peut enchainer la totale liberté de créer ou ne pas créer. Elle peut par contre les rejoindre. Il raisonne sur le libre-arbitre en termes strictement scientifiques.

Il admet que toute la physique macroscopique moderne, depuis Descartes, Newton et Einstein, repose sur l'assomption que l'univers est déterministe. Par extension, dans le cas de sciences comme la biologie ou la neurologie qui ont souvent peine à faire apparaître des lois déterministes, le déterminisme postule que de telles lois existent, y compris sous la forme d'un chaos déterministe ne permettant pas à notre esprit de faire apparaître ces lois, en l'état actuel de nos connaissances.

Aussi bien les cosmologistes pensent pouvoir prédire l'avenir de l'univers avec une certaine dose de certitude, puisque les lois fondamentales de l'univers seraient déterministes. On ne les connait évidemment pas toutes, mais la plupart se découvriraient de plus en plus. Il en résulte que pour eux le temps serait une illusion. Les mêmes causes entraineraient les mêmes effets, même si le cours de ce que nous appelons le temps se trouvait inversé. Ainsi prise à l'envers, l'histoire de l'univers nous ramènerait inévitablement au point initial du big bang, supposé être à l'origine de ce même univers.

Face à ces arguments, Nicolas Gisin fait valoir que des scientifiques de plus en plus nombreux, parfaitement respectables, affirment que la démarche scientifique n'aurait pas de sens sans le libre-arbitre, c'est-à-dire au cas où nous n'aurions aucun pouvoir de décider si une hypothèse est « vraie » ou non. Nous serions obligé de la tenir pour vraie, partant de l'idée qu'un déterminisme sous-jacent doit nous imposer de ne pas nous poser la question. Nous serions seulement libres - et encore - de chercher à mieux connaitre ce déterminisme.

Or c'est le contraire que montre l'histoire de la science. Sans même faire appel à la mécanique quantique qui postule l'intervention de la volonté pour résoudre l'équation de Schrödinger dont l'inconnue est une fonction, la fonction d'onde ( ce que l'on nomme le problème de l'observation), Gisin s'appuie sur des exemples d'indétermination peu souvent évoqués que nous ne reprendrons pas ici. Ainsi de l'utilisation de nombres que Descartes avait nommé des nombres réels, opposés aux nombres qu'il avait nommé « imaginaires ». Les nombres imaginaires sont considérés comme ne correspondant à aucune réalité, compte tenu de la façon dont ils sont calculés, par exemple en faisant appel à la racine carré d'un nombre négatif. Ce n'est pas le cas des nombres réels.

Cependant les nombres réels peuvent eux-mêmes être indéterminés. La plupart d'entre eux, décomposés en leurs éléments, font appel à des séries de chiffres se poursuivant jusqu'à l'infini. De plus, ces derniers, en bout de chaine, n'apparaissent qu'au hasard, sans qu'aucune loi déterministe permettant de permette de prédire leur apparition. Seule une le traitement des nombres faisant appel à une décision volontaire permet de ne prendre en considération que les premiers chiffres de la série.

On objectera que le traitement des nombres est en fait déterminé par des structures neuronales propres à notre cerveau, elle-même bien déterminée. Mais Nicolas Gisin rappelle que les systèmes relevant de la théorie du chaos au sens strict, c'est-à-dire d'un chaos qui n'a rien de déterministe, sont partout dans la nature. C'est le cas notamment de tout ce qui concerne la vie et son évolution - sans mentionner les systèmes quantiques déjà évoqués. L'indétermination est partout, jusqu'au moment où elle est déterminée par les choix eux-mêmes non déterminés a priori faits par les êtres vivants.

Ceci dit, observons pour notre compte que l'indétermination et plus encore le libre-arbitre, sont de simples concepts que la science se refuserait encore aujourd'hui à définir. Elle ne les identifie que par leurs effets visibles. Ne faudrait-il pas aller plus loin? Que signifie la liberté de choix pour les êtres vivants. Certainement pas la liberté d'aller où que ce soit dans l'espace.

Il faudrait peut-être envisager que le libre-arbitre soit une propriété fondamentale des êtres vivants, leur permettant de résoudre à leur avantage les indéterminismes profonds du monde? Ceci se ferait au niveau quantique, par la résolution incessante des fonctions d'onde auxquelles se trouvent confrontés ces êtres vivants. Mais ceci, d'une façon plus évidente, se produirait en permanence dans le monde physique. Par le libre-arbitre, les êtres vivants, fussent-ils considérés comme primitifs, et donc entièrement déterminés, choisiraient spontanément et librement les conditions de la nature les plus convenables à leur survie et leurs développements. Ainsi de proche en proche, ils se construiraient un monde déterminé dans lequel ils évolueraient en faisant simultanément évoluer ce monde.

Le libre-arbitre ne permettrait donc pas d'inventer des mondes entièrement nouveaux. Il se bornerait à rendre actuelles des possibilités préexistantes, en les « choisissant ». On retrouve là, au niveau de la physique macroscopique, l'interprétation dite de Copenhague, popularisée par Werner Heisenberg. L'observation, dans la théorie dite de la mesure, « résout » la fonction d'onde du système quantique en l'obligeant à choisir entre un certain nombre de possibilités en principe préexistantes.

Or, écrit Nicolas Gisin, le concept de temps n'est pas exclu de ce processus. Le résultat d'un événement quantique, tel que la mesure d'un système donné, non déterminé à l'avance, se situe dans un temps différent de celui où ce résultat est acquis, avec toutes les conséquences en découlant. Il s'agit d'une création authentique, apparue dans un temps non réversible, qui ne pouvait être connue à l'avance en faisant appel à une équation déterministe.

Nicolas Gisin a nommé ce temps un « temps créateur » , creative time. La science ne comprend pas bien aujourd'hui ce concept, mais la théorie de la gravitation quantique pourrait changer les choses. Elle obligera à une synthèse entre la théorie einstenienne de la gravité, entièrement déterministe, et le hasard introduit par l'observateur d'un système quantique.

Si l'on accepte cette hypothèse, il faudra en revenir à la question que nous avons précédemment posée. Faudrait-il admettre que le libre-arbitre, à quelque niveau qu'il s'exprime, serait dans la nature même de l'univers, ou du multivers si l'on retient cette dernière hypothèse. En ce cas, dans un univers supposé être évolutif, quelle serait l'essence profonde du phénomène ou, si l'on préfère, comment serait-il apparu? Et se poursuivra-t-il lorsque l'univers que nous connaissons aura disparu?

Toutes ces hypothèses concernant le libre-arbitre ne conduisent évidemment à des « certitudes » scientifiques, ceci d'autant plus qu'il sera longtemps difficile voire impossible de les mettre à l'épreuve dans des dispositifs expérimentaux. Il paraît difficile cependant d'affirmer, comme Jean Robin, que le libre-arbitre soit scientifiquement et définitivement réfuté. Ou tout au moins, si on le fait, il faut que ce soit à l'intention des profanes toujours tentés de faire appel à des considérations mythologiques ou religieuses.

Cela ne saurait interdire à des chercheurs scientifiques de se demander si des lois fondamentales de l'univers ne pourraient pas expliquer l'étonnante rémanence du concept de libre-arbitre.

Réaction de Jean Robin

J'ai reçu de Jean Robin cette réaction à la lecture de mon article. Je l'en remercie. JPB

merci pour cette recension richement argumentée. Jje me permets de relever quelques erreurs :

- sur la religion et le libre arbitre : toutes les religions au monde croient au libre arbitre, sauf une, le christianisme biblique tel qu'expliqué par les protestants de la réforme, luthériens et calvinistes.
Luther a même écrit une somme de 700 pages intitulée "Le serf-arbitre" dans lequel il écrit, versets de la bible à l'appui, que Jésus nous explique tout au long de la Bible que le libre arbitre n'est qu'une illusion, dont le résultat est de nous rendre esclave du péché. La vérité vous rendra libre, et la vérité c'est Jésu
s.

- sur l'indétermination : elle ne prouve pas le libre arbitre.

- sur les personnalités qui ne croient pas au libre arbitre : je trouve dommage de ne pas en avoir parlé (outre les noms dans le sommaire) car la pensée d'un Spinoza ou d'un Nietzsche par exemple me paraissent lumineuse de ce point de vue, et permettent d'éclairer la réflexion scientifique.

- sur le reste : je pense que vous êtes passé à côté de l'essentiel, à savoir que la science démontre que le libre arbitre, s'il existe, est si réduit qu'il est nul.
Je cite quelques dizaines de facteurs dans mon livre, il en existe en fait des milliards de milliards, s'exerçant sur nous en permanence !
En effet les facteurs qui nous conditionnent s'additionnent et se renforcent, créant une sorte de toile d'araignée à laquelle rien ne semble pouvoir échapper.
Sauf à croire à la magie naturellement, ou à Dieu (le cas des luthériens et calvinistes), mais ce n'est pas votre cas je crois.
Seule une force incréée, infinie, et non soumise au temps et à l'espace pourrait en effet échapper à la loi de la ca
usalité.

Mais c'est un autre débat...

Je suis tout de même ravi par cette recension, ne vous y trompez pas ;)

Je la relaie donc sur mon site Enquête & Débat, afin de faire un peu de pub à mon tour à votre site : http://www.enquete-debat.fr/archives/critique-de-le-libre-arbitre-scientifiquement-refute-64921

Ma réaction à la réaction

Je suis bien d'accord avec ceux, tel votre livre, expliquant que la science réfute à juste titre le libre-arbitre. J'ai seulement voulu évoquer, dans la partie du commentaire évoquant le travail de Nicolas Gisin les hypothèses de ceux qui se demandent si la biologie quantique (voyez un article précédent ) ne pourrait-elle pas suggérer une capacité fondamentale de la vie à lever les indéterminations (résoudre la fonction d'onde) des particules quantiques afin d'en faire des particules matérielles adaptées à leurs besoins.

Lever une indétermination ne signifie évidemment libre-arbitre, mais seulement que les déterminismes en résultant montrent l'existence d'un indéterminisme fondamental caractérisant le monde quantique dont le monde macroscopique est issu. Il pourrait s'agir de ce que l'on pourrait appeler une loi fondamentale de l'univers. Autrement dit le déterminisme ne serait pas une propriété fondamentale de l'Univers.

Voyez aussi le livre de Gisin L'impensable hasard . Il traite surtout de téléportation quantique mais les bases s'en appliquent à toutes les procédures quantiques, qu'elles soient cosmologiques au sens large, matérielles ou biologiques. Ceci dit, comme je l'avais indiqué, il ne s'agit encore que d'hypothèses. Mais elles ouvrent un peu le regard par rapport à l'acception actuelle du concept de déterminisme

Réaction d'Alain Cardon

Le problème est que la génération de toute pensée est une construction émergente qui est ou bien conduite ou bien générée par réaction et sans intention. Et c’est une émergence qui est un construit satisfaisant simplement à une visée et qui n’est
donc pas une production totalement dirigée et conduite par l’individu
qui utilise son système psychique. Le cadre de cette émergence a été développé dans mes publications et le sera encore dans le prochain livre de Pierre Marchais auquel je collabore.

Mais cette position nécessite de bien connaître des domaines scientifiques différents, l’Intelligence Artificielle, la construction effective des productions des systèmes multiagents massifs autocontrôlés morphologiquement, puis le psychisme et la transposition de l’architecture calculable complète dans la connaissance effective du psychisme humain, avec les notions de régulateurs, de contrôleurs et d’émergence multi-facettes, ce qui explique de très nombreuses pathologies, ce que nous avons publié avec Pierre Marchais.

La notion de libre arbitre est donc celle de la production d’un processus émergent multi-caractères dans une architecture très morphologique utilisant fortement le parallélisme et même l’équivalent de l’intrication et où chaque émergence altère de façon distribuée ce qui l’a produit, formant ainsi la mémoire très dynamique du système psychique. Cela n’a donc rien à voir avec la conception radicale d’un esprit humain qui serait la cause absolue de tous nos actes.

Ma réaction à la réaction d'Alain Cardon

Ce commentaire évoque trop sommairement un thème important de l'Intelligence artificielle dite autonome, qu'Alain Cardon a mis en centre de ses recherches actuelles: comment simuler le libre arbitre dans des systèmes artificiels, dont certains sont dit "massivement multi-agents", visant à l'autonomie? Il faudrait tout un article pour mettre à jour ce que nous avons écrit sur ce thème ici. JPB

Partager cet article
Repost0
22 août 2016 1 22 /08 /août /2016 13:32

Pour en savoir plus sur l'auteur, voir
Page personnelle https://www.preposterousuniverse.com/self.html

Wikipedia
https://fr.wikipedia.org/wiki/Sean_Carroll


Présentation

Il est évident que, plus les sciences progressent, plus elles offrent à la réflexion philosophique, si l'on peut employer ce terme, d'insondables perspectives à prendre en considération. C'est évidemment le cas de toutes les sciences, qu'elles relèvent de la physique dite macroscopique ou de la physique quantique, de la biologie, des neurosciences.

Ainsi, en cosmologie, apprendre aujourd'hui que selon les plus récentes observations, celles notamment de la Baryon Oscillation Spectroscopic Survey ( voir notre article ) l'univers visible comprendrait au moins 100 milliards de galaxies, elles-mêmes comprenant environ 100 milliards d'étoiles, et qu'un certain pourcentage d'entre elles pourraient comporter des systèmes solaires comportant eux-mêmes des planètes favorables à la vie et au développement de l'intelligence, la représentation que nous ne faisons de l'humanité et de notre intelligence ne peut pas ne pas être affectée. Autant l'homme, dans le système d'univers de Ptolémée, pouvait dans une certaine mesure se considérer comme le centre du monde, autant, dès Copernic, un des pères de l'héliocentrisme, il a du commencer à regarder le ciel d'une autre façon.

Aujourd'hui, la cosmologie n'offre évidemment aucune réponse à la question de savoir ce que représentent notre société et nos convictions à l'échelle de l'univers global. Chez les matérialistes (que Sean Carroll désigne du terme anglais de naturalistes), la plupart s'en accommodent. Nous n'en saurons jamais rien, dit-on, et il faut aborder des questions plus immédiates. D'autres se demandent nécessairement si la vision du monde offerte par la science actuelle est pertinente, voire même si la science elle-même est pertinente. Nécessairement aussi ils s'interrogent sur le fonctionnement de notre cerveau, qui élabore de telles questions contrairement semble-t-il à celui des animaux.

Le gros ouvrage de Sean Carroll (comportant 460 pages), n'est pas avare de telles interrogations philosophiques. L'auteur, qui est d'abord un physicien théoricien et un astrophysicien à Caltech, s'est à l'âge de 50 ans, donné des compétences suffisamment étendues dans pratiquement toutes les sciences pour pouvoir en parler avec pertinence. Il a doublé cette compétence d'une réflexion philosophique et morale dont nous dirons deux mots dans la seconde partie de cet article, que l'on ne peut nier.

L'ensemble a donné lieu de sa part à la rédaction de plusieurs ouvrages chacun favorablement apprécié par la critique universitaire. Assez curieusement, il reste peu connu en France. Mais cela ne devrait pas nous étonner connaissant l'ignorance abyssale des « élites intellectuelles » de ce pays au regard des questions scientifiques et de philosophie des sciences.

Il convient donc de conseiller à nos lecteurs francophones une lecture attentive de cet ouvrage, quelle que soit la peine qu'ils en éprouveront vu que le livre n'est pas traduit et aborde sans les approfondir, hors les références, un nombre considérable de questions et de réflexions. Mais il sera déjà très utile qu'ils s'en donnent une vue transversale, par un parcours rapide. Nous-mêmes, avouons-le, nous n'avons pas tout lu en détail –nous réservant de pouvoir discuter de certaines questions dans des articles ultérieurs. Notre rôle en tant que critique est de faire connaître au plus vite ce livre à ceux qui nous lisent. Ils pourront se forger leurs propres jugements.

La Big Picture que Carroll propose découle du postulat suivant. La théorie quantique des champs offre comme son nom l'indique une vue unifiée du monde subatomique. Elle repose sur l'intégrale de chemin à la dernière version de laquelle le physicien Feynman à donné son nom (Wikipedia https://fr.wikipedia.org/wiki/Int%C3%A9grale_de_chemin). Il s'agit comme la définition l'indique, d'une notion intéressant le monde subatomique, fort éloigné de notre perception du monde dit macroscopique.

Carroll l'appelle une théorie « coeur » ou fondamentale (CoreTheory) dont peuvent dériver les principaux traits de notre monde. D'autres par contre ne peuvent pas l'être. Les plus connus sont les concepts de la thermodynamique, comportant par exemple celui de temps indispensable à notre vision du monde. Ils les appelle des concepts « émergents ». Il s'agit de concepts qui certes ne doivent pas être incompatibles avec la « Core Theory » mais qui ne peuvent trouver leurs fondements dans celle-ci.

Parmi les concepts émergents, (nous résumons) les plus importants proviennent des expériences conscientes, ou plus généralement du phénomène que l'on nomme la conscience. Il s'agit, dit-il, de quelque chose qui n'est pas lié à l'architecture fondamentale de la réalité. Notre cerveau l'a inventé pour se donner une vue du monde plus utilisable par nous que des approches beaucoup plus simplifiées, telles celles utilisés, autant que l'on sache, par les cerveaux animaux.

En matérialiste convaincu (le mérite est grand aux Etats-Unis d'aujourd'hui de se reconnaître comme tel) il ne fait pas appel à l'intervention d'une divinité pour aborder les nombreux domaines que la science ne comprend pas encore. Il emploie seulement le terme, difficilement compréhensible sans contre sens en français, de poetic naturalism. Il désigne ainsi toutes les descriptions scientifiques ou philosophico-scientifiques du monde qui ne découlent pas de la physique fondamentale, mais qui ne sont pas incompatibles avec elle. Nous dirions pour notre part matérialismes appliqués ou dérivés, autrement dit dérivant du postulat matérialisme fondamental, celui de la matérialité d'un univers infra-corspusculaire ou quantique d'où proviennent toutes les autres formes de matière/énergie.

Discussion

Ce terme de poetic naturalism montre une tendance agaçante chez Sean Caroll à redéfinir ou seulement à nommer autrement des entités observables ou des concepts sur lesquels ont réfléchi plus de 2.500 ans de philosophies. Certes, il est excellent quand il s'agit d'actualiser les hypothèses ou observations portant sur ces entités, et qui sont en permanence approfondis ou redéfinis par les sciences d'aujourd'hui. En ce sens le livre, qui couvre pratiquement (ou qui survole pratiquement) tous les domaines de connaissance, paraitra très utile à tous ceux, scientifiques ou non, qui sont nécessairement quelque peu dépassés par l'explosion contemporaine des recherches et des publications. Il s'agit d'une très utile mise à jour.

Mais quand il s'agit d'interpréter ces connaissances au regard de ce que l'on pourrait appeler une philosophie du savoir, voire une métaphysique, il a du mal à ne pas reprendre ce qu'il faut bien nommer des poncifs.
Ainsi quand il explique doctement que la morale "n'existe pas en soi mais correspond à ce que chacun en fait. Tous alors n 'en ont pas la même conception". De même quand il traite de la conscience. Comme l'entropie, dit-il, la conscience est un concept que nous inventons pour nous donner des descriptions utiles et efficaces du monde.

Nous avons nous-mêmes sur ce site, il y a une dizaine d'années, essayé de recenser les principaux travaux scientifiques de l'époque concernant ce fait difficile à nier, la conscience (Voir par exemple La conscience vue par les neuro-sciences http://www.automatesintelligents.com/echanges/2008/dec/conscience.html)

Il est évident qu'il faudrait plusieurs livres de la taille de The Big Picture pour commencer à résumer toutes ces données et études. Ce ne sont pas les quelques pages qu'y consacre Sean Carroll qui peuvent prétendre le faire, fussent elles inspirées par un louable matérialisme refusant de voir dans la conscience humaine un don de la divinité.

On peut dire la même chose du concept de multivers, un des plus discuté par la cosmologie récente. Carroll se dit convaincu par ce concept. Mais il se borne à en dire, ce qui est certainement juste mais qui mériterait d être discuté, que le concept de multivers découle de théories qui sont mal définies. La Palisse n'aurait pas dit mieux.

La même critique peut être faite à propos du concept d'émergence, que Sean Carroll attribue à toutes les connaissances scientifiques se greffant sur le monde quantique de Feynman. Qu'est-ce qui émerge au juste? De quoi ceci émerge-t-il ? Les autres astres sont-ils le siège de telles émergences, et sinon pourquoi.?

Plus généralement, quand il parle de la science, il propose Dix Considérations qui devraient se substituer au Dix Commandements de l'Evangile. Il s'agit de (nous ne traduisons pas)

Life Isn’t Forever.
Desire Is Built Into Life.
What Matters Is What Matters To People.
We Can Always Do Better.
It Pays to Listen.
There Is No Natural Way to Be.
It Takes All Kinds.
The Universe Is in Our Hands.
We Can Do Better Than Happiness.
Reality Guides Us.

Soit, mais on peut se demander si ces Considérations découlent de son expérience de physicien théoricien, on d'un effort louable, mais cependant maladroit, pour se démarquer de l'enseignement des religions. A la fin du livre, Carroll décrit ses premiers enthousiasmes nés de sa fréquentation d'une église épiscopale. Ceux qui, comme la plupart des scientifiques en France, n'ont pas fréquenté de telles églises, mais en sont resté aux enseignements laïcs inspirant les universités de la République, n'ont certainement pas besoin de telles Considérations pour mener leurs recherches.

Partager cet article
Repost0
16 août 2016 2 16 /08 /août /2016 15:10

s par Jean-Paul Baquiast 16/08/2016

Thomas Buchert est:

* Professeur de Cosmologie à l'Université Claude Bernard Lyon 1
* Membre du CRAL (CNRS UMR 5574) à l'École Normale Supérieure de Lyon
* Membre du Consortium Euclid
* Professeur Adjoint de la Faculté ICRA-Net

Ses travaux originaux en cosmologie:
a. Théorie de perturbations lagrangiennes
b. Introduction des Fonctionnelles de Minkowski comme statistique pour les données astronomiques
c. Cosmologies inhomogènes (buchert equations)

Pour en savoir plus sur Thomas Buchert
http://www.galpac.net/members/buchert_fr.html

Voir aussi
http://www.galpac.net/projects/arthus/arthus_fr.html


Introduction à l'entretien

En cosmologie, les concepts de matière noire et d'énergie noire sont bien commodes. Tels les recours au mystère dans les philosophies de la nature, ils permettent de se dispenser de recherche scientifique plus approfondie. Ils prétendent expliquer les mystères en décourageant toute tentative pour mieux comprendre ce qu'ils cachent. L'oeuvre du cosmologiste Thomas Buchert propose de nouvelles perspectives très intéressantes pour aborder cette question.

Voir notre article du 23/06/2016, L'effet des inhomogénéités sur l'univers global, avec des commentaires de Thomas Buchert http://www.admiroutes.asso.fr/larevue/2016/170/buchert.htm

Voir aussi Rovelli http://www.admiroutes.asso.fr/larevue/2015/154/rovelli.htm

Jean-Paul Baquiast, ci-dessous JPB 16/08/2016

JPB: Cher Thomas Buchert, vous êtes un cosmologiste des plus innovants, mais aussi encore un peu hérétique. Vous refusez de recourir aux concepts de matière noire et d'énergie noire pour apporter des réponses à certaines des questions les plus ardues de l'astronomie, de la la cosmologie moderne et de la physique en générale. Pouvez vous nous dire comment vous en êtes arrivé là ?

TB pour Thomas Buchert Déjà tôt au cours de mes études, ma façon d'aborder la physique était d'examiner les changements paradigmatiques, autrement dit comment les paradigmes évoluent. Ceci en particulier concernant l'évolution des hypothèses sur lesquelles ils sont basés. Cette derniere approche conduit naturellement à la critique de l'hypothèse: apparaît elle non-réaliste ou trop idéalisé. Si vous regardez le modèle standard de la cosmologie, vous constatez qu'il est basé sur des hypothèses qui ne correspondent pas nécessairement à ce qu'on voit dans l'Univers.

Ainsi, si vous pensez que le modèle standard devrait décrire l'Univers dans le cadre de la théorie de la relativité générale d'Einstein, il saute aux yeux que les récents développements forts en astronomie concernant notre connaissance des structures dans l'Univers ne se reflètent pas dans les hypothèses sous-jacentes du modèle standard. En bref: la théorie d'Einstein exige pour les structures non-homogènes une géométrie non-homogène, tandis que le modèle standard repose sur une géométrie homogène.

Je ne pense pas que cette approche soit hérétique car elle cherche à comprendre sans être influencée par le paradigme courant. Elle nécessite cependant d'accepter que pour améliorer les idées actuelles il faille affronter des difficultés, difficultés techniques mais aussi difficultés à convaincre une majorité de scientifiques qui suit une autre voie. Par exemple, pour remettre en question le modèle standard homogène, il faut regarder la généralité des équations d'Einstein décrivant une géométrie inhomogène. La question à se poser était de savoir si un modèle homogène peut faire du sens. La réponse est qu'il n'a de sens que pour donner une description moyenne à grande échelle.

Il est donc conséquent de regarder les équations générales d'Einstein et leurs propriétés moyennes sur de grandes échelles et je suis arrivé à un modèle cosmologique “en moyen“ . Ceci veut dire qu'il comporte des termes supplémentaires agissant comme énergie noire (ou sombre) sur de grandes échelles, mais aussi agissant comme de la matière noire sur de petites échelles. Ces effets existent. La seule question ouverte – c'est le sujet de la recherche actuelle - est de quantifier ces effets. Il se peut que ces effets ne sont pas suffisants pour expliquer les sources sombres, mais il est nécessaire cependant de les quantifier. Tout cela n'est que de la physique, et ne fait pas appel à des éléments mystérieux.

JPB. Vous considérez vous conforté par les informations actuellement publiées selon laquelle les recherches sur les supposées particules de matière noire (WIMPs, Weakly Interactive Massive Particles) seraient en cours d'abandon, faute de résultats?

TB. Le paradigme de l'existence de la matière noire est toujours en train de se modifier. Il y a beaucoup de candidats plausibles pour l'expliquer. Je considère les mini trous noirs comme des candidats raisonnables, mais le paradigme reste le même. En fait, il se peut que nous trouvions de la matière noire, car des évidences indirectes existent, bien plus d'ailleurs que pour l'énergie sombre. Cependant, étant donné que les effets des inhomogénéités peuvent également agir comme la matière noire, il est évident que l'on doive tenir compte de ces effets dans les modèles censés expliquer ces évidences. Par exemple, les modèles actuels négligent la courbure de l'espace. Ils sont newtoniens. Le halo d'une galaxie ne peut être modélisé de manière réaliste qu'avec la prise en compte de la courbure. La question se pose donc de savoir si cette propriété physique - négligée dans le modèle standard - peut en modifier les conclusions.

JPB. Mais vous estimez, sauf erreur, qu'une explication alternative, celle de la gravité modifiée (MOND, TeVeS) ou bien d'autres théories comme la théorie bimétrique édudiée par Luc Blanchet seraient inutilement compliquées. Il ne serait donc pas nécessaire d'abandonner la théorie de la gravitation universelle proposée par Einstein.

TB. J'ai récemment apprécié un exposé donné par Luc Blanchet au cours de la dernière conférence SF2A à Lyon. J'ai aimé la présentation. Les sources sombres sont souvent recherchées en termes de champs fondamentaux existants - ou en termes de généralisations du lois de la gravitation. Pour la dernière possibilité, les approches comme MOND et TeVeS sont utiles car elles donnent une idée phénoménologique sur ce qui change par rapport aux modèles simplistes.

Néanmoins, elles semblent viser à « réparer » les théories universelles, bien testées comme la théorie d'Einstein, or cette réparation dépend de l'échelle ou du système astronomique que vous regardez. Le plus souvent, l'un des postulat parait confirmé, c'est-à-dire soit postuler l'existence de la matière noire soit changer la loi gravitationnelle. Mais les deux simultanément parait difficile. Le rasoir d'Occam suggère qu'une telle approche peut difficilement être concluante. Plus précisément, je pense que les sources sombres sont le produit d'une modélisation trop simpliste. Elles ne sont pas nécessairement liées aux fondements de la théorie de la gravitation. Il n'empèche que les études concernant une modification de la gravité évoquées par vous sont intéressantes et importantes.

JPB. Pour en revenir à vos hypothèses, elles ne paraissent pas pour le moment vérifiables expérimentalement. Pourront-elle l'être prochainement?

TB. La possibilité de prédictions observationnelles dépend en grande partie de la possibilité de mesurer indirectement l'évolution de la courbure. Le modèle standard suppose une courbure nulle à travers le temps et à toutes les échelles spatiales. Puisque la géométrie change, il en est de même de l'interprétation des observations. Elles sont tirées de propriétés de la géométrie du modèle sous-jacent.

Nous avons développé dans mon laboratoire des modèles sans énergie sombre qui décrivent la courbure émergente à la suite de la formation des structures. Ils sont compatibles avec les propriétés moyennes des équations d'Einstein et les données observationnelles. Nous pouvons construire des observables à partir de ces modèles et les comparer avec l'évolution du modèle standard.

Les différences ne peuvent pas être mesurées avec les données actuelles, car en particulier nous avons besoin de dérivés des observables en fonction du décalage vers le rouge qui sont difficiles à mesurer. Cependant, nous avons pu montrer que ces différences seront mesurables dans les futures missions astronomiques telles qu'Euclid.

Je tiens à ajouter que ce n'est pas tant la question de la vérification qui se pose que la question de savoir si une théorie est falsifiable. L'approche de la cosmologie inhomogène est fortement falsifiable comme Karl Popper l'avait demandé. Contrairement aux approches phénoménologiques contenant des paramètres, ici il n'y a aucun paramètre libre et toutes les variables sont étroitement verrouillées au sein de la théorie d'Einstein.

Sur les idées de Karl Popper, vous pouvez voir le dialogue philosophie / cosmologie:
http://mc.univ-paris-diderot.fr/publicmedia?task=show_media_public&mediaRef=MEDIA131216162805657&Presid=2901

JPB Vos hypothèses vous paraissent-elles compatibles avec celles discutées actuellement, de la gravitation quantique à boucle promues aujourd'hui par Carlo Rovelli. Elles obligent à admettre qu'à un certain niveau d'approche, et conformément aux concepts de la mécanique quantique, il ne serait plus possible de parler de temps ou d'espace. Que devient alors l'utilité de vos recherches sur l'évolution de l'univers après le Big Bang?

TB. La question à se poser est de savoir sur quelle échelle la théorie d'Einstein est valide. Elle l'est certainement sur une échelle macroscopique or en cosmologie nous sommes à une échelle où l'approximation d'un fluide est valable. Le concept à prendre en compte et à examiner est celui du « coarse-graining » (fait de grains plus grossiers).

En supposant que les équations d'Einstein soient valides sur une échelle macroscopique, notre approche considère les moyennes sur des échelles différentes qui, en fait, conduisent à des équations différentes de celles d' Einstein. Dans ce sens faire la moyenne modifie la théorie d'Einstein, mais il s'agit d'une modification contrôlée qui dépend de la façon dont nous effectuons les moyennes. A l'échelle microscopique (quantique) le même processus de « coarse-graining » devrait être appliquée pour retrouver la théorie d'Einstein concernant les échelles macroscopiques.

Il existe un lien important entre notre approche et la gravitation quantique à boucles qui doit être vue comme une « renormalisation » de la géométrie de l'espace-temps. Bien sûr, à un niveau microscopique, les notions macroscopiques d'espace et de temps apparaissent comme des propriétés intégrales des structures discrètes ou à partir de procédures plus complexes, comme l'émergence de l'espace-temps à partir des « spin foams » 2).

JPB. Dans l'immédiat, comment envisagez vous la suite de vos travaux?

TB. Je travaille essentiellement sur trois fronts. Tout d'abord, je cherche à améliorer avec mes étudiants le formalisme de la moyenne, ce qui est une tâche passionnante où l'on prend des éléments de théorèmes mathématiques de la géométrie de Riemann et de la topologie.

Deuxièmement, nous améliorons dans plusieurs collaborations nos modèles et les prévisions qui peuvent être mesurées dans les futurs catalogues de galaxies en utilisant des statistiques de la géométrie intégrale qui sont liées aux moyennes.

Troisièmement, nous concevons des éléments de base pour améliorer les techniques de simulation numérique où l'on a commencé à passer de la simulation newtonienne traditionnelle aux simulations au sein de la relativité générale.
Sur ce sujet voyez le commentaire:
http://physics.aps.org/synopsis-for/10.1103/PhysRevLett.116.251301

JPB. Je vous remercie

Notes ajoutées par JPB.

1. La revue Newscientist datée du 30 juillet 2016, p. 19, explique ainsi que faute de résultats, les expériences visant à identifier ne fut-ce que quelques unes de ces WIMPs devraient être prochainement abandonnées. D'autres hypothèses, évoquant des particules exotiques dites axions, ou même l'effet de mini-trous noirs, ne devraient pas davantage être poursuivies faute d'expériences probantes permettant de les mettre en évidence.

2) Sur les spin foams voyez https://en.wikipedia.org/wiki/Spin_foam ).

Articles précédents

* L'effet des inhomogénéités sur l'univers global
http://www.admiroutes.asso.fr/larevue/2016/170/buchert.htm

* Carlo Rovelli
http://www.admiroutes.asso.fr/larevue/2015/154/rovelli.htm

Partager cet article
Repost0
28 juin 2016 2 28 /06 /juin /2016 09:22

Cet article complète et remplace le précédent sous le même titre


Jean-Paul Baquiast 23/06/2016

Thomas Buchert est professeur de cosmologie à l'Université Lyon 1 et travaille au Centre .de Recherche Astrophysique de Lyon, dépendant de l'Ecole Normale Supérieure de Lyon. Il a déjà publié, seul ou avec des collègues, un nombre remarquable d'articles concernant les grandes discussions actuelles en astrophysique. On en trouve les références sur son site (voir ci-dessous)

Thomas Buchert est professeur de cosmologie à l'Université Lyon 1 et travaille au Centre .de Recherche Astrophysique de Lyon, dépendant de l'Ecole Normale Supérieure de Lyon. Il a déjà publié, seul ou avec des collègues, un nombre remarquable d'articles concernant les grandes discussions actuelles en astrophysique. On en trouve les références sur son site (voir ci-dessous)Thomas Buchert est professeur de cosmologie à l'Université Lyon 1 et travaille au Centre .de Recherche Astrophysique de Lyon, dépendant de l'Ecole Normale Supérieure de Lyon. Il a déjà publié, seul ou avec des collègues, un nombre remarquable d'articles concernant les grandes discussions actuelles en astrophysique. On en trouve les références sur son site (voir ci-dessous)

Depuis quelques années, il a abordé un problème de plus en plus à l'ordre du jour en cosmologie. On pourrait le résumer de la façon suivante. Si l'on considère, en application du Principe dit Cosmologique, que l'Univers est identique à lui-même, quelque soit le point et l'époque de l'observation, les observations astrophysiques récentes ne permettent pas d'expliquer d'une part la force de la gravité permettant d'assurer la cohésion des galaxies et d'autre part la vitesse d'expansion de l'univers, laquelle se serait brutalement accélérée il y a environ 5 milliards d'années.

La force de gravité résultant des équations de la Relativité générale d'Einstein devrait être uniforme en quelque temps et en quelque lieu que ce soit dans l'univers. Or il est aujourd'hui constaté que cette force, telle qu'elle avait été évaluée dans les modèles d'univers précédents, serait insuffisante pour maintenir les systèmes cosmologiques (galaxies, amas de galaxies et même systèmes solaires) dans la forme que l'on observe. Dans ces systèmes, la force centrifuge résultant de leur rotation aurait du depuis longtemps provoqué leur dispersion. Pour expliquer que ce ne soit pas le cas, les théoriciens ont imaginé l'existence d'une matière noire, invisible avec nos instruments, présentes au sein des galaxies et constituées de particules qui n'ont pas encore été découvertes. Celles-ci, additionnées aux particules de la matière ordinaire, constitueraient une masse suffisante pour d'opposer aux effets centrifuges de la rotation.

Il devrait être de même de la vitesse d'expansion de l'univers, constatée quelques instants après le Big Bang dans l'hypothèse de l'inflation cosmologique et qui devrait en principe ralentir progressivement. Or l'on constate que l'expansion, loin de ralentir, s'est depuis accélérée, pouvant conduire d'ailleurs à un univers de plus en plus dispersé et de moins en mois dense. Mais là encore il faudrait découvrir l'énergie qui à l'échelle de l'univers, serait responsable de cette expansion accélérée. Comme les modèles explicatifs actuels ne permettent pas de le faire, la force en question a été nommée énergie noire.

Dans des articles précédents, nous avons évoqué ces deux hypothèses, matière noire et énergie noire, tout en constatant que les cosmologistes s'accommodent faute de mieux du vide explicatif mettant en défaut la force de gravité. On pourrait penser que tous les efforts de la cosmologie, théorique et observationnelle, devraient être appliqués pour résoudre ce double mystère, mais à l'impossible nul n'est tenu. Le mystère demeure.

La théorie d'Einstein

Rappelons en simplifiant beaucoup, que la théorie d'Einstein avait développé l'idée, depuis abondamment vérifiée, que la masse courbe l'espace environnant. Dans un univers où les masses se sont de moins en moins uniformément réparties, comme le montrent les observations du fond diffus cosmologique ou fond diffus micro-ondes, les dernières en date venant d'être produites par le satellite Planck, on peut imaginer que des gravités différentes, résultant de masses et de courbures d'espace différentes, se seraient progressivement installées.

Dans de tels « sous-espaces », si l'on peut se permettre le terme, les forces de gravité seraient de plus en plus fortes selon la concentration des masses. Point ne serait alors besoin d'imaginer une matière noire assurant la cohésion des galaxies et amas de galaxies. La gravité modifiée y régnant du fait de leur masse globale serait suffisante. De même, les vides de masse s'étant en parallèle formés progressivement ne permettraient plus en leur sein la convergence des rayons lumineux. Dans ce cas, des courbures négatives pourraient être observéés, à l'opposé des courbures positives ou nulles attribuées à un univers où les rayons convergeraient ou resteraient parallèles. A l'observation, au moins dans les vides, l'univers pourrait paraître plus grand qu'il ne l'est, ou qu'il se dilate à plus grande vitesse que prévu initialement.. Point ne serait besoin dans ce cas d'imaginer une énergie noire responsable de cette expansion.

La question qui reste posée, dans ces deux cas, concerne le poids relatif de cette gravité modifiée au niveau global de l'univers ou des structures que celui-ci contient. S'agirait-il d'effets finalement marginaux ne permettant pas d'expliquer la matière noire et l'énergie noire, ou au contraire d'effets résultant de ce que l'on pourrait appeler une nouvelle lois fondamentale de l'univers, s'ajoutant à toutes les autres? Par ailleurs, pourquoi l'expansion se serait-elle accélérée il y a 5 milliards d'années?

Les backréactionnistes

Les physiciens défendant l'hypothèse des effets marginaux sont encore en majorité. Ils se nomment en s'inspirant des termes anglais des antibackréactionistes. Autrement dit, ils refusent que les modifications de gravité envisagées puissent avoir des effets en retour (backreaction) suffisants pour expliquer les effets attribués à la matière noire et l'énergie noire. On cite parmi eux Stephen Green et Robert Wald qui ont présenté entre 2011 et 2014 des modèles mathématiques visant à le prouver. Mais de telles mathématiques sont discutables et demanderaient des moyens computationnels considérables pour les développer. Par ailleurs la mathématique de Green et Wald n'est simplement pas générale dans le sens que les effets de backreaction importants ne sont pas pris en compte. Ces articles avancent selon les backréactionnistes (voir § ci-dessous) des conjectures fortes mais sans preuve pertinente.

D'autres cosmologistes, à l'audience croissante, considérent comme erronée l'hypothèse de la matière noire et de l'énergie noire.. Ils observent que les effets en retour de modification de la gravité découlant des inhomogénéités de l'univers (backreaction) sont de plus en plus crédibles. Ils se nomment eux-mêmes des « backreactionnistes ». Parmi ceux-ci, l'un des plus éloquent est le Pr. Thomas Buchert précité. Il a présenté avec des collègues plusieurs articles dont le plus récent date de 2015. Il y indique que l'effet des inhomogénéités de l'univers pourraient produire des réactions en retour capables de générer qualitativement les effets attribués aux prétendues matière noire et énergie noire (voir sources citées ci-dessous). Les travaux sont en cours pour quantifier cet effet.

Pour être plus précis, selon lui, la théorie d'Einstein prédit une géométrie inhomogène pour une distribution de masses inhomogène. Le modèle cosmologique standard, pour sa part, décrit les inhomogénéities des sources, mais néglige les inhomogénéités dans la géométrie. Ce que proposent Thomas Buchert et ses collègues est d'en revenir à la théorie d'Einstein. Il ne s'agit pas d'une modification de la loi de gravitation. Ceci n'est pas toujours bien compris. L'approche de la backréaction est de prendre au sérieux la géométrie inhomogène dans la théorie d'Einstein, sans changement de la théorie et sans postulats de sources fondamentales.

Sur l'accélération de l'expansion il y a 5 milliards d'années, les backréactionnistes répondent que cette date correspond au moment où les structures se sont formées, donc, comme les structures ont un impact global sur l'expansion de l'Univers, le point est naturellement expliqué.

Antibackréactionnistes et backreactionnistes attendent la réalisation de modèles mathématiques d'univers suffisamment fins pour intégrer les effets des inhomogénéités observées dans les observations satellitaires actuelles du fond diffus micro-ondes ou pouvant provenir d'observations futures. Les travaux en ce sens sontengagés, mais ne permettent pas encore de départager les antibackréactionnistes et leurs adversaires backréactionnistes. Il est possible cependant que dans les mois ou les années qui viennent, les backréactonnistes comme Thomas Buchert se voient confortés dans leurs hypothèses. Les concepts mystérieux de matière noire et d'énergie noire disparaitraient alors, ce qui serait satisfaisant au regard d'une certaine rationalité scientifique. Mais il faudrait expliquer alors en détail les causes et les formes des effets constatés et attribués à la matière et énergie noires.

La cosmologie, comme nous l'avions remarqué dans d'autres articles, n'est pas prête à renoncer au recrutement de jeunes cosmologistes. L'emploi y est assuré, sinon les postes budgétaires correspondants. plus.com/2016/01/20/the-universe-is-inhomogeneous-does-it-matter/

Sources

* https://arxiv.org/abs/1505.07800
Is there proof that backreaction of inhomogeneities is irrelevant in cosmology?

T. Buchert, M. Carfora, G.F.R. Ellis, E.W. Kolb, M.A.H. MacCallum, J.J. Ostrowski, S. Räsänen, B.F. Roukema, L. Andersson, A.A. Coley, D.L. Wiltshire

No. In a number of papers Green and Wald argue that the standard FLRW model approximates our Universe extremely well on all scales, except close to strong field astrophysical objects. In particular, they argue that the effect of inhomogeneities on average properties of the Universe (backreaction) is irrelevant. We show that this latter claim is not valid. Specifically, we demonstrate, referring to their recent review paper, that (i) their two-dimensional example used to illustrate the fitting problem differs from the actual problem in important respects, and it assumes what is to be proven; (ii) the proof of the trace-free property of backreaction is unphysical and the theorem about it fails to be a mathematically general statement; (iii) the scheme that underlies the trace-free theorem does not involve averaging and therefore does not capture crucial non-local effects; (iv) their arguments are to a large extent coordinate-dependent, and (v) many of their criticisms of backreaction frameworks do not apply to the published definitions of these frameworks. It is therefore incorrect to infer that Green and Wald have proven a general result that addresses the essential physical questions of backreaction in cosmology.

* Autres sources provenant de Thomas Buchert
http://cdsads.u-strasbg.fr/cgi-bin/nph-bib_query?bibcode=2005CQGra..22L.113B&db_key=PHY&data_type=HTML&format=&high
=4116395
1fb16303

A system of effective Einstein equations for spatially averaged scalar variables of inhomogeneous cosmological models can be solved by providing a 'cosmic equation of state'. Recent efforts to explain dark energy focus on 'backreaction effects' of inhomogeneities on the effective evolution of cosmological parameters in our Hubble volume, avoiding a cosmological constant in the equation of state. In this letter, it is argued that if kinematical backreaction effects are indeed of the order of the averaged density (or larger as needed for an accelerating domain of the universe), then the state of our regional Hubble volume would have to be in the vicinity of a far-from-equilibrium state that balances kinematical backreaction and average density. This property, if interpreted globally, is shared by a stationary cosmos with effective equation of state {\bf p}_{\bf \rm eff} = -1/3 {\boldsymbol \varrho}_{\bf \rm eff} . It is concluded that a confirmed explanation of dark energy by kinematical backreaction may imply a paradigmatic change of cosmology.

Aussi http://cdsads.u-strasbg.fr/abs/2008GReGr..40..467B

Références

*Thomas Buchert http://www.galpac.net/members/buchert_fr.html
* Pages cosmologie http://www.cosmunix.de/
*Articles sur arxiv http://arxiv.org/a/buchert_t_1.html

* Pour l'article contre Green et Wald il existe un commentaire "insight" sur CQG+:
https://cqgplus.com/2016/01/20/the-universe-is-inhomogeneous-does-it-matter/

* Principe cosmologique Wikipedia https://fr.wikipedia.org/wiki/Principe_cosmologique
* Inflation cosmique Wikipedia https://fr.wikipedia.org/wiki/Inflation_cosmique
* Inhomogénéité Wikipedia https://en.wikipedia.org/wiki/Inhomogeneous_cosmology

Pour approfondir

Nous avons soumis à Thomas Buchert une question plus technique avant de terminer la rédaction de l'article. Il a eu l'amabilité de nous répondre immédiatement. On trouve ci-dessous la question et ses réponses. La question est découpée ici en plusieurs paragraphes. Evidemment, bien d'autres questions pourraient être posées, et recevoir bien d'autres réponses.

* Question.
L'on comprend bien, en suivant les backréationnistes, que les observateurs que nous sommes se situent globalement dans une ère d'expansion accélérée de l'univers au sein de laquelle les vides commencent à dominer, ce qui force la courbure de l'espace à devenir négative. D'où les observations que nous pouvons faire concernant les supernovas (Riess et al.) qui nous paraissent s'éloigner de nous plus vite qu'elles ne le paraitraient dans un univers à courbure 0 ou positive.

Réponse.
Exact

* Suite de la question
Mais dans le même temps, nous sommes situés dans une galaxie (ou à ses bords) soumise à une forte attraction gravitationnelle centripète, qui d'ailleurs sauf erreur devrait être de plus en plus sensible au fur et à mesure que l'on se rapproche du centre (le trou noir central ?).

Réponse
Sur les petites échelles il y a deux joueurs en compétition: la masse attirante (réelle) et la matière noire pour le modèle standard. Avec la backreaction, ce dernier peut être pensé comme un effet de courbure positive, mais ensuite la backreaction contient plusieurs composantes avec des signes différents :
1. La dispersion de vitesse qui stabilise les structures. Elle a les deux possibilités. en effondrement elle joue contre la gravitation, en expansion avec.
2. La vorticité de vitesse qui joue contre la gravitation. NDLR. Le mot est très généralement associé au vecteur tourbillon porté par l'axe de rotation qui se calcule comme le rotationnel de la vitesse et a une intensité double de celle du vecteur rotation.
3. La pression qui peut aussi stabiliser la partie baryonique de la matière (protons, neutrons) , comme en 1.
4. Ensuite selon la backreaction "classique": la variance de l'expansion joue contre la gravitation et le cisaillement joue avec.
Tout ces termes sont couplés à la courbure. Donc, on ne peut pas dire sans modélisation p
récise ce qui se passe autour du centre.

* Suite de la question
On ne comprend pas comment dans ces conditions nous subirions deux effets contraires en même temps. Nous ne devrions ressentir que l'effet résultant de leur moyenne, et non tantôt l'un et tantôt l'autre selon l'objet d'observation que nous choisissons. Autrement dit, étant situé dans un espace fortement massif et courbé, nous ne pourrions pas faire les mêmes observations que nous ferions si nous étions au sein ou au bord d'un vide.

Réponse.
Oui. Mais il faut savoir sur quelle échelle on observe. Autour de la galaxie le redshift est pratiquement zero, mais dans un catalogue de galaxies on trouve des intervalles de redshift bien au-delà d'une échelle de 400 Mpc (un vide est entre 20 et 400 Mpc). Donc, on observe sur des distances grandes. L'effet local autour d'une galaxie ne compte pas pour une observation à très grande échelle. Les supernovae sont elles aussi observées dans des autres galaxies bien lointaine afin de juger sur l'accélération.

* Suite de la question
Là où nous situons, les rayons provenant d'une supernova devraient donc sauf erreur nous paraître convergents et non divergents....même si leur convergence apparente était « en réalité » diminuée par la divergence due au vide tenant la courbure négative de l'espace global. On comprends bien, en suivant les backréationnistes, que les observateurs que nous sommes se situent globalement dans une ère d'expansion accélérée de l'univers dans laquelle les vides commencent à dominer, ce qui force la courbure de l'espace à devenir négative. D'où les observations que nous pouvons faire concernant les supernovas qui nous paraissent s'éloigner de nous plus vite qu'elles ne le paraitraient dans un univers à courbure 0 ou positive.

Réponse.
Je pense qu'il faudrait faire une différence entre d'une part un modèle qui modélise bien la distribution de courbure et l'effet sur les équations cosmologiques aux différentes échelles, et d'autre part les rayons de lumière dans une métrique associée. Les rayons doivent être modélisés avec ce qu'on appelle "ray-tracing". La littérature sur ce sujet est dans son enfance; la plupart de la littérature prend toujours un modèle standard avec géométrie homogène. Les gens ont juste commencé de le faire dans un modèle inhomogène. Mais, là aussi il faut penser que la lumière prend longtemps pour passer d'une région avec courbure négative avant d'arriver chez nous. La distance lumineuse ne sera pas trop affectée par une autre courbure locale juste avant l'arrivée. C'est la distance lumineuse qui compte, pas l'angle de l'arrivée.

Partager cet article
Repost0
23 juin 2016 4 23 /06 /juin /2016 18:33


Jean-Paul Baquiast 23/06/2016

Thomas Buchert est professeur d'astrophysique au Centre de Recherche Astrophysique de Lyon, dépendant de l'Ecole Normale Supérieure de Lyon. Il a déjà publié, seul ou avec des collègues, un nombre remarquable d'articles concernant les grandes discussions actuelles en astrophysique. On en trouve les références sur son site (voir ci-dessous)

Depuis quelques années, il a abordé un problème de plus en plus à l'ordre du jour en cosmologie. On pourrait le résumer de la façon suivante. Si l'on considère, en application du Principe dit Cosmologique, que l'Univers est identique à lui-même, quelque soit le point et l'époque de l'observation, les observations astrophysiques récentes ne permettent pas d'expliquer d'une part la force de la gravité permettant d'assurer la cohésion des galaxies et d'autre part la vitesse d'expansion de l'univers, laquelle se serait brutalement accélérée il y a environ 5 milliards d'années.

La force de gravité résultant des équations de la Relativité générale d'Einstein devrait être uniforme en quelque temps et en quelque lieu que ce soit dans l'univers. Or il est aujourd'hui constaté que cette force, telle qu'elle avait été évaluée dans les modèles d'univers précédents, serait insuffisante pour maintenir les systèmes cosmologiques (galaxies, amas de galaxies et même systèmes solaires) dans la forme que l'on observe. Dans ces systèmes, la force centrifuge résultant de leur rotation aurait du depuis longtemps provoqué leur dispersion. Pour expliquer que ce ne soit pas le cas, les théoriciens ont imaginé l'existence d'une matière noire, invisible avec nos instruments, présentes au sein des galaxies et constituées de particules qui n'ont pas encore été découvertes. Celles-ci, additionnées aux particules de la matière ordinaire, constitueraient une masse suffisante pour d'opposer aux effets centrifuges de la rotation.

Il devrait être de même de la vitesse d'expansion de l'univers, constatée quelques instants après le Big Bang dans l'hypothèse de l'inflation cosmologique et qui devrait en principe ralentir progressivement. Or l'on constate que l'expansion, loin de ralentir, s'est depuis accélérée, pouvant conduire d'ailleurs à un univers de plus en plus dispersé et de moins en mois dense, au contraire de l'hypothèse dite du Big Crunch. Mais là encore il faudrait découvrir l'énergie qui à l'échelle de l'univers, serait responsable de cette expansion accélérée. Comme les modèles explicatifs actuels ne permettent pas de le faire, la force en question a été nommée énergie noire.

Dans des articles précédents, nous avons évoqué ces deux hypothèses, matière noire et énergie noire, tout en constatant que les cosmologistes s'accommodent faute de mieux du vide explicatif mettant en défaut la force de gravité. On pourrait penser que tous les efforts de la cosmologie, théorique et observationnelle, devraient être appliqués pour résoudre ce double mystère, mais à l'impossible nul n'est tenu. Le mystère demeure.

La MOND

Il existe cependant depuis quelques années des hypothèses selon lesquelles la force de gravité, contrairement à ce qu'implique le principe cosmologique, ne serait pas uniforme dans l'univers. On parle souvent de MOND ou Modified Newtonian dynamics. Nous avons mentionné précédemment un certain nombre d'articles et même d'ouvrages développant cette hypothèse et ses conséquences. En résumant beaucoup, la MOND exploite l'idée présentée par Einstein et depuis abondamment vérifié, que la masse courbe l'espace environnant. Dans un univers où les masses se sont de moins en moins uniformément réparties, comme le montrent les observations du fond diffus cosmologique ou fond diffus micro-ondes, les dernières en date venant d'être produites par le satellite Planck, on peut imaginer que des gravités différentes, résultant de masses et de courbures d'espace différentes, se seraient progressivement installées.

Dans de tels « sous-espaces », si l'on peut se permettre le terme, les forces de gravité seraient de plus en plus fortes selon la concentration des masses. Point ne serait alors besoin d'imaginer une matière noire assurant la cohésion des galaxies et amas de galaxies. La gravité modifiée y régnant du fait de leur masse globale serait suffisante. De même, les vides de masse s'étant en parallèle formés progressivement ne permettraient plus en leur sein la convergence des rayons lumineux. Dans ce cas, des courbures négatives pourraient être observéés, à l'opposé des courbures positives ou nulles attribuées à un univers où les rayons convergeraient ou resteraient parallèles. A l'observation, au moins dans les vides, l'univers pourrait paraître plus grand qu'il ne l'est. Point ne serait besoin dans ce cas d'imaginer une énergie noire responsable de cette expansion.

La question qui reste posée, dans ces deux cas, concerne le poids relatif de cette gravité modifiée au niveau global de l'univers ou des structures que celui-ci contient. S'agirait-il d'effets finalement marginaux ne permettant pas d'expliquer la matière noire et l'énergie noire, ou au contraire d'effets résultant de ce que l'on pourrait appeler une nouvelle lois fondamentale de l'univers, s'ajoutant à toutes les autres? Par ailleurs, pourquoi l'expansion se serait-elle accélérée il y a 5 milliards d'années?

Les backréactionnistes

Les physiciens défendant l'hypothèse des effets marginaux sont encore en majorité. Ils se nomment en s'inspirant des termes anglais des antibackréactionistes. Autrement dit, ils refusent que les modifications de gravité envisagées dans les hypothèse de la MOND puissent avoir des effets en retour (backreaction) suffisants pour expliquer la matière noire et l'énergie noire. On cite parmi eux Stephen Green et Robert Wald qui ont présenté en 2004 des modèles mathématiques visant à le prouver. Mais de telles mathématiques sont discutables et demanderaient des moyens computationnels considérables pour les développer.

D'autres cosmologistes, considérant comme erronée l'hypothèse de la matière noire et de l'énergie noire, observent que les effets en retour de modification de la gravité découlant des inhomogénéités de l'univers (backreaction) commencent à se faire de plus en plus entendre. Ils se nomment eux-mêmes des « backreactionnistes ». Parmi ceux-ci, l'un des plus éloquent est le Pr. Thomas Buchert précité. Il a présenté avec des collègues plusieurs articles dont le plus récent date de 2015. Il y affirme que l'effet des inhomogénéités de l'univers peuvent produire des réactions en retour suffisantes pour produire les effets attribués aux prétendues matière noire et énergie noire.

Les uns et les autres attendent la réalisation de modèles mathématiques d'univers suffisamment fins pour intégrer les effets des inhomogénéités observées dans les observations satellitaires actuelles du fond diffus micro-ondes ou pouvant provenir d'observations futures. Les travaux en ce sens sont en cours, mais ne permettent pas encore de départager les antibackréactionnistes et leurs adversaires backréactionnistes. Il n'est pas impossible cependant que dans les mois ou les années qui viennent, les backréactonnistes comme Thomas Buchert se voient confortés dans leurs hypothèses. Les concepts mystérieux de matière noire et d'énergie noire disparaitraient alors, ce qui serait satisfaisant au regard d'une certaine rationalité scientifique. Mais il faudrait expliquer alors en détail les causes et les formes des modifications de gravité envisagées.

Sources

* https://arxiv.org/abs/1505.07800
Is there proof that backreaction of inhomogeneities is irrelevant in cosmology?

T. Buchert, M. Carfora, G.F.R. Ellis, E.W. Kolb, M.A.H. MacCallum, J.J. Ostrowski, S. Räsänen, B.F. Roukema, L. Andersson, A.A. Coley, D.L. Wiltshire

No. In a number of papers Green and Wald argue that the standard FLRW model approximates our Universe extremely well on all scales, except close to strong field astrophysical objects. In particular, they argue that the effect of inhomogeneities on average properties of the Universe (backreaction) is irrelevant. We show that this latter claim is not valid. Specifically, we demonstrate, referring to their recent review paper, that (i) their two-dimensional example used to illustrate the fitting problem differs from the actual problem in important respects, and it assumes what is to be proven; (ii) the proof of the trace-free property of backreaction is unphysical and the theorem about it fails to be a mathematically general statement; (iii) the scheme that underlies the trace-free theorem does not involve averaging and therefore does not capture crucial non-local effects; (iv) their arguments are to a large extent coordinate-dependent, and (v) many of their criticisms of backreaction frameworks do not apply to the published definitions of these frameworks. It is therefore incorrect to infer that Green and Wald have proven a general result that addresses the essential physical questions of backreaction in cosmology.

* Autres sources provenant de Thomas Buchert
http://cdsads.u-strasbg.fr/cgi-bin/nph-bib_query?bibcode=2005CQGra..22L.113B&db_key=PHY&data_type=HTML&format=&high
=41163951fb163
03

A system of effective Einstein equations for spatially averaged scalar variables of inhomogeneous cosmological models can be solved by providing a 'cosmic equation of state'. Recent efforts to explain dark energy focus on 'backreaction effects' of inhomogeneities on the effective evolution of cosmological parameters in our Hubble volume, avoiding a cosmological constant in the equation of state. In this letter, it is argued that if kinematical backreaction effects are indeed of the order of the averaged density (or larger as needed for an accelerating domain of the universe), then the state of our regional Hubble volume would have to be in the vicinity of a far-from-equilibrium state that balances kinematical backreaction and average density. This property, if interpreted globally, is shared by a stationary cosmos with effective equation of state {\bf p}_{\bf \rm eff} = -1/3 {\boldsymbol \varrho}_{\bf \rm eff} . It is concluded that a confirmed explanation of dark energy by kinematical backreaction may imply a paradigmatic change of cosmology.

Références

*Thomas Buchert http://www.galpac.net/members/buchert_fr.html
* Pages cosmologie http://www.cosmunix.de/
*Articles sur arxiv http://arxiv.org/a/buchert_t_1.html

* Principe cosmologique Wikipedia https://fr.wikipedia.org/wiki/Principe_cosmologique
* Inflation cosmique Wikipedia https://fr.wikipedia.org/wiki/Inflation_cosmique
* MOND Wikipedia https://fr.wikipedia.org/wiki/Th%C3%A9orie_MOND

Partager cet article
Repost0
27 mai 2016 5 27 /05 /mai /2016 22:06

Jean-Paul Baquiast 27/05/2016

Dans un article du NewScientist, daté du 21 mai 2016, intitulé Time to decide 1), le physicien quantique suisse Nicolas Gisin 2), pionnier de la téléportation des états quantique et de l'une de ses applications, la cryptographie quantique, explique pourquoi il ne peut admettre les arguments de la science déterministe selon lesquels le libre arbitre n'est qu'une illusion.

Sa conviction ne découle pas d'hypothèses religieuses selon lesquelles le libre-arbitre aurait été conféré à l'homme du fait que celui-ci ait été fait à l'image de Dieu, dont aucune loi ne peut enchainer la totale liberté de créer ou ne pas créer. Elle peut par contre les rejoindre. Il raisonne sur le libre-arbitre en termes strictement scientifiques. Reprenons ici son argumentation, en la ponctuant de quelques commentaires personnels.

Toute la physique macroscopique moderne, depuis Descartes, Newton et Einstein, repose sur l'assomption que l'univers est déterministe. Par extension, dans le cas de sciences comme la biologie ou la neurologie qui ont souvent peine à faire apparaître des lois déterministes, le déterminisme postule que de telles lois existent, y compris sous la forme d'un chaos déterministe ne permettant pas à notre esprit de faire apparaître ces lois, en l'état actuel de nos connaissances 3).

Aussi bien les cosmologistes pensent pouvoir prédire l'avenir de l'univers avec une certaine dose de certitude, puisque les lois fondamentales de l'univers seraient déterministes. Pour les déterministes, l'impression de libre-arbitre serait une illusion, dont il conviendrait de se débarasser pour faire de la bonne science.

Il en résulte que pour eux le temps serait une illusion. Les mêmes causes entraineraient les mêmes effets, même si le cours de ce que nous appelons le temps se trouvait inversé. Ainsi prise à l'envers, l'histoire de l'univers nous ramènerait inévitablement au point initial du big bang, supposé être à l'origine de ce même univers.

Pour les déterministes, l'humanité aurait été programmée pour faire des choix qui correspondent à un environnement déterministe. Si cela n'avait pas été, si l'humanité avait eu la liberté de considérer comme vraie telle ou telle hypothèse en fonction de son humeur du moment, elle aurait depuis longtemps disparu, incapable de s'adapter à un monde déterministe. Elle peut s'imaginer qu'elle peut librement choisir telle ou telle solution, en fonction de son libre arbitre, mais c'est une illusion.

Décider de la "vérité" d'une hypothèse

Face à ces arguments, Nicolas Gisin fait valoir que de nombreux scientifiques, parfaitement respectables, affirment que la démarche scientifique n'aurait pas de sens sans le libre-arbitre, c'est-à-dire au cas où nous n'aurions aucun pouvoir de décider si une hypothèse est « vraie » ou non. Nous serions obligé de la tenir pour vraie, partant de l'idée qu'un déterminisme sous-jacent doit nous imposer de ne pas nous poser la question. Nous serions seulement libres - et encore - de chercher à mieux connaitre ce déterminisme.

Au cas où nous découvririons à l'expérience que l'hypothèse tenue pour vraie se révélait fausse - ce qui arrive très souvent, évidemment - nous devrions nous borner à reconnaitre que nous avions par erreur attribué au déterminisme ce qui ne relevait que d'une erreur d'observation. Autrement dit, que notre idée de la loi déterministe invoquée était fausse. Nous serions obligés de tenir compte de cette nouvelle expérience, en imputant à la faillibilité de la science le fait que nous ayons pu précédemment considérer que cette hypothèse était vraie au regard d'un déterminisme sous-jacent.

Pour ces scientifiques qui refusent d'admettre qu'il n'ont pas de liberté de choix, soit pour retenir telle hypothèse aux dépens d'une autre, soit pour rechercher de nouvelles hypothèses si aucune de celles existantes ne parait conforme aux expériences, c'est bien ce que montre l'histoire de la science. Si dès les origines de la démarche scientifique, au siècle des Lumières, les philosophes avaient considéré que tout était déjà écrit ou que tout était déjà déterminé, les révolutions scientiques à venir n'auraient jamais eu lieu.

Or c'est le contraire que montre l'histoire de la science. Sans même faire appel à la mécanique quantique qui postule l'intervention de la volonté pour résoudre l'équation de Schrödinger dont l'inconnue est une fonction, la fonction d'onde ( ce que l'on nomme le problème de l'observation), Gisin s'appuie sur un exemple d'indétermination peu souvent évoqué, tenant aux nombres indispensables à toute hypothèse scintifique. Les sciences s'appuient sur l'utilisation de nombres que Descartes avait nommé des nombres réels, opposés aux nombres qu'il avait nommé « imaginaires ». Les nombres imaginaires sont considérés comme ne correspondant à aucune réalité, compte tenu de la façon dont ils sont calculés, par exemple en faisant appel à la racine carré d'un nombre négatif. Ce n'est pas le cas des nombres réels.

Cependant les nombres réels peuvent eux-mêmes être indéterminés. La plupart d'entre eux, décomposés en leurs éléments, font appel à des séries de chiffres se poursuivant jusqu'à l'infini. De plus, ces derniers, en bout de chaine, n'apparaissent qu'au hasard, sans qu'aucune loi déterministe de permette de prédire leur apparition. Seule une décision volontaire permet de ne prendre en considération que les premiers chiffres de la série.

Le libre-arbitre, loi fondamentale de l'univers ?

Les systèmes relevant de la théorie du chaos au sens strict, c'est-à-dire d'un chaos qui n'a rien de déterministe, sont partout dans la nature. C'est le cas notamment de tout ce qui concerne la vie et son évolution - sans mentionner les systèmes quantiques déjà évoqués. L'indétermination est partout, jusqu'au moment où elle est déterminée par les choix eux-mêmes non déterminés a priori faits par les êtres vivants.

Ceci dit, observons pour notre compte que l'indétermination et plus encore le libre-arbitre, sont de simples concepts que la science se refuserait encore aujourd'hui à définir. Elle ne les identifie que par leurs effets visibles. Ne faudrait-il pas aller plus loin? Que signifie la liberté de choix pour les êtres vivants. Certainement pas la liberté d'aller où que ce soit dans l'espace.

Il faudrait se borner à considérer que le libre-arbitre est une propriété fondamentale des êtres vivants, leur permettant de résoudre à leur avantage les indéterminismes profonds du monde? Ceci se ferait au niveau quantique, par la résolution incessante des fonctions d'onde auxquelles se trouvent confrontés ces êtres vivants. Mais ceci, d'une façon plus évidente, se produirait en permanence dans le monde physique. Par le libre-arbitre, les êtres vivants, fussent-ils considérés comme primitifs, et donc entièrement déterminés, choisiraient librement les conditions de la nature les plus convenables à leur survie et leurs développements. Ainsi de proche en proche, ils se construiraient un monde déterminé dans lequel ils évolueraient en faisant simultanément évoluer ce monde.

Le libre-arbitre ne permettrait donc pas d'inventer des mondes entièrement nouveaux. Il se bornerait à rendre actuelles des possibilités préexistantes, en les « choisissant ». On retrouve là, au niveau de la physique macroscopique, l'interprétation dite de Copenhague, popularisée par Werner Heisenberg. L'observation, dans la théorie dite de la mesure, « résout » la fonction d'onde du système quantique en l'obligeant à choisir entre un certain nombre de possibilités en principe préexistantes.

Or, écrit Nicolas Gisin à la fin de son article, le concept de temps n'est pas exclu de ce processus. Le résultat d'un événement quantique, tel que la mesure d'un système donné, non déterminé à l'avance, se situe dans un temps différent de celui où ce résultat est acquis, avec toutes les conséquences en découlant. Il s'agit d'une création authentique, apparue dans un temps non réversible, qui ne pouvait être connue à l'avance en faisant appel à une équation déterministe.

Nicolas Gisin a nommé ce temps un « temps créateur » , creative time. La science ne comprend pas bien aujourd'hui ce concept, mais la théorie de la gravitation quantique pourrait changer les choses. Elle obligera à une synthèse entre la théorie einstenienne de la gravité, entièrement déterministe, et le hasard introduit par l'observateur d'un système quantique.

Si l'on accepte cette hypothèse, il faudra en revenir à la question que nous avons précédemment posée. Faudrait-il admettre que le libre-arbitre, à quelque niveau qu'il s'exprime, serait dans la nature même de l'univers, ou du multivers si l'on retient cette dernière hypothèse. En ce cas, dans un univers supposé être évolutif, quelle serait l'essence profonde du phénomène ou, si l'on préfère, comment serait-il apparu? Et se poursuivra-t-il lorsque l'univers que nous connaissons aura disparu?

Notes

1) https://www.newscientist.com/article/mg23030740-400-physics-killed-free-will-and-times-flow-we-need-them-back/

Voir aussi, de Nicolas Gisin, Time Really Passes, Science Can't Deny That http://arxiv.org/abs/1602.01497

2) Sur Nicolas Gisin, voir https://fr.wikipedia.org/wiki/Nicolas_Gisin

3) Rappelons que l'on nomme chaos déterministe des situations dans lesquelles des différences infimes dans les conditions initiales entraînent des résultats totalement différents pour les systèmes concernés, rendant en général toute prédiction impossible à long terme. Cela est valable même pour des systèmes déterministes, ce qui signifie que leur comportement futur est entièrement déterminé par leurs conditions initiales, sans intervention du hasard.

Partager cet article
Repost0

Articles RÉCents

Liens