Jean-Paul Baquiast 13/02/2013
/http%3A%2F%2Fwww.admiroutes.asso.fr%2Flarevue%2F2013%2F134%2Flagrange.jpg)
Joseph-Louis Lagrange (25 janvier 1736 – 10 avril 1813)
Ken Wharton, physicien quantique américain jusqu'ici peu connu, sauf dans les blogs spécialisés, vient de lancer ce qui
pourrait être un véritable pavé dans la mare – ce qui pourrait aussi donner lieu à un flop vite oublié. Dans un essai disponible en ligne, que nous vous invitons à consulter, résumé par un court
article dans le NewScientist, il invite à renoncer aux méthodes très généralement utilisées par les scientifiques pour étudier l'univers et prédire son évolution. Ces méthodes, selon lui,
s'inspirent trop directement de la façon dont travaille aujourd'hui la science moderne. Celle-ci construit des modèles du monde concrétisées par des jeux d'équations, soumet ces équations à
divers calculs informatiques et met à l'épreuve de l'expérience les nouveaux modèles ainsi obtenus. Ceux de ces derniers qui résistent à l'épreuve expérimentale servent à construire de nouvelles
représentations du monde.
Cette méthode est à la base de la science expérimentale. Elle n'est donc pas critiquable en soi. L'abandonner ramènerait la
science à l'ère métaphysique. Mais elle pourrait être dangereuse, si elle s'inspirait excessivement d'un modèle général de référence qui ne serait pas exact, ou plutôt qui ne serait pas
suffisant. Pour Ken Wharton, ce modèle est le calculateur, universellement utilisé dans les sciences aujourd'hui, et en perfectionnements continuels. Si cet outil donne aux scientifiques comme
aux ingénieurs un instrument irremplaçable, il ne faut pas aller jusqu'à considérer que l'univers lui-même fonctionnerait comme un ordinateur géant. L'idée est souvent présentée aujourd'hui par
les cosmologistes. Pour ceux qui s'en inspirent, même si ce que l'on sait de l'univers ne permet évidemment pas d'identifier ici ou là des organes de calcul informatique à l'oeuvre, les systèmes
naturels que l'on observe sont construits et évoluent conformément à des règles de type informatique. Ainsi en est-il par exemple d'une galaxie. C'est ce qui nous permet de modéliser sur
ordinateur, avec les fonctions mathématiques appropriées, l'existence et l'évolution de tels êtres.
Or Ken Wharton nous met en garde. Aussi productive que soit la comparaison de l'univers avec un ordinateur, elle peut
conduire la science à de graves impasses. Elle s'inspire de processus algorithmiques déterministes bien illustrés par le « modèle du monde » présenté par Newton. Même si depuis Newton,
les modèles d'univers s'en inspirant ont été considérablement affinés, ils restent présents dans tous les calculs informatiques utilisées par les astronomes ou par les sciences de l'espace pour
modéliser les trajectoires des astres et des engins interplanétaires. Il ne serait donc pas raisonnable de les rejeter. Mais depuis les premiers pas de la physique quantique dans les années
trente du 20e siècle, le monde scientifique sait que d'autres descriptions de l'univers doivent y être ajoutées. Elles font elle aussi appel à des modèles mathématiques et à des simulations sur
ordinateur, mais – sauf à dire que l'univers est un ordinateur quantique, ce qui ne veut pas dire grand chose à ce jour (voir Note 1 ci-dessous), elles obligent à renoncer aux postulats
déterministes et réalistes de la physique et de la cosmologie macroscopiques.
La physique quantique est à la base de grands succès, y compris dans le domaine technologique. Elle n'a jamais à ce jour
été mise en défaut. Cependant elle n'a pas encore pu présenter de modèles d'univers vérifiables expérimentalement, selon lesquels celui-ci n'évoluerait pas comme s'il était un calculateur géant,
mais selon d'autres lois encore mal précisées aujourd'hui. Il en résulte que le monde de la science, en théorie comme expérimentalement, doit prendre acte de deux grandes méthodes permettant de
représenter l'univers et son évolution, celle du modèle newtonien ou néo-newtonien tel que mentionné ci-dessus et celle découlant de la physique quantique, que l'on pourrait résumer par le
concept d'indétermination proposé avec le succès que l'on sait par Heisenberg. Ces deux méthodes se sont révélées encore incompatibles à ce jour, malgré les efforts des théoriciens de la
gravitation quantique.
Or pour Ken Wharton, il s'agit là d'une sorte de scandale, car il existe depuis bientôt 300 ans des modèles mathématiques
permettant de représenter l'univers d'une façon aussi objective que possible, c'est-à-dire aussi proches des vérifications expérimentales que possible. Ces modèles permettraient d'évacuer les
grandes incohérences du modèle d'univers darwinien, liées notamment à l'impossibilité pratique de calculer l'évolution de l'univers dans le temps. Elles évacueraient ainsi le concept de temps,
lié à l'espace-temps newtonien repris par Einstein. De ce fait, une partie des contradictions avec la physique quantique disparaîtraient, dans la mesure où celle-ci ne s'inscrit pas dans le cadre
de l'espace-temps newtonien-einstenien. Rappelons que les expériences sur l'intrication, par exemple, obligent à postuler la « réalité » d'un univers où des particules peuvent interagir
sans référence au temps et à l'univers physique auxquels nous sommes habitués (ce à quoi Einstein n'a jamais cru, évoquant une bizarre action à distance – spooky action at a distance, et
évoquant des variables cachées, jamais encore découvertes, permettant d'expliquer ce phénomène).
Quels sont les modèles auxquels fait référence Ken Wharton? Ce sont ceux proposés par Fermat (repris sous le nom de principe de Fermat) et étendus par les mathématiciens Lagrange et Maupertuis,
sous le nom de principe de moindre action. Fermat avait proposé son principe pour modéliser la propagation d'un rayon lumineux dans des milieux variés, par exemple l'air et l'eau. Il n'est pas
possible de calculer a priori la trajectoire quelconque d'un tel rayon, à partir d'une source donnée. On ne connait pas en effet les milieux traversés ni leurs indices de réfraction. Tout au plus
peut-on le faire a posteriori, une fois que l'on s'est donné un point d'arrivée. On constate alors que le rayon a pris la trajectoire la plus directe, compte tenu des résistances rencontrées.
Lagrange a étendu le principe de moindre action à la simulation de n'importe quel système mécanique, ce qui a permis aux ingénieurs d'optimiser considérablement la conception de ces
systèmes.
Mais pourquoi ne pas avoir étendu à la modélisation de l'univers le principe de Fermat-Lagrange? Parce que, répond Ken
Wharton, les cosmologistes, trop pénétrés de l'algorithmique déterministe néo-newtonienne, supposée être celle d'un univers conçu comme un ordinateur géant, ont refusé et refusent encore des
modèles d'évolution refusant de postuler un point d'arrivée, des trajectoires et un temps définis a priori.
En bon scientifique cependant, Ken Wharton ne se borne pas à reprocher à la cosmologie et à la physique actuelle les
impasses auxquelles les mène une méthodologie trop limitée. Il propose un nouveau modèle mathématique qui selon lui, pourrait être développé et produire des résultats vérifiables
expérimentalement. Si ce travail aboutissait, on pourrait alors juger de l'intérêt de la nouvelle méthode. Serait-elle compatible avec les postulats et résultats de la physique quantique?
Définirait-elle de nouvelles variables cachées qui conduirait à un nouveau regard réaliste sur le monde. Qu'en serait-il enfin de la perception du temps que nous avons tous? Faudrait-il la ranger
au rayon des illusions anthropomorphiques, du type de celles que Ken Wharton dénonce a propos de la croyance selon laquelle l'univers fonctionnerait comme un ordinateur?
On ne peut que souhaiter voir Ken Wharton, dans les prochains mois, commencer à répondre en profondeur à ces questions.
Pour notre part, nous essaierons de suivre attentivement ce qu'il en sera.
Notes
1. La science et les instruments
Au fur et à mesure que les humains développaient de nouvelles machines, ils ont eu tendance à postuler que l'évolution de
l'univers, telle qu'ils la percevaient, obéissait aux mêmes règles que celles mises en oeuvre par ces machines. C'est ainsi que les machines mécaniques ont inspiré à Newton son « Système du
monde » décrit dans le 3e tome de ses « Philosophiae naturalis principia » consacré aux mouvements des astres et à la loi de la gravitation universelle. Plus tard, l'entrée en
service des machines à vapeur a conduit de nombreux scientifiques a postuler que le Premier et le Second principe de la thermodynamique pouvaient valablement s'appliquer à l'histoire de
l'univers, depuis le Big Bang caractérisé par une entropie minimum jusqu'à l'explosion de la vie, phénomène néguentropique s'inscrivant dans une entropie croissante. Nous avons précédemment
signalé que pour certains physiciens d'ailleurs, les lois de la thermodynamique sont encore les plus appropriées pour caractériser les phénomènes cosmologiques au niveau macroscopique.
Inutile d'ajouter qu'avec l'invention des calculateurs, qu'ils soient analogiques ou digitaux, et leurs succès
ininterrompus dans tous les domaines technologiques et scientifiques, les physiciens ont pu montrer que la plupart des processus macroscopiques identifiés dans l'univers pouvaient être simulés
par des calculs informatiques. Ainsi en est-il aujourd'hui du mouvement des planètes et des astéroïdes, que l'informatique permet de décrire et de prévoir bien plus rigoureusement que ne le
ferait la mécanique de Newton. Il est dont tentant, lorsque l'on veut extrapoler le regard à l'ensemble de l'univers, de supposer que, des plus petits aux plus étendus, les mécanismes naturels
pourraient être analysés en termes de processus computationnels.
Ceci s'exprime de façon imagée par l'affirmation selon laquelle l'univers serait un immense calculateur. Ceci ne veut pas
dire que derrière chaque action ou réaction se trouveraient des petits calculateurs qui les piloteraient, l'ensemble étant intégré par un calculateur géant définissant à tout instant le résultat
final de tous ces calculs. Tout se passerait cependant comme si les forces physiques en oeuvre, et les grandes lois dites fondamentales par lesquelles elles s'expriment, pouvaient être simulées
sans faute sur un ordinateur géant.
Les perspectives ouvertes par les calculateurs quantiques vont bien plus loin à cet égard. On ne sait pas encore très bien
ce que permettrait de faire un calculateur quantique comportant des milliers ou millions de bits quantiques. On peut supposer au minimum que les possibilités de calcul ouvertes par un de ces
systèmes permettraient aux scientifiques de mieux simuler les comportements complexes de l'univers. Au maximum, on peut supposer que l'univers lui-même serait composé d'éléments se comportant
comme des calculateurs quantiques. Ceci serait moins surprenant que postuler qu'il fait appel à des calculs électroniques classiques, puisque par définition l'univers, en fonction des hypothèses
de la physique quantique, est constitué de particules pouvant se comporter comme des bits quantiques. C'est ce qu'a pu affirmer Seth Lloyd, spécialiste du calcul quantique. Selon lui, affirmer
que l'univers est un calculateur quantique constitue une vérité scientifique indiscutable. Resterait évidemment à montrer dans le détail comment s'expriment les calculs d'un tel ordinateur, et
les conséquences en résultant concernant l'évolution globale de l'univers – y compris quand il s'agira de son avenir à court ou long terme. (Voir notre présentation de « Programming the
universe » par Seth Lloyd http://www.automatesintelligents.com/biblionet/2006/avr/lloyd.html.
Restent cependant à l'écart des simulations permises par l'appel à ces divers types de calculateurs la compréhension des
phénomènes de la physique quantique, tels que l'indétermination, la superposition d'état ou l'intrication. Selon le principe d'incertitude de Heisenberg, l'univers n'est ni prévisible ni
déterministe. Plus précisément, il n'est pas possible de connaître à la fois la position d'une particule et sa vitesse. Ceci ne gène pas les sciences macroscopiques, qui manipulent avec précision
de grandes quantités de particules (y compris dans les calculateurs électroniques). Elles s'appuient sur les probabilités statistiques s'attachant aux grands nombres. Mais la difficulté commence
quand il s'agit d'étudier des particules isolées – le concept même de particule devant être nuancé puisque l'objet de ce nom pouvant être à la fois une particule ou une onde. Si l'on voulait
simuler sur ordinateur le comportement de détail, voire la nature, d'une particule quantique – autrement donc qu'à travers des moyennes statistiques, on ne pourrait pas le faire. Il n'est donc
pas évident d'affirmer dans ces conditions que l'univers dans son ensemble pourrait être régi par des processus s'apparentant à ceux des calculateurs, tels du moins que nous les
connaissons.
Le même doute pèse sur d'autres phénomènes cosmologiques, tels que ceux évoqués par les concepts de big bang, inflation,
expansion, trou noir, ou matière sombre. Les cosmologistes hésitent encore à les décrire avec précision. Ils seraient donc incapables d'imaginer des processus computationnels pouvant les
expliquer, et moins encore les produire. Dans ces domaines, affirmer que l'univers se comporte comme un grand calculateur, fut-il proche de ce que nous appelons un calculateur quantique,
relèverait non de la science mais de la poésie
2) Le modèle d'univers lagrangien selon Ken Wharton
Nous traduisons ici, en résumant un peu, ce qu'en dit Wharton dans son essai
Le principe de Fermat est aisé à poser. Entre deux points, quels qu'ils soient, le rayon
lumineux prend le chemin le plus rapide. Ainsi quand un rayon traverse différents matériaux entre un point X et un point Y, le chemin emprunté sera le plus court possible, en comparaison de tous
les autres chemins allant de X à Y. Si un rayon est coudé en passant de l'air à l'eau, ce n'est pas du à un enchainement de cause et d'effet, mais parce que c'est globalement plus efficace.
Aussi élégante que soit cette description, elle n'entre pas dans le Schéma Newtonien. Au lieu de poser des données initiales (par exemple la position et l'angle) le principe de Fermat requiert
des entrées logiques qui sont à la fois initiales et finales (les positions de X et Y). L'angle initial n'est plus une donnée mais un résultat logique. Au lieu d'états qui évoluent avec le temps,
le principe de Fermat aboutit à une comparaison entre des chemins entiers. Ces chemins ne peuvent évoluer avec le temps, du fait qu'ils couvrent déjà l'ensemble de l'espace de temps
considéré.
Cette méthode n'est pas limitée aux rayons lumineux. Au 18e siècle, Maupertuis, Euler et Lagrange ont réussi à faire entrer l'ensemble de la physique classique dans un principe général de
minimisation ****. En général, la quantité globale à minimiser est pour eux l' « action » * Comme le principe de Fermat, la Mécanique de Lagrange n'entre pas dans le Schéma de Newton.
Elle représente donc une méthode alternative pour aborder le monde physique, méritant ainsi le qualificatif de Schéma Lagrangien.
Comme le Schéma de Newton, le Schéma de Lagrange correspond à une technique mathématique permettant de résoudre des problèmes physiques. Dans les deux schémas, il faut d'abord se donner une
représentation mathématique de la réalité physique, en y inscrivant les évènements sous forme de paramètres. A cet égard le Schéma de Lagrange est le plus tolérant des deux. L'on peut choisir la
paramétrisation la plus convenable sans changer les règles subséquentes. Au lieu d'un « état » , l'objet mathématique clef est un scalaire ** appelé le Lagrangien (ou dans le cas des
champs classiques continus la « densité lagrangienne » L. *** L est une fonction de ces paramètres et de leurs dérivées locales.
Deux démarches sont nécessaires pour retrouver le monde physique à partir de L. Un
premier pas consiste à contraindre L aux limites d'une région de l'espace-temps (c'est-à-dire définir X et Y dans la formulation de Fermat). Dans les champs continus, on définit des paramètres de
champ continu. Mais on se limite aux paramètres frontières. Les paramètres intermédiaires et les dérivés des paramètres frontières peuvent avoir toutes les valeurs possibles à ce
stade.
Un second pas consiste à choisir l'une de ces possibilités (on leur assigne des poids
probabilistes) Ceci s'obtient en faisant la somme des densités lagrangiennes où que ce soit à l'intérieur de la frontière afin d'obtenir un nombre correspondant à l'action S. La solution
classique consiste à minimiser l'action ****. On retrouve alors la réalité physique.
Précisions de JPB
* Maupertuis écrit ceci à ce sujet dans Principe de la moindre quantité d'action pour la mécanique (1744) « L'Action est proportionnelle au produit de la masse par la vitesse et par
l'espace. Maintenant, voici ce principe, si sage, si digne de l'Être suprême : lorsqu'il arrive quelque changement dans la Nature, la quantité d'Action employée pour ce changement est
toujours la plus petite qu'il soit possible. » . Ici, l'action est notée S.
** scalaire ou, pour simplifier, mesure. En algèbre linéaire, les nombres réels qui multiplient les vecteurs dans un espace vectoriel, sont appelés des scalaires.
***La fonction L est appelée densité lagrangienne. Elle dépend du champ q et de ses dérivées temporelle et spatiale.
**** Rechercher la moindre action
3. Les actions selon Michel Gondran
Dans un ouvrage à paraître, ainsi que dans deux articles publiés par Arxiv, Michel Gondran, physicien et ancien président
de l'Académie interdisciplinaire européenne des sciences, n'a pas manqué de signaler l'importance du principe de moindre action et de ses applications dans les sciences physiques, y compris en
physique quantique.
Mais il va plus loin que ne le fait Ken Wharton. Il montre qu'il existe en mécanique classique trois actions (et non deux)
correspondant à différentes conditions de limites (boundary conditions): les deux actions bien connues: l'action Euler-Lagrange classique (Scla) action qui
relie la position initiale x0 à sa position x dans un temps t, l'action Hamilton-Jacobi S(x;t) qui relie une famille de particules Scla(x) à leurs diverses positions au temps t, et une troisième action, qu'il propose de prendre en compte, non seulement en physique quantique mais en physique ordinaire,
l'action déterministe S(x; t; x0; v0). Elle lie une particule dans la position initale x0 et avec la vitesse initiale v0 à sa position x au temps t.
Ces précisions montrent que Ken Wharton serait encore loin d'avoir épuisé la richesse d'un sujet certes difficile mais tout à fait d'actualité.
Pour retrouver le point de vue de Michel Gondran, ce à quoi nous incitons le lecteur, faire:
- Michel Gondran
The Euler-Lagrange and Hamilton-Jacobi actions and the principle
of least action http://jp.arxiv.org/pdf/1203.2736
- Article dans Computer science From interpretation of the three classical mechanics actions to the wave function in quantum mechanics http://ics.org.ru/eng?menu=mi_pubs&abstract=2078
Références concernant Ken Wharton
- L'essai de Ken Wharton The Universe is not a computer http://cpr-quantph.blogspot.fr/2012/12/12117081-ken-wharton.html
- Son article dans le New Scientist
http://cpr-quantph.blogspot.fr/2012/12/12117081-ken-wharton.html
- son article dans Arxiv (difficile) http://arxiv.org/abs/1301.7012
Pour en savoir plus
- Lagrangien http://fr.wikipedia.org/wiki/Lagrangien
- Intégrale de chemin http://fr.wikipedia.org/wiki/Int%C3%A9grale_de_chemin
- Principe de Fermat http://fr.wikipedia.org/wiki/Principe_de_Fermat
- Principe de moindre action http://fr.wikipedia.org/wiki/Principe_de_moindre_action
- Rappel de mécanique analytique. Le lagrangien
http://fr.wikiversity.org/wiki/Rappels_de_m%C3%A9canique_analytique/Lagrangien
Note au 13/02/2013, 20h
Kenneth Wharton nous écrit ce jour:
"I will mention that the Hamilton-Jacobi action is fully aligned with the
"Newtonian Schema", not the "Lagrangian Schema". That so-called "action" assumes that the classical equations of motion are necessarily correct, and therefore it can be calculated without
knowledge of the future. And it's this Hamilton-Jacobi action that is the one most aligned with standard quantum theory, putting them both in the "universe as computer"
camp."