Overblog
Suivre ce blog
Administration Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

15 janvier 2016 5 15 /01 /janvier /2016 11:49

Cette rédaction annule et remplace la précédente publiée 15/01/2016

Le Pr Roland Omnès est un grand physicien français, spécialiste en mécanique quantique (physique quantique). Il a bien voulu répondre à quelques questions pour nos lecteurs.

Pour en savoir plus sur Roland Omnès
Bibliographie. Ouvrages.

* Wikipedia (article en français)
https://fr.wikipedia.org/wiki/Roland_Omn%C3%A8s

* Wikipedia (article en anglais, fortement conseillé)
https://en.wikipedia.org/wiki/Roland_Omn%C3%A8s

* Présentation de quelques ouvrages sur le site Odile Jacob
http://www.odilejacob.fr/catalogue/auteurs/roland-omnes/

Introduction.
JPB pour A
I. Cher Roland Omnes, merci de prendre le temps de répondre à quelques questions pour l'information de nos lecteurs. Nous en sommes d'autant plus heureux que vous êtes un des premiers, sinon le premier des spécialistes français de la mécanique quantique. Vous êtes mondialement consulté.

Roland Omnès RO: Etre "mondialement connu" est très loin de mon fait. Il en va de même pour être "le premier spécialiste français de la mécanique quantique". C'est trop d'honneur ou trop d'erreur, pourrait-on dire (si vous voulez bien le pardonner).
Il m'arrive parfois de dire plutôt que le nom que je porte (Omnès, ou Omnes) est bienvenu : C'est un nom breton d'origine incertaine (peut-être donné par des moines en fonction d'un office du jour). Vous savez qu'il signifie "tous" en latin et n'est donc pas loin de "tout le monde" ou "n'importe qui". C'est un nom merveilleux pour se sentir philosophe ou mathématicien, comme d'être placé au point quelconque ou d'être la droite quelconque. Mais c'est sans importance.

JPB. Vos recherches récentes sont trop complexes pour attirer d'emblée l'attention de scientifiques ou enseignants non physiciens, mais elles ouvrent différentes perspectives qui mériteraient d'être dès maintenant connues de ceux-ci. La première question à laquelle je vous propose de répondre, si vous le voulez bien, serait de résumer l'objet actuel de vos travaux, en les situant dans l'état actuel des points de vue admis par la communauté scientifique concernant la physique quantique

RO. Je résume: Toutes les difficultés d'interprétation de la mécanique quantique proviennent de ce qu'on appelle "enchevêtrement", comme Schrödinger, d'une part, et Einstein, Podolsky et Rosen d'autre part l'ont montré dès 1935.

Or en 1974, deux théoriciens, Lieb et Robinson 1), ont trouvé qu'il existe un raffinement local dans cet enchevêtrement. Le mot "local" est essentiel. Il signifie que l'enchevêtrement n'est pas toujours absolu et total, comme on le rencontre dans les expériences où deux atomes, ou deux photons, ou un peu plus de deux sont enchevêtrés. L'enchevêtrement "local" est spécifique à des cas où l'un de deux systèmes enchevêtrés est macroscopique, c'est-à-dire constitué d'un nombre énorme (mais fini) d'atomes.

On n'a tiré que peu de conséquences de ce fait dans les fondements de la mécanique quantique (pour autant que je sache), si bien que l'enchevêtrement local est relativement peu connu dans ce domaine et que je l'ai "redécouvert" vers 2011 dans ce cadre.Je ne peux l'expliquer ici, sinon dire qu'on peut déduire cet effet de la fameuse équation de Schrödinger, qu'il est contenu dans l'histoire de la fonction d'onde (l'ensemble de ses valeurs au cours du temps), mais qu'il est insaisissable dans n'importe quelle de ses valeurs instantanées. Il est irréversible (ordonné dans le temps) et ceci est très important. Je l'appelle "intrication" , et non "enchevêtrement local" comme Lieb et Robinson le faisaient, pour des raisons de logique dans lesquelles il vaut mieux ne pas entrer.

Il se trouve (et là aussi, je ne peux pas entrer dans les détails) que cette intrication peut prendre la forme d'une incohérence dans les fonctions d'onde, quand on l'applique à l'enchevêtrement d'un système macroscopique avec ce qui l'environne. Mais ceci est un des points essentiels nouveaux que je soumet pour critique à la collectivité scientifique. La conséquence la plus surprenante (si surprenante qu'elle peut paraître hérétique) est qu'alors le fameux "collapse" (ou effondrement, le passage à l'unicité, la déconstruction) de la fonction d'onde résulterait de ces deux effets conjugués de l'intrication et l'incohérence. C'est trop important, potentiellement, pour ne pas souligner d'un trait épais qu'il y a des conjectures dans certains des arguments. Tout reste à vraiment démontrer et l'ours est très loin d'être tué.

JPB. Quand avez vous jugé bon d'entreprendre la tâche considérable consistant à mener à bien ce travail? Quel lectorat visez vous, théoriciens, praticiens voire industriels? Quelles réactions ou suites en espérez vous, au plan théorique ou pratique ?

RO. Je suis venu un jour à ces questions en me demandant: Que faire maintenant ? Quelle réflexion entreprendre sur un sujet assez beau pour ne pas s'altérer par ma réflexion et rester inchangé après moi ? Sur quoi méditer, en somme ? Quant au lectorat, je n'y ai pas songé. Pour le texte actuel, il s'agit de spécialistes, de collègues en somme, avec qui on est franc et direct et qui ne le sont pas moins. Quant à écrire, on verra, ou on ne verra rien si je me suis trompé. De toute manière je n'attends pour ma part rien de spécial et j'aime bien Pascal (Le "moi" est haïssable) en de telles matières.

JPB. Vous abordez, entre autres questions, celle de la résolution de la fonction d'onde ou décohérence et celle de l'intrication. Les lecteurs de notre site sont assez informés pour savoir que ces questions, au plan pratique, posent des problèmes de très grande portée, par exemple dans le domaine des futurs ordinateurs quantiques. Quels sont vos pronostics à cet égard?

RO. Un jour, dans un congrès, un physicien proposait une conjecture, qu' il assurait n'avoir qu'une probabilité d'un cent-milliardième d'être fausse. Steven Weinberg (plus tard lauréat du Prix Nobel) sortit alors une dime de sa poche et dit : "Je prends le pari ! " J'étais parmi les spectateurs et l'anecdote me revient parfois en mémoire quand le mot "pronostic" est employé. Celui que vous me demandez me laisse rêveur et je plaide une incompétence assumée.

JPB. Nous avons beaucoup échangé sur ce site avec Mme Mioara Mugur-Shächter. Ses travaux paraissent importants, notamment sur le plan méthodologique. Qu'en pensez vous?

RO. J'ai du respect pour la personne et les travaux de Mme Mugur-Shächter, mais ils ont peu de recoupement avec les miens.

JPB. Au delà du champ strict de la mécanique quantique, notre attention a été ici attirée par de nombreuses recherches cherchant à identifier dans le cosmos des processus déterminés par la mécanique quantique. Ainsi, nous venons de faire référence à des hypothèses concernant, à travers celles de la gravitation quantique à boucles, la possibilité qu'au sein des trous noirs s'opèrent par effet tunnel la transformation du trou noir en trou blanc, c'est-à-dire en ré-émetteur de matière/énergie. Que pensez vous, très globalement, de ces approches cosmologiques?
Plus généralement, attachez vous de l'intérêt aux hypothèses comme celles de Seth Lloyd, selon lesquelles l'univers serait fondamentalement quantique?

RO. J'aime beaucoup Seth Lloyd. Il est brillant et passionnant. Il fait rêver et certains rêves deviennent parfois vrais. Je lui souhaite que ce soit le cas pour les siens.Quant à la cosmologie, if fut un temps où elle m'a passionné activement et où j'ai eu le bonheur de collaborer à ce sujet avec Evry Schatzmann, vers 1970. Nous avions une belle théorie, mais elle était prédictive et les observations l'ont rejetée. C'est très instructif pour apprendre ce qu'est la science. A présent, la cosmologie passionne toujours en moi le spectateur et l'admirateur des résultats nouveaux et profonds, provenant parfois de mes anciens élèves que j'admire.

Quant aux hypothèses autour, elles sont multiples, souvent fascinantes, pas toujours très crédibles aussi. Ainsi, vous m'apprenez que des trous noirs pourraient devenir des trous blancs. Je l'ignorais et n'ai pas d'opinion là-dessus, sinon le souvenir d'une intervention d'un de mes élèves (Xavier Artru) lors d'un séminaire que je faisais (jadis) sur des sujets voisins : "Ces trous noirs, c'est troublant", dit-il. On l'a répété depuis.

JPB. A une toute autre échelle du réel, de plus en plus de biologistes croient pouvoir observer, dans certains organes sensoriels ou même du cerveau, des mécanismes faisant appel, ne fut-ce que très brièvement, à des phénomènes de maintien de cohérence permettant l'équivalent de calculs quantiques par le vivant. Que pensez vous de ces voies de recherche? Et que pensez vous du travail de JohnJoe McFadden?

RO. Permettez-moi de plaider l'incompétence.


JPB. Finalement, quel « message » suggéreriez vous concernant l'avenir de la mécanique quantique et des formes qu'elle adoptera?

RO. Je ne suis pas devin, mais j'admire : Tout souffle, tout rayon, ou propice ou fatal... (voir Victor Hugo pour la suite)

1) NDLR. Lieb et Robinson. Wikipedia

12 janvier 2016 2 12 /01 /janvier /2016 16:31


Mécanique quantique. Décohérence. Intrication
12/01/2016

Le Pr Roland Omnès est un grand physicien français, spécialiste en mécanique quantique (physique quantique). Il a bien voulu répondre à quelques questions pour nos lecteurs.

Pour en savoir plus sur Roland Omnès
Bibliographie. Ouvrages.

* Wikipedia (article en français)
https://fr.wikipedia.org/wiki/Roland_Omn%C3%A8s

* Wikipedia (article en anglais, fortement conseillé)
https://en.wikipedia.org/wiki/Roland_Omn%C3%A8s

* Présentation de quelques ouvrages sur le site Odile Jacob
http://www.odilejacob.fr/catalogue/auteurs/roland-omnes/

Introduction.
JPB pour A
I. Cher Roland Omnes, merci de prendre le temps de répondre à quelques questions pour l'information de nos lecteurs. Nous en sommes d'autant plus heureux que vous êtes un des premiers, sinon le premier des spécialistes français de la mécanique quantique. Vous êtes mondialement consulté. L'occasion de cet entretien nous est donné par la lecture d'un article que vous venez de publier à l'adresse http://arxiv.org/abs/1601.01214

Roland Omnès RO: Etre "mondialement connu" est très loin de mon fait. Il en va de même pour être "le premier spécialiste français de la mécanique quantique". C'est trop d'honneur ou trop d'erreur, pourrait-on dire (si vous voulez bien le pardonner).
Il m'arrive parfois de dire plutôt que le nom que je porte (Omnès, ou Omnes) est bienvenu : C'est un nom breton d'origine incertaine (peut-être donné par des moines en fonction d'un office du jour). Vous savez qu'il signifie "tous" en latin et n'est donc pas loin de "tout le monde" ou "n'importe qui". C'est un nom merveilleux pour se sentir philosophe ou mathématicien, comme d'être placé au point quelconque ou d'être la droite quelconque. Mais c'est sans importance.

JPB. Votre article est trop complexe pour attirer d'emblée l'attention de scientifiques ou enseignants non physiciens, mais il ouvre différentes perspectives qui mériteraient d'être dès maintenant connues de ceux-ci. La première question à laquelle je vous propose de répondre, si vous le voulez bien, serait de résumer en quelques pages le contenu de cet article tout en le situant dans l'état actuel des points de vue admis par la communauté scientifique concernant la physique quantique

RO. Pardonnez-moi de ne pouvoir le faire. L'article que je viens de terminer est déjà un résumé sur bien des points. Il compte 36 pages denses et fait pratiquement l'impasse sur toute comparaison avec des propositions antérieures, hormis pour signaler les emprunts qui leur sont faits.

Quant au point de vue qu'il présente, il paraît très simple et je le résume :
Toutes les difficultés d'interprétation de la mécanique quantique proviennent de ce qu'on appelle "enchevêtrement", comme Schrödinger, d'une part, et Einstein, Podolsky et Rosen d'autre part l'ont montré dès 1935.

Or en 1974, deux théoriciens, Lieb et Robinson (voir leurs initiales dans la biblio de mon papier), ont trouvé qu'il existe un raffinement local dans cet enchevêtrement. Le mot "local" est essentiel. Il signifie que l'enchevêtrement n'est pas toujours absolu et total, comme on le rencontre dans les expériences où deux atomes, ou deux photons, ou un peu plus de deux sont enchevêtrés. L'enchevêtrement "local" est spécifique à des cas où l'un de deux systèmes enchevêtrés est macroscopique, c'est-à-dire constitué d'un nombre énorme (mais fini) d'atomes.

On n'a tiré que peu de conséquences de ce fait dans les fondements de la mécanique quantique (pour autant que je sache), si bien que l'enchevêtrement local est relativement peu connu dans ce domaine et que je l'ai "redécouvert" vers 2011 dans ce cadre.Je ne peux l'expliquer ici, sinon dire qu'on peut déduire cet effet de la fameuse équation de Schrödinger, qu'il est contenu dans l'histoire de la fonction d'onde (l'ensemble de ses valeurs au cours du temps), mais qu'il est insaisissable dans n'importe quelle de ses valeurs instantanées. Il est irréversible (ordonné dans le temps) et ceci est très important. Je l'appelle "intrication" dans mon papier, et non "enchevêtrement local" comme Lieb et Robinson le faisaient, pour des raisons de logique dans lesquelles il vaut mieux ne pas entrer.

Il se trouve (et là aussi, je ne peux pas entrer dans les détails) que cette intrication peut prendre la forme d'une incohérence dans les fonctions d'onde, quand on l'applique à l'enchevêtrement d'un système macroscopique avec ce qui l'environne. Mais ceci est un des points essentiels nouveaux que l'article soumet pour critique à la collectivité scientifique.La conséquence la plus surprenante (si surprenante qu'elle peut paraître hérétique) est qu'alors le fameux "collapse" (ou effondrement, le passage à l'unicité, la déconstruction) de la fonction d'onde résulterait de ces deux effets conjugués de l'intrication et l'incohérence. C'est trop important, potentiellement, pour ne pas souligner d'un trait épais qu'il y a des conjectures dans certains des arguments. Tout reste à vraiment démontrer et l'ours est très loin d'être tué.

JPB. Quand avez vous jugé bon d'entreprendre la tâche considérable consistant à mener à bien ce travail? Quel lectorat visez vous, théoriciens, praticiens voire industriels? Quelles réactions ou suites en espérez vous, au plan théorique ou pratique ?

RO. Je suis venu un jour à ces questions en me demandant: Que faire maintenant ? Quelle réflexion entreprendre sur un sujet assez beau pour ne pas s'altérer par ma réflexion et rester inchangé après moi ? Sur quoi méditer, en somme ? Quant au lectorat, je n'y ai pas songé. Pour le texte actuel, il s'agit de spécialistes, de collègues en somme, avec qui on est franc et direct et qui ne le sont pas moins. Quant à écrire, on verra, ou on ne verra rien si je me suis trompé. De toute manière je n'attends pour ma part rien de spécial et j'aime bien Pascal (Le "moi" est haïssable) en de telles matières.

JPB. Vous abordez dans l'article, entre autres questions, celle de la résolution de la fonction d'onde ou décohérence et celle de l'intrication. Les lecteurs de notre site sont assez informés pour savoir que ces questions, au plan pratique, posent des problèmes de très grande portée, par exemple dans le domaine des futurs ordinateurs quantiques. Quels sont vos pronostics à cet égard?

RO. Un jour, dans un congrès, un physicien proposait une conjecture, qu' il assurait n'avoir qu'une probabilité d'un cent-milliardième d'être fausse. Steven Weinberg (plus tard lauréat du Prix Nobel) sortit alors une dime de sa poche et dit : "Je prends le pari ! " J'étais parmi les spectateurs et l'anecdote me revient parfois en mémoire quand le mot "pronostic" est employé. Celui que vous me demandez me laisse rêveur et je plaide une incompétence assumée.

JPB. Nous avons beaucoup échangé sur ce site avec Mme Mioara Mugur-Shächter. Ses travaux paraissent importants, notamment sur le plan méthodologique. Qu'en pensez vous?

RO. J'ai du respect pour la personne et les travaux de Mme Mugur-Shächter, mais ils ont peu de recoupement avec les miens.

JPB. Au delà du champ strict de la mécanique quantique, notre attention a été ici attirée par de nombreuses recherches cherchant à identifier dans le cosmos des processus déterminés par la mécanique quantique. Ainsi, nous venons de faire référence à des hypothèses concernant, à travers celles de la gravitation quantique à boucles, la possibilité qu'au sein des trous noirs s'opèrent par effet tunnel la transformation du trou noir en trou blanc, c'est-à-dire en ré-émetteur de matière/énergie. Que pensez vous, très globalement, de ces approches cosmologiques?
Plus généralement, attachez vous de l'intérêt aux hypothèses comme celles de Seth Lloyd, selon lesquelles l'univers serait fondamentalement quantique?

RO. J'aime beaucoup Seth Lloyd. Il est brillant et passionnant. Il fait rêver et certains rêves deviennent parfois vrais. Je lui souhaite que ce soit le cas pour les siens.Quant à la cosmologie, if fut un temps où elle m'a passionné activement et où j'ai eu le bonheur de collaborer à ce sujet avec Evry Schatzmann, vers 1970. Nous avions une belle théorie, mais elle était prédictive et les observations l'ont rejetée. C'est très instructif pour apprendre ce qu'est la science. A présent, la cosmologie passionne toujours en moi le spectateur et l'admirateur des résultats nouveaux et profonds, provenant parfois de mes anciens élèves que j'admire.

Quant aux hypothèses autour, elles sont multiples, souvent fascinantes, pas toujours très crédibles aussi. Ainsi, vous m'apprenez que des trous noirs pourraient devenir des trous blancs. Je l'ignorais et n'ai pas d'opinion là-dessus, sinon le souvenir d'une intervention d'un de mes élèves (Xavier Artru) lors d'un séminaire que je faisais (jadis) sur des sujets voisins : "Ces trous noirs, c'est troublant", dit-il. On l'a répété depuis.

JPB. A une toute autre échelle du réel, de plus en plus de biologistes croient pouvoir observer, dans certains organes sensoriels ou même du cerveau, des mécanismes faisant appel, ne fut-ce que très brièvement, à des phénomènes de maintien de cohérence permettant l'équivalent de calculs quantiques par le vivant. Que pensez vous de ces voies de recherche? Et que pensez vous du travail de JohnJoe McFadden?

RO. Permettez-moi de plaider l'incompétence.


JPB. Finalement, quel « message » suggéreriez vous concernant l'avenir de la mécanique quantique et des formes qu'elle adoptera?

RO. Je ne suis pas devin, mais j'admire : Tout souffle, tout rayon, ou propice ou fatal... (voir Victor Hugo pour la suite)

11 janvier 2016 1 11 /01 /janvier /2016 15:51


Présentation
Jean-Paul Baquiast
11/01/2016

Aurélien Barrau est Enseignant-chercheur
Professeur à l'UGA,Communauté Université Grenoble Alpes
membre honoraire de l'IUF Institut Universitaire de France

Laboratoire de Physique Subatomique et de Cosmologie (CNRS-IN2P3)
F-38026 Grenoble

Page personnelle

Présentation du livre par l'éditeur

Notre Univers a-t-il un début ? Est-il unique ? La science moderne a révolutionné notre compréhension de l’Univers. Bien que l’étude du cosmossoit sans doute aussi ancienne que la pensée, notre image du réel est en ce moment même en train de se redessiner. Il est maintenant possible de connaître certains aspects des processus qui eurent lieu moins d’un milliardième de milliardième de milliardième de seconde après le Big Bang.
À la lumière des dernières découvertes du satellite Planck, Aurélien Barrau décrit en termes simples le cosmos qui se dessine sous nos yeux. Trous noirs, modèle standard de la physique des particules,
gravité… les piliers et les énigmes du Big Bang sont abordés les uns après les autres, à la manière d’une balade aux origines de l’Univers.
« Parce que la science est avant tout une aventure humaine, j’ai esquissé, ici et là, en contrepoint des explications physiques fournies dans la langue la plus simple
et la plus accessible possible, mon expérience et mes ressentis. J’ai parfois même fait part de mes convictions et révoltes personn
elles. »

Aurélien Barrau est un physicien et un cosmologiste dont les compétences dans les domaines les plus vastes de ces disciplines, qu'elles soient théoriques ou observationnelles, sont impressionnantes. Comme il le précise dans sa page personnelle, elles couvrent au plan théorique : cosmologie, phénoménologie de la gravité quantique, diffusion des particules dans la Galaxie, trous noirs, théorie des champs en espace courbe. Au plan expérimental, il s'agit d'astronomie grand champ, de matière noire et d'énergie noire, du rayonnement cosmique, de l'astronomie gamma. Il a participé personnellement et autres autres aux équipes chargées de la réalisation et de l'exploitation du satellite Planck, merveille de l'astrophysique européenne. Il trouve aussi le temps d'être enseignant dans ces divers domaines

.Nous avons présenté plusieurs fois Aurélien Barrau sur ce site, ainsi que quelque uns de ces livres, car il écrit aussi beaucoup, non seulement dans des revues scientifiques, mais à destination du grand public.1)

Il se trouve que, ce même mois de janvier 2016, les Editions Dunod viennent de rendre disponible un ouvrage de Aurélien Barrau, réédition considérablement augmentée et mise à jour, de « Big Bang et au delà, les nouveaux horizons de l'univers ». publié en 2013. Cette réédition ne tient cependant pas compte, sauf par allusions aux recherches mentionnée par notre article de ce mois. Il n'y a rien d'étonnant en cela, vu les délais imposés par l'édition.

Présentation

Le livre comporte 10 chapitres, depuis la question initiale:" Peut-on comprendre l'Univers? jusqu'à la question finale, "Le multivers". En 150 pages, on y trouve tout ce qu'il faut savoir, si l'on veut se donner une connaissance convenablement informée, de l'origine et du devenir de l'univers. Ces thèmes sont très souvent abordés, non seulement dans des articles scientifiques, mais dans des ouvrages, films et séries télévisées destinés au grand public. Sans être sévère, on peut en dire que l'on trouve dans les medias beaucoup d'approximations et erreurs scientifiques. D'où l'intérêt d'un ouvrage lui même destiné à des lecteurs généralistes, qui fasse le point en 160 pages de l'état des connaissances et hypothèses sur ces questions.

Le livre présente par ailleurs, comme les précédents, de nombreuses références à la philosophie, la littérature et la création artistique, montrant pour qui en douterait l'étroite parenté qui existe entre la cosmologie et les différents domaines de la création. L'auteurpossède tous les titres pour en discuter car sa culture et ses relations sociales l'ont mis en contact avec la plupart de ces oeuvres de l'esprit et beaucoup de leurs auteurs. A ces références, il ajoute de nombreuses considérations personnelles, sur la science, sur la recherche scientifique, l'enseignement et des pratiques sociales quotidiennes, notamment celles qu'il abhorre personnellement, en tant que défenseur des animaux et de leurs droits.

Il résulte de tout ceci que les passages consacrés à la cosmologie, bien que faisant l'essentiel du livre, sont présentés de façon extrêmement synthétique 3). Pour bien les comprendre, il faut disposer d'une base de connaissances scientifiques dont nos lecteurs, sur ce site, sont certainement dotés, mais que beaucoup de lecteurs du livre n'auront pas nécessairement. Ils devront donc se référer sur tous les points difficiles, à défaut d'autressources, à l'encyclopédie en ligne Wikipedia, comme nous le faisons nous mêmes constamment dans nos articles.

Commentaires

Ce serait une erreur de penser que ce livre se borne à rassembler une synthèse des connaissances disponibles dans d'autres ouvrages au sujet du Big Bang, de ses suites, notamment l'inflation, et des « évènements l'ayant précédé », si l'on peut employer cette formulation simplificatrice. Chaque chapitre ou presque présente des considérations originales ou mal connues, dont certaines découlent directement des recherches de l'auteur.

Ainsi p. 21 et 22, les méthodes utilisées par lui et des collègues pour préciser l'étude des rayons gamma à partir des flash de lumière bleue, dite lumière Cherenkov, que ceux ci produisent quand ils percutent l'atmosphère terrestre De même, p.24, les modalités d'interaction des ondes gamma avec les ondes infrarouges et ce qu'elles révèlent concernant la formation des galaxies primitives Ou bien, p. 26, Aurélien Barrau évoque les recherches qu'il a menées avec le détecteur de rayons cosmiques AMS placé sur la Station Spatiale Internationale

Concernant les trous noirs il nous rapporte (p.76) qu'il s'est consacré à leur étude non seulement pour les comprendre dans le cadre de la relativité générale, mais dans le cadre de modèles dits de la relativité étendue, ainsi que de théories modernes de la physique des particules, montrant que certaines instabilités connues en physique des trous noirs peuvent être décrites sans faire appel à des paramètres tendant vers l'infini.

Concernant l'énergie noire, il présente les conclusions des nombreuses années de recherche qu'il y a consacrées. Celle-ci lui permettent aujourd'hui de participer à la mise au point du grand télescope LSST (Large Synoptic Survey Téléscope.) Celui-ci devrait dans quelques années présenter des vues panoramiques du ciel bien plus étendues que celles obtenues par les grands télescopes actuels, VLT ou Keck. Dans ce projet il a pris la responsabilité du banc de test et d'étalonnage de la caméra du LSST, qui sera la plus complexe de celles construites à ce jour. Compte tenu de l'importance du projet et des nombreuses équipes qui y travaillent, on mesure l'importance de son rôle.

Concernant enfin la réalisation et l'exploitation du satellite européen Planck, entré en service en 2013 et consacré à de nouvelles analyses du fond de rayonnement fossile, l'auteur montre bien que ces résultats confirment dans l'ensemble en les précisant les résultats déjà fournis par les prédécesseurs américains COBE et WMAP. Mais il montre aussi que certains « détails » confirment la théorie de l'inflation cosmologique et permettent par exemple de préciser l'époque de l'allumage des étoiles. Il rapporte également certaines anomalies récemment observées dans la répartition du fonds de ciel selon les hémisphères et l'existence d'une vaste zone froide. Certains cosmologistes y voient l'indice d'une rencontre avec un autre univers (voir notre article du 15/12/2015 ) mais Aurélien Bareau ne s'étend pas sur ce point, peut-être du fait que la date d'édition du livre ne lui a pas permis d'évoquer des conjectures trop récentes.

Le livre se termine par l'évocation des deux grandes théories actuelles intéressant la gravitation quantique, c'est-à-dire une synthèse entre la physique relativiste et la physique quantique. Il s'agit, comme nos lecteurs le savent certainement depuis longtemps, de la gravitation quantique à boucles et de la théorie des Cordes. Bien qu'il ait très récemment avec Carlo Rovelli proposé une application de la première dans le cas du possible passage d'un trou noir en trou blanc, il continue à porter le plus grand intérêt à la théorie des Cordes., dite parfois aussi théorie du Tout.

Celle-ci est souvent décrédibilisée par le fait qu'elle évoque la possibilité d'apparition d'un nombre astronomique d'univers, hypothèse non testable pour le moment. Mais Aurélien Barrau, fervent défenseur de l'hypothèse des univers multiples ou plus exactement du multivers, continue à y trouver matière à d'innombrables réflexions, tant d'un point de vue scientifique que philosophique.

L'hypothèse du multivers nous pose évidemment des problèmes considérables, dans le cadre de notre conception traditionnelle du monde. Mais celle-ci se fonde indubitablement sur les images limitées que nous nous donnons de l'univers et de ses origines, Big Bang et/ou Big Crunch. Avec le multivers, nous sommes obligés d'affronter des questions cruciales, non seulement sur le cosmos, mais sur notre cerveau lui-même, qui en construit des représentations ( Voir la deuxième partie de notre article précité « l'univers est-il unique ? )

Pour Aurélien Barrau, la question du multivers ne doit pas être abordée de façon anecdotique. Elle obligera sans doute l'espèce humaine à revoir radicalement la façon dont elle se représente le monde où elle vit. Ceci notamment en incluant les concepts d'univers dépourvus de temps et d'espace tels que définis non seulement par les équations relativistes mais par notre pratique quotidienne. D'ores et déjà la mécanique quantique le fait et nous utilisons un grand nombre d'instruments divers exploitant par exemple le concept de q.bit. Il faudra sans doute nécessairement, à en croire Aurélien Barrau, faire de même à l'échelle plus large de la cosmologie.

Le cerveau, comme nous l'évoquons dans l'article précité, pourra-t-il
nous permettre cet exploit un jour? Pourquoi pas, si grâce au progrès des sciences, il s'entraine à le faire, y compris dans la vie quotidienne? Les primates issus de la forêt du tertiaire ont bien fini par découvrir la mécanique quantique évoquée ci-dessus. Dans ce cas, Aurélien Barrau, avec les quelques collègues qui comme lui explorent la question du multivers, auront entrebâillé des portes bien plus importantes encore que celles ouvertes par les philosophes grecs du 6e siècle avant JC.

Notes

1) Voir notamment
* en octobre 2007
* en décembre 2014
* en ce mois de janvier 2016, nous venons de résumer les hypothèses qu'il vient tout récemment de formuler avec Carlo Rovelli concernant la possible transformation d'un trou noir en trou blanc, autrement dit réémetteur de matière et d'énergie une fois atteint un certain degré de densité. Ces hypothèses s'appuient sur les versions les plus récentes de la gravitation quantique à boucles, dont désormais Carlo Rovelli s'est fait le théoricien mondial le plus consulté.

2) AMS Spectromètre Magnétique Alpha, voir wikipedia

3) Par exemple cette phrase, p.77. « j'ai passé un certain temps à étudier ces modèles, dits de gravitation étendue, où le lagrangien était un peu plus compliqué que celui d'Einstein-Hilbert. Ils ne contredisent pas la relativité mais ils la complètent ». Ou bien, p. 85 « schématiquement, il est possible de considérer que l'interaction nucléaire faible est construite pour être invariante en tournant dans un espace dont les axes seraient l'électron et le neutrino ».
Ceci dit notre propos n'est pas un reproche mais un constat. On ne peut pas demander à un scientifique d'expliquer tous les termes qu'il utilise, sauf à construire une encyclopédie.

4) On observera, mais ce n'est pas un argument suffisamment déterminant, que Lee Smolin vient de se convaincre du caractère irréductible du Temps. comme rapporté dans notre article de décembre 2014 .

8 janvier 2016 5 08 /01 /janvier /2016 16:14

Jean-Paul Baquiast 08/01/2016

Image: NewScientist

Un article de Stuart Clarck, « Quantum Bounce » publié par le NewScientist du 2 janvier 2016, p. 32, présente des hypothèses nouvelles concernant les trous noirs et leur devenir. Nos lecteurs s'intéresseront particulièrement à ces hypothèses, car deux cosmologistes qu'ils connaissent bien notamment par leurs interventions sur ce site, y jouent un rôle très important. Il s'agit de Carlo Rovelli, de la faculté d'Aix Marseille, et de Aurélien Barrau, de la faculté de Grenoble.

En simplifiant la question, nous pouvons dire que leurs travaux, menés conjointement avec ceux d'autres théoriciens tel Hal Haggard du Bard College à New York, posent la question de savoir si en conjuguant théorie de la relativité générale et physique quantique, il ne serait pas possible d'éclairer la nature et le devenir des trous noirs. Ceux-ci, dont l'existence n'est plus discutée, posent une question insoluble dans la cadre de la relativité générale: que deviennent-ils lorsque après avoir capturé un nombre immense de particules, leur densité et la force gravitationnelle qui y règne deviennent telles que les lois de la physique, s'appliquant à notre univers, cessent de pouvoir s'exercer dans leur cas? .Les théoriciens avaient nommé l'état atteint par eux une Singularité, terme qui n'a aucun intérêt en pratique puisqu'il décourage toute recherche ultérieure à ce sujet. Autant parler de mystère divin.

Le concept de Singularité présente cependant un intérêt, puisqu'il est utilisé pour désigner l'état préexistant au Big Bang, état dont serait issu notre univers. Mais il n'éclaire pas plus les questions relatives à l'origine du Bang Bang que celles relatives à l'origine ou au destin final des trous noirs. Dans les hypothèses dites des univers successifs, il est possible de supposer qu'un univers précédant le Big Bang aurait pu à la fin de sa vie se concentrer au point de former un état extrêmement dense (big crunch) dont aurait pu surgir notre propre univers. C'est l'hypothèse du rebond. Dans cette perspective, on peut imaginer que tous les trous noirs observés par nous pourraient à la fin de leur évolution donner naissance par rebond à des bébés-univers, participant d'un multivers que nous n'aurions en principe aucune possibilité d'observer. Encore faudrait-il préciser le mécanisme générateur.

La gravitation quantique à boucle

L'originalité de l'hypothèse formulée par Carlo Rovelli et ses collègues est qu'elle tente une synthèse entre ces deux grands domaines de la physique encore inconciliables, la physique einsténienne et la physique quantique. Carlo Rovelli, un moment associé avec le cosmologiste américain Lee Smolin également souvent cité sur ce site, a imaginé une synthèse entre gravitation et mécanique quantique qu'il a nommé gravitation quantique à boucles. Celle-ci, bien plus qu'un autre type de gravitation quantique dite Théorie des Cordes, pourrait résoudre, y compris un jour expérimentalement, la question de savoir ce qu'il advient du temps et de l'espace einsténiens quand ils atteignent des niveaux extrêmes de concentration. Dans l'hypothèse de la gravitation quantique à boucles, l'espace-temps serait fait de boucles très petites et enchevêtrées. Celles-ci n'apparaissent pas à un observateur éloigné, mais elles constituent des quanta d'un espace-temps ultime, ne pouvant pas être divisées davantage afin de former des éléments encore plus petits. Elles obéissent alors aux lois de la physique quantique.

Carlo Rovelli et Hal Haggard ont étendu en 2014 cette hypothèse à ce qui pourrait se passer à l'intérieur d'un trou noir parvenu à des degrés ultimes de concentration. Au lieu de disparaitre de notre monde physique sous la forme d'une Singularité, l'entassement des boucles en son sein deviendrait tel que le trou noir exploserait, ou plutôt rebondirait en éjectant des quantités considérables de matière. Le mécanisme responsable de ce changement d'état serait « l'effet tunnel » par lequel, au sein d'une réaction de type fusion nucléaire telle qu'elle se produit dans notre soleil, les noyaux d'hydrogène fusionnent en noyaux d'hélium et relâchent ce faisant des photons énergétiques. Le trou noir, pour ce qui le concerne, deviendrait alors un trou blanc (phénomène troublant selon une plaisanterie classique) d'une extrême densité. Le trou blanc renverrait dans l'univers toute la matière qu'il aurait accumulé précédemment. Resterait à préciser à quel moment dans la vie du trounoir et pour quelle raison se déclencherait ce changement d'état

Les flashs d'ondes-radio

Dans le cas de petits trous noirs primordiaux, tels que ceux créés lors du Big Bang, l'éjection de matière pourrait s'accompagner ou prendre la forme de phénomènes très rares observables de la Terre, dits flash d'ondes radio. ( burst of radio waves) Dans le cas de grands trous noirs, elle pourrait aboutir à la création d'un bébé-univers inobservable en principe de la Terre, avec ou sans émission de flashs. Il faut rappeler que dans un trou noir, le temps n'est pas le même que pour un observateur extérieur. Il est très ralenti. La transformation du trou noir en trou blanc pourrait demander des milliers voire des millions d'années, tout en paraissant quasi instantanée, sous forme de flash, à un observatoire terrestre.

Cette hypothèse pourrait permettre d'expliquer l'observation d'un radio flash intense faite le 2 novembre 2012 à l'Observatoire d'Arecibo. Elle pourrait permettre aussi de comprendre la raison d'une douzaine de flashs observés précédemment par l'observatoire Parkes en Nouvelle Galle du Sud (Australie). Elle ne donnerait cependant pas d'explication précise sur le fait que ces flashs n'ont été remarqués à ce jour qu'à l'Observaroire Parkes. Les mêmes hypothèses pourraient permettre d'expliquer certains des phénomènes plus fréquents, mais également mystérieux, dits flashs de rayons gamma, supposés jusqu'à présent provenir des confins de l'univers. Inutile de dire que beaucoup de cosmologistes ne sont pas d'accord avec ces hypothèses. Mais ils n'ont pas encore proposé de théories ou même de possibilités d'expérimentation permettant d'offrir d'autres explications, non seulement aux flashs, mais au destin des trous noirs et finalement aux origines mêmes de notre univers.

Pour notre part, et pas seulement par patriotisme, nous conseillons d'apporter la plus grande attention aux développements des hypothèses de Carlo Rovelli et Aurélien Barrau qui ne manqueront pas de survenir dans les prochains mois.

20 décembre 2015 7 20 /12 /décembre /2015 19:21

Place de la Terre dans l'histoire de l'univers selon le site Planck
De gauche à droite: Big Bang -- Ère de l'inflation - Découplage de l'interaction forte et faible et formation des particules - Formation des étoiles et galaxies - Formation du système solai
re.
En dessous: La Terre actuel
le.

Biblionet

The Master Algorithm: How the quest for the ultimate learning machine will remake our world

Pedro Dom
ingos


Basic Books/Penguin 2015

Analyse et commentaires par Jean-Paul Baquiast
20/12/2015

Sur l'auteur, voir sa page
http://homes.cs.washington.edu/~pedrod/

Les hypothèses n'ont jamais manqué concernant la possibilité que l'univers tel que nous le connaissons ait été dès son origine le produit de processus calculatoires informatiques profondément ancrés dans le réel . Ils ne seraient pas seulement ancrés, mais consubstantiels à l'existence de l'univers, inséparables de lui, de même que la parole et le langage sont pratiquement inséparables. Récemment, des chercheurs tels que Seth Lloyd ont défendu l'idée que l'univers n'était pas seulement un ordinateur classique géant, mais un ordinateur quantique. Ceci expliquerait beaucoup de ses propriétés hors de portée d'un ordinateur numérique. 1).

Ces hypothèses sont intéressantes, mais elles se heurtent à la difficulté de faire apparaître clairement les bases naturelles qui dans l'univers seraient responsables de la production de ces calculs. Même un ordinateur quantique doit être organisé autour de composants et unités de traitement capables de manipuler des « bits quantiques ».
Certes, il est relativement facile de montrer que tous les processus cosmologiques, biologiques ou neurologiques identifiables dans l'univers, et plus particulièrement sur la Terre, pourraient être simulés sur de super-calculateurs, et par conséquent résulter du fait que l'univers responsable de la production de ces processus serait lui-même un super-calculateur. Mais où seraient les unités centrales de celui-ci, ses mémoires, ses organes d'entrée-sortie ou plus immédiatement ses composants élémentaires?

Par ailleurs, dans la mesure où la cosmologie moderne admet que l'univers s'est développé depuis le Big bang à partir d'atomes élémentaires surgis du vide dit quantique, il est difficilement admissibles de penser que dès le Big Bang les programmes nécessaires à la production ultérieure d'un univers capables de computations telles que nous les observons aujourd'hui se trouvaient prêt à opérer. On peut envisager qu'ils auraient pu progressivement se développer sur le mode darwinien, comme la vie elle-même, mais à partir de quelles semences initiales? A moins d'admettre que celles-ci aient toujours été présentes dans un univers primordial, que l'on pourrait qualifier de multivers, à partir duquel émergeraient des univers analogues au nôtre, ou proches.

The Master Algorithm

Dans un livre tout récent, The Master Algorithm, Pedro Domingos, concepteur informaticien réputé, ne remonte pas, tout au moins au début de son ouvrage, à l'origine de l'univers pour comprendre le monde numérique dans lequel nous vivons et dont il est l'un des acteurs. Il se borne à expliquer ce dont beaucoup de personnes aujourd'hui ne se sont pas encore rendu compte, le fait que les données de masse en ligne (Big Data) et que les algorithmes dits « intelligents » de plus en plus nombreux les exploitant sont en train de révolutionner nos sociétés.

Le propre de ces algorithmes, ce qui les rend intelligents, est qu'ils sont en train d'apprendre à devenir intelligents en exploitant ces Big Data. On parle à leur propos de « learning algorithms » ou d'algorithmes capables d'apprendre. Cexs-ci sont en train de s'organiser, à partir des supports informatiques et les réseaux nécessaires, en véritables « machines apprenantes », learning machines. Certains futuristes imaginent qu'ils pourraient un jour supplanter l'intelligence humaine, à condition que les supports physiques ou réseaux sur lesquels ils prospèrent ne soient pas détruits par un cataclysme quelconque.Le discours n'est pas à proprement nouveau. Beaucoup de nos lecteurs ont lu sur notre site de nombreux articles évoquant cette perspective ou des recensions d'ouvrages l'abordant. Nous avons nous-mêmes édité ici deux livres d'Alain Cardon traitant ce problème 2)

Dans ces ouvrages, Alain Cardon anticipait avec quelques années d'avance un phénomène qui est en train se se produire dans certains secteurs, l'apparition d'algorithmes et de machines autonomes, c'est-à-dire susceptibles d'opérer sans l'intervention d'organismes humains. Il s'agit précisément de ce que montre clairement aujourd'hui Pedro Domingos.

Il rappelle qu'existent dorénavant des millions de tels algorithmes apprenants. Ils sont en train de donner une impulsion qui sans eux serait inimaginable aux sciences, aux technologies, à l'économie, à la vie politique. Ils le font aussi dans le domaine militaire, qu'il s'agisse de guerres classiques ou de guerre de 4e génération conduites par des milices insurgées ou terroristes. Les entreprises mondiales telles que Google et Facebok, ou les hébergeurs plus locaux, tirent exclusivement leur pouvoir des Big Data que leur livrent les personnes privées ou les agents économiques faisant appel à elles.

De leur coté, les grands Etats, les Etats-Unis en premier lieu par l'intermédiaire de la NSA, CIA et autres agences, s'en servent pour espionner et tenter de dominer le monde entier. Les uns et les autres ont en projet l'intention de réaliser des cerveaux artificiels par lesquels ils parachevront leur actuelle domination.

Mais Pedro Domingos ne se limite pas à ces constatations. Il se demande s'il ne serait pas possible de concevoir un « master algorithm » ou « algorithme maître » susceptible de modifier en profondeur les machines apprenantes, et de ce fait nos vies et celles de beaucoup d'organismes vivants. Cet algorithme maître tirerait son immense pouvoir du fait qu'il serait capable d'exploiter toutes les Data existant sur la planète. De celles-ci, il pourrait tirer des connaissances illimitées intéressant le passé, le présent et aussi l'avenir.
Il n'y aurait pas besoin pour ce faire de se référer à des lois de la nature que les scientifiques se sont toujours efforcés de faire apparaître avec plus ou moins de difficultés. En collectant les données en masse, ceux-ci pourraient décrire la nature sans avoir besoin de faire appel à de telles lois, et sans avoir besoin de compétences spécialisées pour les élaborer.

Nous avons plusieurs fois évoqué ce point. Google peut-il obtenir sur la progression d'une épidémie des informations plus précises que celles découlant des observations des épidémiologistes, en utilisant simplement les données résultant de la consultation par des milliers de malades ou de personnes craignant de le devenir des sites de diagnostic en ligne ou de publicités pharmaceutiques? Longtemps incertaine, la réponse à cette question paraît désormais pouvoir être affirmative.

De la même façon, affirme Pedro Domingos, si les données observées par Tycho Brahé et autres astronomes de l'époque avaient pu être exploitées par un algorithme maitre, celui-ci en aurait déduit les lois de la gravitation bien avant l'apparition de Newton.

Mais pour cela, l'algorithme maître doit être capable, comme le font à petite échelle d'ailleurs les scientifiques, d'exploiter les données (Data) du passé ou du présent, comme d'anticiper ce que pourraient être les données du futur. Selon Pedro Domingos, ces données existent déjà dans les laboratoires ou dans les publications, mais personne ne s'est organisé pour les exploiter en masse. De multiples raisons, spécificités disciplinaires, incompatibilités entre langages et méthodes, crainte des risques liés à l'anticipation ou plus simplement manque de crédits pour les mémoriser et les rendre disponibles, contribuent à laisser dormir ce trésor.

Pedro Domingos va cependant plus loin que ces constatations relativement faciles à faire. Il se demande si les algorithmes capables d'exploiter les données naturelles omniprésentes dans l'univers ne seraient déjà pas en place, tout au moins dans certains organes ou organismes. Ainsi le cerveau humain pourrait de par son organisation neurologique transformer en connaissances intelligentes, voire conscientes, les données que lui apportent en permanence les organes sensoriels et moteurs. De même, au niveau bien plus général de l'évolution darwinienne des espèces vivantes, un tel algorithme maître, évidemment réparti, n'a-t-il pas optimisé les processus darwiniens par essais et erreurs, en favorisant les plus aptes à permettre la survie des espèces.

Observations

Nous ne prolongerons pas ici l'analyse de The Master Algorithm, ce que nous incitons vivement le lecteur à faire lui-même en se procurant le livre. Revenons par contre sur quelques perspectives non évoquées dans celui-ci, qui pourraient intéresser les scientifiques.

Si l'on admettait que les algorithmes maitres moteurs des machines auto-apprenantes décrits par Pedro Domingos existeraient dans la nature ailleurs que dans les actuels réseaux numériques, il ne faudrait pas se limiter à les rechercher dans les cerveaux ou dans les génomes. En s'appuyant sur le principe de Copernic selon lequel rien de spécifique n'existe dans l'univers, il faudrait postuler que de tels algorithmes et machines sont présents ailleurs sur la Terre, et au delà de la Terre, dans le système solaire et au delà de celui-ci, dans l'univers tout entier. Ils seraient apparus dès origines du cosmos.

Selon les hypothèses cosmologiques modernes, l'univers tel que nous le connaissons et dans lequel nous vivons a émergé en quelques fractions de seconde (seconde de notre temps actuel) sous la forme d'une structure presque infiniment petite, dense et chaude. Ce phénomène a été qualifié de Big Bang. Très rapidement, après sa naissance c'est-à-dire après ce Big Bang, l'univers a subi un processus dit d'inflation qui l'a conduit aux dimensions telles que celles observées aujourd'hui. L'inflation pourrait se poursuivre durant de très longues durées jusqu'à la dissolution complète des structures matérielles de l'univers. Dans les phases finales, le temps se ralentirait sans cesse et l'espace perdrait toutes dimensions mesurables.

Le milieu original dont serait issu notre univers, composé de particules et de photons, serait ce que l'on nomme le vide quantique. Il s'agirait de particules virtuelles dites quantiques car, selon les hypothèses de la physique quantique, elles n'obéiraient pas aux lois de la physique einstenienne , autrement dit elles ne seraient pas caractérisées par des dimensions d'espace et de temps déterminées. Faute d'une échelle de temps et d'espace au sein de l'univers quantique, celui-ci ne pourrait pas être décrit en termes d'infini ou de fini, ni concernant l'espace ni concernant le temps.

Du vide quantique émergerait en permanence (si le terme peut s'appliquer à un univers dépourvu de temps), des particules matérielles, c'est-à-dire dotées, comme celles de notre univers, de propriétés d'espace et de temps. La plupart s'effondreraient ensuite pour retourner dans le vide quantique. Certaines pourraient rester matérielles, et subir des inflations qui les conduiraient à devenir des univers analogues au nôtre.

Concernant l'origine et l'histoire de notre univers, c'est l'observation du rayonnement du fonds diffus cosmologique ou rayonnement fossile cosmologique (dit aussi CMB ou Cosmic Micro-ondes Background) par les satellites successifs dédiés à cette tâche, dont le dernier en date est le satellite européen Planck, qui en fournit des éléments permettant la modélisation des évènements. Le schéma présenté en début d'article représente l'histoire de l'univers depuis le Big Bang jusqu'à nos jours.

Or il n'y a pas de raison de refuser l'apparition de premiers algorithmes maitres et machines auto-apprenantes dès le Big Bang. Ces éléments de computation se seraient formés non sous leur forme sophistiquée actuelle mais sous des formes primitives, fonctions elles-mêmes des ressources disponibles lors de chacune des phases d'univers, Big Bang, découplage de l'interaction forte et faible et formation des particules, formation des premières étoiles et galaxies, formation du système solaire et de la Terre, apparition de la vie sur celle-ci et finalement apparition du web des réseaux numériques enveloppant la Terre d'une couverture dense.

Ce seraient les capacités d'auto-apprentissage des premiers ordinateurs naturels qui auraient dirigé, mieux qu'un doigt de Dieu encore évoqué par des milliards de croyants de par le monde, la sélection des facteurs les plus favorables à la généralisation de systèmes intelligents et conscient dont les humains se croient les seuls représentants. Si l'on admet l'existence du multivers, il n'y aurait d'ailleurs pas de raison de refuser le principe de tels systèmes au sein de celui-ci.

Le postulat de l'existence d'un univers quantique ne contrarierait en rien ces diverses hypothèses. Des algorithmes et machines auto-apprenantes constituées de bits quantiques n'en seraient que plus efficaces pour servir à l'évolution ayant conduit à la Terre actuelle et à notre société de l'information. Celle-ci, lorsque les premiers calculateurs quantiques seront réalisés à grande échelle, pourra utiliser à son tour les Big Data quantiques et leurs systèmes d'exploitation.

Il en résulterait que ce que nous appelons l'intelligence humaine aurait été incluse en germe dès les premiers pas de l'univers et pourrait évidemment se trouver ailleurs aujourd'hui au sein de celui-ci. L'intelligence et les capacités d'apprentissage ne se limiteraient sans doute pas aux seules planètes habitables, mais pourraient se retrouver dans toutes les structures de grande échelle identifiées dans l'univers, amas galactique ou nuages de poussière cosmique notamment. Elles disparaitraient également avec la mort progressive de notre univers. On ne voit pas comment en effet, malgré leurs grandes compétences à apprendre, elles pourraient résister à des facteurs d'extinction de cette importance.

Travaux pratiques

Certes, pour rendre tout ceci matière à travail scientifique, il faudrait montrer comment, phase par phase depuis au moins la formation des particules, des systèmes d'abord extrêmement simples, composés de quelques atomes, auraient pu s'organiser en moteurs générant des données sous-produits de leur action. Celles-ci leur auraient servi de base pour contribuer à leur auto-perfectionnement sur le mode darwinien. Des concepteurs de systèmes aussi avertis et compétents que Pedro Domingos n'auraient certainement pas de difficultés à en réaliser des prototypes, s'ils disposaient du temps et des équipes nécessaires.

Ces prototypes, inutile de le souligner, pourraient ouvrir la voie aux ordinateurs moléculaires, génétiques ou neuronaux dont l'on parle beaucoup de nos jours, mais qui n'existent en fait que dans les publications scientifiques. Leur organisation sous la forme de consommateurs de Big Data naturelles donnerait une valeur considérables à celles-ci, valeur généralement ignorées de tous. Les véritables sources pour les inventions de demain se trouveraient là.

Notes

1) Voir à ce sujet notre commentaire du livre Programming the Universe

2) Alain Cardon

* "Modélisation constructiviste pour l'autonomie des systèmes"
Edition Automates Intelligents. 24 mai 2012
(publié sous Licence Creative Commons)

* " Vers un système de contrôle total"
Edition Automates Intelligents, 20 octobre 2011
(publié sous Licence Creative Commons)

Jean-Paul Baquiast - dans sciences
commenter cet article
15 décembre 2015 2 15 /12 /décembre /2015 18:58

Jean-Paul Baquiast 15/12/2015

Selon le modèle cosmologique le plus répandu, l'univers tel que nous le connaissons et dans lequel nous vivons a émergé en quelques fractions de seconde (seconde de notre temps actuel) sous la forme d'une structure presque infiniment petite, dense et chaude. Ce phénomène a été qualifié de Big Bang. Très rapidement, après sa naissance c'est-à-dire après ce Big Bang, l'univers a subi un processus dit d'inflation qui l'a conduit aux dimensions telles que celles observées aujourd'hui. L'inflation pourrait se poursuivre durant de très longues durées jusqu'à la dissolution complète des structures matérielles de l'univers. Dans les phases finales, le temps se ralentirait sans cesse et l'espace perdrait toutes dimensions mesurables.


Le milieu original dont serait issu notre univers, composé de particules et de photons, serait ce que l'on nomme le vide quantique. Il s'agirait de particules virtuelles dites quantiques car, selon les hypothèses de la physique quantique, elles n'obéiraient pas aux lois de la physique einstenienne , autrement dit elles ne seraient pas caractérisées par des dimensions d'espace et de temps déterminées. Faute d'une échelle de temps et d'espace au sein de l'univers quantique, celui-ci ne pourrait pas être décrit en termes d'infini ou de fini, ni concernant l'espace ni concernant le temps.

Du vide quantique émergerait en permanence (si le terme peut s'appliquer à un univers dépourvu de temps), des particules matérielles, c'est-à-dire dotées, comme celles de notre univers, de propriétés d'espace et de temps. La plupart s'effondreraient ensuite pour retourner dans le vide quantique. Certaines pourraient rester matérielles, et subir des inflations qui les conduiraient à devenir des univers analogues au nôtre.

Concernant l'origine et l'histoire de notre univers, c'est l'observation du rayonnement dit fonds diffus cosmologique ou rayonnement fossile cosmologique (dit aussi CMB ou Cosmic Micro-ondes Background) par les satellites successifs dédiés à cette tâche, dont le dernier en date est le satellite européen Planck, qui en fournit des éléments permettant la modélisation des évènements. On trouve sur le site Planck 1) les principales conclusions aujourd'hui disponibles, formulées dans un langage accessible au grand public.

Selon un principe proposé par Copernic, dit principe cosmologique, et généralement admis depuis, l'univers devrait être homogène à grande échelle. Certes le rayonnement observé par Planck montre une grande variété de formes matérielles, amas de galaxies, galaxies, étoiles, filaments de poussière, sans mentionner l'hypothétique matière noire non observable directement. Mais à l'échelle suffisante, tout ceci devient homogène, du moins pour un regard superficiel. De même, une soupe composée de grumeaux de légumes se présente comme un liquide homogène vue à une distance suffisante.

Selon le principe cosmologique, observé à une échelle suffisante, l'univers ne devrait pas présenter de structures spéciales. La théorie de la relativité générale présentée par Einstein ne peut d'ailleurs convenablement s'appliquer que dans un univers homogène.

Le principe cosmologique en échec ?

Cependant des observations faites très récemment semblent faire apparaître des structures spécifiques dans le réseau de galaxies constituant le cosmos. Elles se présentent aujourd'hui sous forme de trois phénomènes différents.

Le premier phénomène est un espace géant vide de galaxies, ou ne comportant qu'un très petit nombre de celles-ci. Il s'agit du supervide géant découvert dans la constellation Eridanus par le cosmologiste András Kovács de l'Institut de la physique des hautes énergies à Barcelone. Il s'étendrait sur 2 milliards d'années-lumière. Il s'agit de distances considérables.Il faudrait 2 milliards d'années avant qu'un rayon lumineux le parcourre dans son entier, soit à peu près la moitié du temps de la vie sur Terre. 2)

Le second phénomène est constitué d'ensemble de quasars s'étendant sur la distance de plusieurs milliards d'années lumière. Le quasar (source de rayonnement quasi-stellaire ou presqu'étoile) est une galaxie très lumineuse du fait d'un noyau galactique fortement énergétique en termes de rayonnement. Ainsi le quasar SDSS J0100+2802 est considéré comme un trou noir supermassif, ayant absorbé l’équivalent de 12 milliards de masses solaires. 3) Or récemment, ce fut le Huge Large Quasar Group observé par Roger Clowes de l'University of Central Lancashire, UK qui a retenu l'attention. Il s'étend sur 4 milliards d'années-lumière. 4)

Le troisième phénomène consiste en une explosion de radiations très énergétiques s'étendant sur 6% de l'univers visible et dont la cause reste inconnue. Il s'agit du Gamma Ray Burst étudié par Lajos Balázs de l'observatoire de Konkoly à Budapest 5)

Comme les modèles cosmologiques actuels ne permettent pas d'expliquer de telles anomalies, présentant de telles dimensions, l'explication la plus simple serait que ces phénomènes ne seraient qu'apparents, résultant d'erreurs dans l'interprétation des observations. Mais aujourd'hui rien ne permet d'affirmer l'existence de telles erreurs.

Une seconde explication, beaucoup plus exotique, suggère que ces structures massives n'appartiennent pas à notre univers. Elles proviendrait d'autres dimensions, autrement dit d'autres univers, ou d'autres formes d'univers. Ainsi le principe cosmologique pourrait être sauvegardé. Mais ceci aux dépends d'un autre principe bien ancré depuis deux siècles, celui de l'unicité de notre univers.

Dans ce sens Rainer Dick, physicien théoricien à l'université de Saskatchewan, Canada, estime qu'il faut faire appel à des théories jusqu'ici restées spéculatives, celles de la Gravitation Quantique et plus précisément de la Théorie des Cordes, notamment la Théorie M. Celle-ci suggère que nous vivons dans un espace de 11 dimensions dont 7 sont trop petites pour être observables. Elle ne peuvent encore être observées expérimentalement, mais l'une des variantes de la Théorie M, lla Théorie des Branes, pourrait proposer des domaines vérifiables expérimentalement. 6)

Cet ensemble de théories permettrait de justifier l'hypothèse des multivers, très largement admise aujourd'hui (Voir nos articles précédents sur ce sujet). On pourrait alors admettre que les phénomènes évoqués ci-dessus et difficilement explicables dans la cadre de la cosmologie actuelle, pourraient résulter d'intrusions passées (ou même actuelles) d'autres univers dans le nôtre. Un article du NewScientist donne des précisions à cet égard. Nous ne pouvons pas le reprendre ici mais y renvoyons le lecteur intéressé 7) .


Références

1) Planck http://public.planck.fr/

2) CMB https://en.wikipedia.org/wiki/CMB_cold_spot

3) Quasar SDSS J0100+2802 https://fr.wikipedia.org/wiki/SDSS_J0100%2B2802

4) Huge Large Quasar Group https://fr.wikipedia.org/wiki/Huge-LQG

5) Gamma Ray Burst https://www.ras.org.uk/news-and-press/2693-5-billion-light-years-across-the-largest-feature-in-the-universe

6) Brane Theory https://fr.wikipedia.org/wiki/Brane

7) NewScientist, octobre 2015. When worlds collide

5 décembre 2015 6 05 /12 /décembre /2015 21:19

Jean-Paul Baquiast 05/12/2015

Le présent texte est un résumé, fait et commenté par moi, d'un article original en anglais de Michael Brooks que vient de publier le NewScientist.
Is quantum physics behind your brain’s ability to thin
k?

Dans un article qu'il vient de publier sur arxiv ( http://arxiv.org/abs/1508.05929 ), le physicien quantique Matthew Fisher (voir son site http://www.kitp.ucsb.edu/mpaf/ ) a entrepris de rechercher si des effets propres à la mécanique quantique ne pourraient pas expliquer les mécanismes les plus complexes du cerveau (voir ci-dessous, abstract)

Le cerveau humain, comme dans une moindre mesure les cerveaux animaux, dispose de capacités calculatoires dont les bases neuronales demeurent encore mal expliquées. Ceci notamment qu'il s'agisse de la mémoire à long terme et de la conscience. L'hypothèse a depuis longtemps été formulée que ces fonctions tiendraient à certaines propriétés du monde quantique, notamment l'indétermination et l'intrication. Il n'y aurait rien d'étonnant en principe car les biologistes pensent pouvoir démontrer le rôle de particules quantiques dans un certain nombre de fonctions intéressant le vivant, fonction chlorophyllienne ou vision chez certains oiseaux (voir notre article Phénomènes quantiques dans les organismes vivants ).

Concernant la conscience, le mathématicien Roger Penrose et le médecin anaesthésiste Stuart Hamerof avaient dans un ouvrage qui fit grand bruit proposé en 1989 que les bases des mécanismes conscients pourraient se trouver dans les microtubules neuronales, structures protéiniques qui participent à l'architecture du neurone. Celles-ci se comporteraient comme les q.bits dans un ordinateur quantique. Mais ils n'ont pas pu présenter de preuves expérimentales intéressant leurs hypothèses.

Un q.bit ne peut en effet conserver ses propriétés quantiques que s'il est maintenu strictement isolé du milieu physique ordinaire, autrement dit s'il maintient sa cohérence. Empécher la décohérence des bits quantiques constitue la plus grande difficulté dans la réalisation des ordinateurs quantiques, expliquant la lenteur du développement de ces calculateurs. Or il a été montré que dans un milieu chaud et humide tel que celui régnant au sein du cerveau, la cohérence, à supposer qu'elle se produise, disparaitrait quasi instantanément.

Matthew Fisher n'essaye pas pour le moment de traiter le sujet complexe de la conscience. Ses recherches l'ont conduit à explorer les mécanismes qui paraissent simples mais qui restent encore incompréhensibles et qui permettent à deux ou plusieurs neurones de communiquer entre eux ou de s'influencer sur des distances pouvant s'étendre à l'ensemble du cerveau et dans des temps qui ne seraient pas seulement instantanés.

Les neurologues classiques répondent qu'ils ont présenté depuis longtemps des solutions à ces questions, en analysant les architectures neuronales, les transmissions électriques et les neurotransmetteurs permettant au cerveau de se comporter comme un ordinateur classique. Il ne serait pas nécessaire dans ces conditions de faire appel à d'éventuelles propriétés s'inspirant de celles de l'ordinateur quantique. Il reste que beaucoup de points obscurs demeurent au coeur des mécanismes cérébraux.

C'est la raison pour laquelle Matthew Fisher a fait de nouveau appel aux solutions quantiques. Mais comme la difficulté à résoudre consiste à montrer comment des processus neuronaux quantiques pourraient éviter la décohérence, la première chose à faire devait être de montrer pour quelles raisons cette décohérence ne se produirait pas, aussi bien à l'intérieur des neurones que dans le milieu biologique où ils baignent.

Le lithium

Pour approfondir cette question, Matthew Fisher a été conduit à se demander pourquoi le lithium peut aider des malades perdant la mémoire ou manifestant des tendances dites bi-polaires à récupérer une certaine disponibilité neuronale. La pharmacologie a constaté expérimentalement en effet l'efficacité de médicaments contenant du lithium mais sans s'en expliquer la raison. Matthew Fisher a donc recherché des solutions faisant appel à sa spécialité, la mécanique quantique.

Les noyaux des atomes, comme les particules élémentaires qui les constituent, ont une propriété quantique nommé le spin. Le spin caractérise la sensibilité des noyaux aux courants électrique et magnétique les environnant. Plus le spin est élevé, plus ils y sont sensibles. A l'inverse un noyau disposant d'une valeur de spin minimum ne réagit que très faiblement aux rayonnements produits par ces courants. Le spin est, en physique quantique, une des propriétés des particules, au même titre que la masse ou la charge électrique. Comme d'autres observables quantiques, sa mesure donne des valeurs discrètes et est soumise au principe d'incertitude. C'est la seule observable quantique qui ne présente pas d'équivalent classique, contrairement, par exemple, à la position, l'impulsion ou l'énergie d'une particule. (Pour plus de précision, voir Wikipedia Spin ) .

Dans le cerveau, où les champs magériques et électriques abondent, un noyau disposant d'un spin de 1/2, la plus basse valeur possible, devrait être bien protégé des perturbations résultant de ces champs. Or c'est le cas des noyaux de lithium, plus précisément du lithium 6. Les physiciens avaient constaté depuis longtemps qu'il pouvait conserver son spin pendant au moins 5 minutes. Le lithium n'est pas présent naturellement dans le cerveau, au contraire du phosphore, très abondant. Les noyaux d'acide phosphorique et de phosphates en dérivant (phosphate dit organique) disposent eux aussi d'un spin de 1/2 et peuvent donc en principe résister aux processus de décohérence.

La molécule de Posner

Or une molécule dite de Posner avait été identifiée en 1975 dans les tissus osseux. Elle apparait également dans des fluides corporels reconstitués en laboratoire. Soumises à des effets quantiques, son temps avant décohérence peut être de 12 à 24 heures, c'est-à-dire un temps largement suffisant pour qu'elle puisse participer à des processus quantiques.

Fisher a trouvé au moins une réaction dans le cerveau qui pourrait en théorie produire des états intriqués entre spins de noyaux au sein des molécules de Posner. Elle fait intervenir une enzyme nommée la pyrophosphatase. Celle-ci peut casser des structures comportant deux ions phosphates liés, en produisant deux ions phosphates indépendants. En théorie, les spins nucléaires de ces ions pourraient subir une intrication, s'ils avaient été soumis auparavant à un processus quantique. Libérés dans le fluide entourant les cellules, ils pourraient se combiner avec des ions calcium pour produire des états intriqués entre spins de noyaux au sein des molécules de Posner.

En théorie toujours, les fluides inter-neuronaux du cerveau pourraient comporter de grandes quantités de molécules de Posner intriquées. Si elles pénètrent les neurones, ces molécules pourraient modifier leur comportement, leur donnant la possibilité de réaliser des activités complexes, telle que des pensées et des mémorisations. Restera à vérifier expérimentalement si des molécules de Posner existent réellement dans les fluides intercellulaires du cerveau, en ce cas, si elles peuvent se trouver intriquées et finalemlent, par quels mécanismes quantiques elles ils le seraient.. Fisher envisage aujourd'hui de réaliser en laboratoire des expérimentations portant sur ces points.

La mécanique quantique à l'oeuvre au sein du cerveau

En cas de succès, les effets thérapeutiques du lithium, proche de l'acide phosphorique comme indiqué ci-dessus. pourraient commencer à trouver des explications. Ils découleraient de mécanismes faisant globalement appel à la mécanique quantique. Si aux origines de la vie les mécanismes biologiques avaient appris à utiliser celle-ci au profit de cette fonction universellement répandue qu'est la fonction chlorophyllienne, pourquoi n'auraient ils pas réutilisé la mécanique quantique pour permettre le fonctionnement des systèmes nerveux, dès que ceux-ci sont apparus dans la suite de l'évolution?

Certes, réussir à montrer que des neurones pourraient s'influencer à distance en dehors des voies connues de la communication intra et inter-neuronale ne pourrait suffire à faire comprendre les mécanismes infiniment plus complexes de la production des idées ou de la mémoire à long terme. Il faudra sans doute des années, si les hypothèses de Matthew Fisher sont validées, pour y réussir. Mais la voie proposée par lui pourrait enfin ouvrir des perspectives nouvelles dans des problématiques suspectées être les plus complexes de celles présentées par l'univers. Que la physique quantique y joue un rôle clef n'aurait rien d'étonnant, si l'on admet que la physique dite macroscopique aurait pu émerger, avec l'univers macroscopique lui-même, d'une fluctuation dans le monde quantique.

Quantum Cognition: The possibility of processing with nuclear spins in the brain
Matthew P. A. Fisher
(Submitted on 19 Aug 2015 (v1), last revised 29 Aug 2015 (this version, v2))

The possibility that quantum processing with nuclear spins might be operative in the brain is proposed and then explored. Phosphorus is identified as the unique biological element with a nuclear spin that can serve as a qubit for such putative quantum processing - a neural qubit - while the phosphate ion is the only possible qubit-transporter. We identify the "Posner molecule", Ca9(PO4)6, as the unique molecule that can protect the neural qubits on very long times and thereby serve as a (working) quantum-memory. A central requirement for quantum-processing is quantum entanglement. It is argued that the enzyme catalyzed chemical reaction which breaks a pyrophosphate ion into two phosphate ions can quantum entangle pairs of qubits. Posner molecules, formed by binding such phosphate pairs with extracellular calcium ions, will inherit the nuclear spin entanglement. A mechanism for transporting Posner molecules into presynaptic neurons during a "kiss and run" exocytosis, which releases neurotransmitters into the synaptic cleft, is proposed. Quantum measurements can occur when a pair of Posner molecules chemically bind and subsequently melt, releasing a shower of intra-cellular calcium ions that can trigger further neurotransmitter release and enhance the probability of post-synaptic neuron firing. Multiple entangled Posner molecules, triggering non-local quantum correlations of neuron firing rates, would provide the key mechanism for neural quantum processing. Implications, both in vitro and in vivo, are briefly mentioned.

26 novembre 2015 4 26 /11 /novembre /2015 21:37

.
Jean-Paul Baquiast 26/11/2015




Structure moléculaire de l'ARN

Dans un article du NewScientist daté du 21 novembre 2015, Steven Benner expose comment la biologie synthétique pourrait permettre d'inventer de nouvelles formes de vie. Steven Benner est un des fondateur de ce champ de recherche. Il a crée le Westheimer Institute of Science and Technology et la Foundation for Applied Molecular Evolution (FfAME). Il participe à deux start-up(s) qui en proposent des applications dans certains domaines, notamment en thérapeutique. On objectera que son point de vue risque de perdre l'objectivité scientifique nécessaire au profit de certains intérêts économiques. Mais il va de soi que l'objection ne peut être reçue, dans le cadre de cet article. Les bases théoriques de ses travaux font en effet l'objet d'une large diffusion dans le monde académique.

Steven Benner rappelle dans son article des points que les biologistes évolutionnistes et les généticiens, ne fussent-ils pas experts en biologie synthétique, ne contestent pas. La plupart des hypothèses concernant les premières formes de vie sur Terre admettent que celles-ci se sont initialement développées à partir de ce qui a été nommé un « monde de l'ARN » (DNA world).

Initialement l'ADN qui est à la base de tous les mécanismes génétiques n'existait pas. Sa structure était trop complexe pour avoir été « inventée » par les premières formes de vie. Il s'est progressivement développé, sur le mode darwinien, à partir des molécules d'ARN qui constituait les seules formes d'information génétique existantes, notamment chez les virus.

L'ADN, que chaque géniteur transmet à sa descendance, est indispensable pour permettre à l'embryon de produire les différentes variétés de protéines indispensables au métabolisme. Mais compte tenu de son peu d'efficacité en ce domaine, l'ADN fait appel à l'ARN pour catalyser les réactions chimiques nécessaires. On parle d'ARN messager pour désigner les molécules d'ARN qui, à travers une structure cellulaire spécifique, le ribosome, vont faire ce travail. Le ribosome est un mélange d'ARN et de protéines et joue le rôle de machine moléculaire nécessaire à la fabrication des milliers de protéines utilisées par les cellules pour remplir leur rôle dans l'organisme.

L'ARN n'agit pas seulement à travers les ribosomes, structures complexes n'existant pas dans les cellules primitives. On le rencontre aujourd'hui partout en biologie pour aider les protéines à catalyser les réactions métaboliques nécessaires à la vie. Si cependant l'ARN est généralement remplacée par l'ADN dans les grands processus biologiques, c'est qu'il n'est pas une molécule stable et d'autre part ne comporte pas assez d'éléments pour être un catalyseur efficace.

Les mécanismes darwiniens considérés comme facteurs essentiels de l'évolution biologique ont fait que l'invention, sans doute par hasard, de l'ADN par certaines cellules a donné à ces cellules un avantage compétitif considérable, faisant ainsi disparaitre le monde de l'ARN primitif. L'ARN n'a survécu que comme vestige, limité essentiellement au rôle de messager à travers les ribosomes.

Imaginer d'autres formes de vie

Si l'on s'interroge sur ce qu'aurait pu être l'évolution de la vie sur Terre sans l'apparition de l'ADN, sous la seule action de l'ARN, ou sur ce que pourraient être des formes exobiologiques (existant sur d'autres planètes) n'ayant pas « inventé » « l'ADN, toutes les suppositions sont possibles concernant ces formes de vie. On pourrait, à une autre échelle, se demander quelles auraient été les espèces animales si certaines d'entre elles n'avaient pas « inventé » l'aile. Elles n'auraient pas disparu pour autant, mais elles se seraient développées en s'adaptant aux seuls milieux terrestres et maritimes.

Pour limiter l'exploration du champ des possibles, le laboratoire de Steven Benner a montré que l'ARN aurait pu évoluer différemment de ce qu'il a fait dans l'histoire de la vie. L'ARN (cf wihipedia référencé ci-dessous) ne comporte que quatre bases nucléiques, l'adénine, la guanine, la cytosine et l'uracile. Il a de nombreuses similitudes avec l'ADN, avec cependant quelques différences importantes : d'un point de vue structurel, l'ARN contient des résidus de ribose là où l'ADN contient du désoxyribose, ce qui rend l'ARN chimiquement moins stable, tandis que la thymine de l'ADN y est remplacée par l'uracile, qui possède les mêmes propriétés d'appariement de base avec l'adénine. Sur le plan fonctionnel, l'ARN se trouve le plus souvent dans les cellules sous forme monocaténaire, c'est-à-dire de simple brin, tandis que l'ADN est présent sous forme de deux brins complémentaires formant une double-hélice.

Enfin, les molécules d'ARN présentes dans les cellules sont plus courtes que l'ADN du génome, leur taille variant de quelques dizaines à quelques milliers de nucléotides, contre quelques millions à quelques milliards de nucléotides pour l'acide désoxyribonucléique. Par ailleurs, dans la cellule telle qu'elle a résulté de l'évolution, l'ARN est produit par transcription à partir de l'ADN situé dans le noyau. L'ARN est donc une copie d'une région de l'un des brins de l'ADN.

Cependant rien n'interdit de penser qu'un ARN comportant un plus grand nombre de bases nucléiques, lesquelles auraient pu résulter d'un appariement différent entre nucléotides, n'aurait pu apparaître. Il aurait pu en ce cas devenir un aussi bon catalyseur que l'ADN, produisant donc autant sinon davantage de protéines. L'ADN serait resté nécessaire, du fait de sa grande stabilité, mais de nouveaux métabolismes, et donc finalement de nouveaux types de cellules et d'organismes; auraient pu apparaître.

La biologie synthétique

On ne peut évidemment pas en laboratoire reconstruire une évolution hypothétique qui, sur des bases biologiques différentes, se seraient déroulées pendant des millions d'années. Mais la toute récente biologie synthétique pourrait en principe le faire. Elle peut dorénavant produire en laboratoire des ARN et ADN de synthèse utilisant des alphabets génétiques plus larges que ceux de leurs homologues naturels. Il est possible de provoquer par ailleurs des processus évolutifs considérablement accélérés. Autrement dit, il devient possible de reproduire en laboratoire le cycle darwinien bien connu : mutation, compétition, sélection et expansion, fut-ce encore à très petite échelle.

Ceci ne veut pas dire qu'à horizon prévisible la biologie darwinienne synthétique puisse faire apparaître de nouvelles espèces, par exemple comportant une douzaine de paires d'ailes. Mais elle a pu déjà produire, dans le laboratoire de Steven Benner, en collaboration avec une équipe dirigée par Weihong Tan à l'université de Floride, des molécules nouvelles ayant la propriété de se lier à des cellules cancéreuses de façon à mieux les combattre.

Sur d'autres planètes, il serait possible d'imaginer que des formes de vie ayant évolué dans un monde exclusivement à ARN auraient pu naitre et se développer de façon darwinienne, sans avoir besoin de protéines. En ce cas, elles pourraient être si différentes de la vie telle que nous la connaissons que les premiers explorateurs pourraient les côtoyer sans, au moins dans un premier temps, les identifier comme vivantes.

On n'oubliera pas cependant que la vie ne résulte pas seulement d'interactions entre un génome et un environnement. Beaucoup d'autres facteurs sont à prendre en considération, qu'il est inutile de rappeler ici. La vie synthétique devra organiser ces interfaces, fort complexes d'ailleurs. Il en sera de même de la vie totalement artificielle, celle que l'on cherche à incarner dans des robots en cours d'étude actuellement.

Références

* Article de Steven Benner https://www.newscientist.com/article/mg22830480-200-drop-the-proteins-alien-life-might-be-radically-different/

* Steven A. Benner https://en.wikipedia.org/wiki/Steven_A._Benner

* Domaines de recherche http://www.ffame.org/sbenner.php

* ARN Acide ribonucléique Wikipedia

* ADN Acide désoxyrubonucléique Wikipedia

* Ribosome. Wikipedia

* Biologie synthétique. Wikipedia

13 novembre 2015 5 13 /11 /novembre /2015 14:03

Dans un article d'un Hors série de la revue La Recherche daté d'octobre 2015 et consacré à la conscience, le philosophe David Chalmers reprend et actualise une hypothèse qui a toujours été la sienne, selon laquelle la conscience serait un phénomène universel comme le temps et l'espace. Précisons tout de suite que dans cette approche il se veut scientifique bien que philosophe. Il n'accepte pas les nombreuses tentatives de récupération qu'il a suscité parmi les divers spiritualismes et défenseurs de sciences parallèles.

Cette hypothèse va au delà des travaux très nombreux aujourd'hui étudiant les changements et corrélats neuronaux se produisant lorsqu'un sujet se dit conscient. Les études correspondantes se sont développées à partir d'un article fondateur de Francis Crick et Cristof Koch, intitulé « Vers une théorie neurobiologique de la conscience (1990). Elles se sont appuyées sur les possibilités d'observation offertes depuis cette date par les différentes techniques d'imagerie cérébrale et neuronale.

Ces techniques ont d'abord été utilisées pour étudier les processus du système nerveux central ne produisant pas nécessairement de faits de conscience, comme la réaction justement dite inconsciente du cerveau à un stimulus extérieur simple, tel qu'un son. Mais très vite, elles ont été appliquées à l'étude des processus neurologiques par lesquels un sujet réagit à un stimulus interne ou externe se traduisant par une prise de conscience plus ou moins durable: par exemple un sentiment de peur pouvant survenir dans l'esprit du sujet à la perception d'une scène inquiétante.

Deux grandes approches, comme le rappelle Chalmers, ont été utilisées depuis quelques années pour expliquer comment ces sentiments conscients apparaissent et s'organisent au sein des faisceaux neuronaux. La première est le développement d'une idée proposée par Baars et reprise depuis par les français Changeux, Dehaene et al. Elle fait l'hypothèse que le cerveau génère un « espace de travail conscient commun » lorsqu'il prend conscience de quelque chose. Ce sont des neurones dits associatifs couvrant l'essentiel de l'espace cortical qui se coordonnent à cette occasion. La seconde approche, assez différentes, est dite théorie de l'information intégrée et due à Giulio Tononi. Selon cette hypothèse, la conscience d'un thème émerge lorsque le cerveau recueille un nombre suffisant d'informations sur ce thème. Celles-ci s'organisent sous une forme mathématique.

La conscience phénoménale

Cependant l'imagerie cérébrale et autres techniques d'observation extérieure ne permettent pas de mettre en lumière les mécanismes sans doute plus fondamentaux par lequel un sujet ressent subjectivement les conséquences d'un phénomène dont il a pris conscience – ce que l'on nomme la conscience phénoménale. Autrement dit, comment, selon un terme très utilisé, le sujet ressent subjectivement les qualités ou qualia s'attachant à un phénomène objectif perçu par lui ?

Or ceci n'apparait pas à l'observation neuronale. Celle-ci ne montre pas par exemple ce qui se passe dans mon cerveau lorsque je ressens subjectivement les qualités d'une couleur telle que le rouge. Il n'est pas par conséquent possible de montrer en quoi le cerveau d'un autre observateur réagit à la perception d'un objet rouge identique, que ce soit pour en tirer une sensation identique ou une sensation différente. A plus forte raison n'est-il pas possible de montrer comment la conscience complexe que j'ai de moi s'organise et en quoi elle diffère de la conscience que mon voisin a de lui-même. Tout au plus peut-on comparer les signes objectifs par lesquels nos consciences se manifestent, tels que les symboles socialement acceptés des gestes et du langage.

Face à ces difficultés, comme le rappelle Chalmers dans l'article cité, il a été obligé de faire appel à deux hypothèses complémentaires. Selon la première de celles-ci, il faut considérer la conscience comme un phénomène aussi fondamental que la masse, l'espace et le temps en physique. Autrement dit, il pourrait s'agir d'une loi de la même portée que celles désignées que les physiciens et cosmologistes sous le terme de lois fondamentales de l'univers. Nous pouvons en conclure qu'elle serait apparue dans le même temps que ces dernières, c'est-à-dire immédiatement après le Big Bang.

L'autre hypothèse, qui découle en grande partie de la première, est que la conscience serait universelle. On la trouverait partout dans l'univers, des particules élémentaires jusqu'aux astres et galaxies. Dans le domaine de la biologie terrestre, elle serait de même présente de la bactérie jusqu'à l'homme. Mais, dans ces divers cas, elle prendrait des formes différentes en fonction des propriétés de ces diverses entités.

Ces deux thèses ont été pressenties et évoquées dès l'aube de l'humanité, sous deux formes un peu différentes, celle du panpsychisme selon laquelle le psychisme est partout, et celle du dualisme, conduisant à distinguer le monde matériel et le monde spirituel. Comme rappelé ci-dessous, elles ont donné lieu à d'innombrables croyances mythologiques et religieuses ayant profondément inspiré les créations humaines. Aujourd'hui encore, elles sont admises – au moins sous la forme du dualisme- par sans doute 90% de l'humanité. Est-ce une raison pour que le scientifique se voulant matérialiste (naturalist selon le mot anglais) les accepte sans discussion? Certainement pas.

Mais pour les discuter, il faut trouver des méthodes permettant de les mettre en relation avec les autres lois fondamentales de l'univers. Chalmers reconnaît son ignorance en ce domaine, ignorance partagée à ce jour par toute la communauté scientifique. Certains auteurs ont bien évoqué des relations possibles entre le monde de la conscience et le monde quantique, mais rien de concluant n'a été présenté dans cette direction.

Le Hard Problem

Pourrions nous ici proposer quelques réflexions pour aider à éclaircir le problème de la conscience phénoménale, problème que dès ses premiers écrits Chalmers avait qualifié de « hard problem »? Rejetons d'emblée l'hypothèse selon laquelle ce problème relèverait d'un inconnaissable absolu et définitif. Il ne serait même pas nécessaire en ce cas d'en faire un sujet de science. Il ne serait même pas utile d'en parler.

Face aux questions non seulement difficiles mais considérées aujourd'hui comme inconnaissables, les scientifiques ne baissent pas les bras. C'est le cas des nombreuses questions évoquées par les cosmologistes, concernant l'univers mais concernant aussi plus immédiatement la physique quantique telle qu'applicable en cosmologie. Certes, beaucoup font l'hypothèse que le cerveau humain n'est pas capable de résoudre de telles questions. Il a été formaté par l'évolution pour nous apprendre à distinguer les proies et les prédateurs, mais pas pour résoudre des questions telles que la cause pour laquelle les pommes tombent des arbres. Cependant c'est ce même cerveau qui a finalement proposé les lois formulées par Newton et ses successeurs concernant la gravitation. Aujourd'hui même, la plupart des physiciens et cosmologistes considèrent que ce que l'on nomme la gravitation quantique relève pour le moment de l'inconnaissable. Ceci n'empêche pas les hypothèses de foisonner.

Il faudrait donc appliquer aux approches de la conscience suggérées par Chalmers, panpsychisme et dualisme, des méthodes s'inspirant de celles ayant permis aux premiers philosophes s'étant interrogés sur le mystère sous-jacent au phénomène universellement constaté de la chute des pommes. Ils ont fait appel à leur imagination créatrice, sans en limiter a priori les ambitions. Celle-ci a suggéré plusieurs hypothèses, nécessairement dans le désordre. Mais de proche en proche, des hypothèses imaginées jusqu'à leurs mises à l'épreuve utilisant les moyens expérimentaux disponibles à l'époque, une loi plus consistante a fini par émerger.

Impossible dans le cas de la conscience, dira le lecteur. Comment imaginer ce que pourrait être le degré ou la nature de la conscience supposée d'un atome ou d'un astre? Comment imaginer les rapports entre la conscience dans le monde macroscopique et celle pouvant exister dans le monde quantique? Or c'est précisément le travail à faire. Faites travailler vos imaginations créatrices, tant en matière d'hypothèses que de vérifications, et vous trouverez bien quelque chose avant la fin de vie de l'univers. Peut-être même plus tôt. Dans ce cas, vous pourrez espérer un prix Nobel.


Pour en savoir plus

* David John Chalmers, né en 1966 en Australie, est philosophe et dirige le Centre For Consciousness à l’Australian National University. D'abord diplômé en mathématiques et en informatique à Adélaïde, il se consacre ensuite aux sciences cognitives et à la philosophie, et présente en 1995 son post-doctorat au département (dirigé par Andy Clark) de Philosophie-Neurosciences-Psychologie de l'université de Washington à Saint-Louis. Il a fait paraître sous sa direction l'anthologie Philosophy of Mind (Oxford University Press, 2002), et est membre éditeur de la Stanford Encyclopedia of Philosophy. L’Esprit conscient est son maître ouvrage.

* Voir la critique de son ouvrage « L'esprit conscient par François Loth « http://www.francoisloth.com/lesprit-conscient-ou-la-faussete-du-materialisme-selon-david-chalmers/ traduit de The Conscious Mind. In Search of a Fundamental Theory – Oxford U. P.,1996

* Sur ces sujets, on pourra se référer à un dossier datant de 2008 que nous avions publié sous le titre « La conscience vue par les neurosciences. » Il va sans dire qu'il devra être actualisé sur certains points;

16 octobre 2015 5 16 /10 /octobre /2015 14:50


Je vais certainement pour cet article me faire accabler par mes fidèles lecteurs. Disons que j'émet ici une hypothèse de travail concernant l'avenir du monde. Je serais le premier à me réjouir qu'ils y en proposent d'autres

Un récent rapport de la banque Crédit Suisse 1) a précisé les chiffres actuellement disponibles concernant la répartition des inégalités dans le monde. Il confirme le fait déjà souvent mentionné selon lequel 1% des plus riches possèdent 50% des richesses du monde, les 99% autres se partageant le reste, d'une façon d'ailleurs elle-même très inégalitaire.

t

Le Crédit Suisse met aussi en évidence que ce sont les Etats-Unis qui viennent en tête des nations possédant ces richesses, à 46%, l'Europe venant ensuite. Le terme de richesses (assets) englobe toutes les formes confondues de richesses. Il ne mesure pas par contre les inégalités dans la possession du pouvoir en découlant. Celles-ci sont plus difficiles à évaluer, mais elles pourraient être réparties encore plus inégalement.

On pourra questionner la validité ou l'objectivité de ces évaluations. On pourra aussi remarquer que différentes richesses immatérielles ou tenant à l'usage de biens communs n'ont pas été prises en compte. Mais il est inutile de le faire ici. Dans l'ensemble, le rapport de la banque suisse explicite de façon presque indiscutable ce que nous pourrions qualifier de fait quasiment scientifique, depuis longtemps reconnu: 1% des humains seuls décident de l'avenir du monde. De plus, nul n'est aujourd'hui en mesure de proposer les moyens de changer cet état de chose.

Faut-il voir là comme le pense le physicien Stephen Hawking, référencé ci-dessous 2), la pire menace pesant aujourd'hui sur le monde? La thèse inverse pourrait être proposée. Compte tenu des façons archaïques, frisant la démence destructrice, dont se comportent au moins 50 à 70% de l'humanité, (pensons aux djihadistes en cours de prolifération) mieux vaut pour l'avenir de la planète que ceux-ci aient le moins de pouvoir possible.

Ceci dit, les 1% dominants seront-ils moins déments et destructeurs? L'argument fallacieux selon lequel ils le seront moins car appartenant à la race blanche ou aux sociétés anglo-saxonnes ne tient évidemment pas. Beaucoup, au nombre desquels nous nous rangeons, les considèrent d'ailleurs, globalement comme des canailles dangereuses. Mais que faire?

Deux questions se posent plus en profondeur:

Est-il d'abord possible à une bonne volonté politique quelconque de bouleverser ces inégalités, afin d'assurer une meilleure répartition des richesses ? Les révolutionnaires de bonne volonté pourraient l'espérer, mais concrètement ils ne pourront rien faire. Comme l'on sait depuis longtemps, les possesseurs de richesse disposent aussi d'un pouvoir incomparable de prévention et de répression à l'égard de ceux s'efforçant de leur disputer ces divers monopole. Ceci même s'il s'agit initialement de vastes mouvements de foule Ce pouvoir prend la forme classique de la détention des forces militaires et de sécurité, ainsi que de l'appareil judiciaire. Il s'accompagne aussi aujourd'hui d'un extraordinaire pouvoir de mise en condition des esprits éventuellement contestataires par l'utilisation des médias modernes dont ils financent eux-mêmes le fonctionnement.

Mais, second question, ceux qui se sont approprié les ressources du monde utilisent-ils uniquement celles-ci pour servir leurs propres intérêts égoïstes, affirmation névrotique de soi et de son propre pouvoir, abus de la vie de luxe et des consommations somptuaires ruineuses pour le monde? A cette deuxième question, la réponse nous semble-t-il devrait être plus nuancée.

Aucun historien ne conteste le fait que les pyramides égyptiennes, les châteaux et cathédrales du Moyen-Age, n'aient été construits à partir de la « sueur » de populations rurales quasi asservies. Autrement dit, pour diverses raisons de pouvoir, les dominants de l'époque n'ont pas entièrement dépensé en consommations immédiates les épargnes prélevées sur le peuple. Ils les ont investi en produits d'avenir, ne fut-ce que pour assurer leur propre avenir, sur la terre ou dans le ciel.

En prenant un peu de recul et sans tomber dans un optimisme naïf, ceux qui étudient l'histoire de la science dans les derniers siècles doivent admettre qu'un petit pourcentage de privilégiés ont toujours affecté à des investissementsproductifs à terme la plus grande partie des connaissances scientifiques dont ils disposaient et l'essentiel des moyens d'actions techno-scientifiques en découlant. Ils n'en ont pas fait toujours bon usage, s'en servant pour produire des armes potentiellement destructrices. Mais dans l'ensemble ces moyens permirent au cours des siècles passés la mise en place des sociétés modernes et post-modernes auxquelles même les plus défavorisés d'aujourd'hui ne voudraient pas renoncer.

Lorsque plus récemment des Etats ont développé des politiques publiques de recherche, en relais de celles des entreprises privées, ce n'était pas sous la pression d'un corps électoral sans pouvoir réel mais à l'incitation de quelques privilégés eux-mêmes, utilisant ces Etats pour produire des épargnes forcées.

Financer les sciences de demain

Ne pourrait-on espérer qu'il en serait de même à l'avenir. Sous la pression de citoyens avertis, l'inégalité des revenus ne pourrait-elle pas permettre de financer de nouveaux développements scientifiques et techniques dans lesquels une petite minorité de la minorité de dominants trouverait moyen de s'investir. Ceci que ce soit dans la lutte contre les modifications climatiques, contre la destruction des écosystèmes ou à terme pour l'exploitation des possibilités de survie dans l'espace – sans mentionner la perspective de développer des systèmes artificialo-biologiques définissant ce que l'on désigne comme une ère post-humaine.

Si une petite minorité des humains actuels détenait rapidement les moyens augmentés découlant de ces ressources techno-scientifique, il ne serait pas impossible de penser qu'ils s'en serviraient non pas seulement pour augmenter leurs niveaux de consommation somptuaire, produire des voitures de plus en plus puissantes, mais pour permettre à la planète d'échapper aux destructions certaines découlant des affrontements meurtriers opposant entre eux les quelques 80% d'autres humains restés enfermés dans les logiques destructrices héritées des siècles passés.

Cela ne veut pas dire qu'ils entreprendraient de détruire systématiquement ces humains archaïques, ou plus simplement de les laisser mourir. D'un point de vue optimiste, on pourrait penser qu'ils leur apporteraient des moyens de récupérer leur retard. Mais il faudrait que ce soit sans leur demander leur l'avis, voire malgré eux, et le cas échéant sans refuser le recours à des guerres défensives.

Nous pensons pour notre part que cette évolution salvatrice, si elle se fait, se fera sans que personne n 'en prenne clairement la décision. Il s'agira d'une transformation de type systémique affectant les complexes biologiques – nous dirons pour notre part les complexes bio-anthropotechniques 3) en compétition pour la survie, sur Terre d'abord, mais aussi dans l'espace.

Ainsi dans un lointain passé, lorsque les organismes multicellulaires ont, par une logique évolutive implacable, remis à une juste place les organismes monocellulaires, virus, microbes et bactéries dominant aux premiers millénaires et ne permettant pas à la Terre de se complexifier, ils ne l'ont pas fait en s'inspirant d'une sorte de racisme cellulaire. Ils étaient seulement les agents d'une logique évolutive plus générale.

Références

1) Crédit Suisse. Global wealth Report
http://publications.credit-suisse.com/tasks/render/file/?fileID=F2425415-DCA7-80B8-EAD989AF9341D47E

2) Stephen Hawking
http://www.huffingtonpost.com/entry/stephen-hawking-capitalism-robots_5616c20ce4b0dbb8000d9f15
Voir aussi
http://theantimedia.org/stephen-hawking-warns-about-the-greatest-threat-to-humanity/

3) Le paradoxe du sapiens. Jean-Paul Baquiast 2010

Articles Récents

Liens