Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

30 septembre 2014 2 30 /09 /septembre /2014 17:28

30 septembre 2014 |

The Island of Knowledge: The Limits of Science and the Search for Meaning
par Marcelo Gleiser
Basic Books (June 3, 2014)
Commentaires par Jean-Paul Baquiast 30/09/2014


Marcelo Gleiser (né en 1959) est un physicien et un astronome réputé, peu connu malheureusement en France. Né au Brésil où il a fait ses études universitaires, il est aujourd'hui professeur de physique et d'astronomie au Darmouth College, New Hampshire, fondation privée de recherche et d'enseignement scientifique.

Ses recherches ont porté sur la physique de l'univers primordial et les origines de la vie sur Terre ou éventuellement dans l'univers. Il a fait de nombreuses hypothèses d'intérêt reconnu sur les relations entre la physique des particules et la cosmologie, notamment dans ce que l'on appelle les transitions de phase et les brisures spontanées de symétrie, intéressant les passages d'un particule à une autre et l'apparition de nouvelles particules.

Il a publié avant « The Island of Knowledge », 3 ouvrages d'intérêt reconnu concernant l'évolution et la philosophie des sciences
* The Prophet and the Astronomer: Apocalyptic Science and the End of the World, 2003
* The Dancing Universe: From Creation Myths to the Big Bang, 1998
* A Tear at the Edge of Creation: A Radical New Vision for Life in an Imperfect Universe, 2010

Nous considérons que « The Island of Knowledge » est un ouvrage d'intérêt considérable. Toute personne s'intéressant aux sciences et à leur avenir devrait le lire et y réfléchi. On peut craindre qu'il ne soit pas traduit rapidement en français, mais écrit dans un style courant, il est accessible à tous ceux possédant quelques rudiments de langue anglaise.

Comment le définir? Disons qu'il s'agit d'un ouvrage de philosophie des sciences. Appelons ici philosophie des sciences une philosophie qui s'intéresse aux sciences, de leurs origines à leurs devenir, mais aussi une philosophie générale, portant sur l'humain et sur le monde, qui s'appuie sur les connaissances scientifiques. Pour prétendre philosopher sur les sciences, il faut d'abord bien les connaître, tant dans leur passé que dans leur état actuel et les perspectives sur le futur qu'elles proposent. C'est bien là le grand talent de l'auteur. « The Island of Knowledge » réalise en ce sens un travail, non pas de vulgarisation, terme qui serait un peu réducteur, mais de présentation et de discussion de l'histoire et du contenu des connaissances scientifiques, que nous jugeons, avec ce que nous connaissons de ces sujets, absolument remarquable.

Il ne cherche évidemment pas à balayer l'ensemble des connaissances, mais il présente les trois principaux domaines qu'il faut absolument connaître aujourd'hui car autour d'eux s'organisent tous les savoirs scientifiques: les origines et le futur de l'univers, la nature de la matière telle qu'analysée par les physiciens, depuis les alchimistes jusqu'aux physiciens quantiques, la nature de l'esprit humain et des interprétations du monde qu'il propose, incluant les perspectives ouvertes par l'intelligence générale artificielle . Il ne traite pas à proprement parler de la biologie, mais en permanence la question de la vie est évoquée, dans un sens large.

Nous disons qu'il faut absolument connaître, an moins l'essentiel, de ces domaines car il est bien évident que discourir sur la science sans posséder ces bases n'a aucun intérêt philosophique. Mais acquérir ces bases suppose évidemment un long travail, que tous, fussent-ils bien intentionnés, ne peuvent faire. Rien n'interdit à ceux qui n'ont pu de faire de s'exprimer, mais ceci devrait leur imposer une modestie dont ils manquent généralement (comme le montrent par exemple les commentaires aux articles scientifiques faits sur les réseaux sociaux).

« The Island of Knowledge » présente le grand intérêt, dans chacun des trois domaines proposés, de rappeler les origines des théories évoquées, en remontant si nécessaire à l'Antiquité grecque, de résumer sommairement mais clairement l'état actuel des connaissances et, surtout de souligner les éléments qui demeurent, dans chacune d'entre elles, soit encore mal connus, soit (vraisemblablement) à jamais inconnaissables. Ce travail est à lui seul une performance, car il suppose que l'auteur ait pu se livrer à un inventaire quasiment encyclopédique de l'évolution des connaissances évoquées. Le lecteur, en le lisant, pourra en tous cas rafraichir et actualiser ses propres notions concernant le monde et les regards portés sur lui par les sciences.

La pratique expérimentale

Le livre rappelle par ailleurs dans pratiquement toutes ses pages que la science est une activité humaine absolument originale, apparue au 6e siècle avant JC, qui s'est pleinement développée en Europe à partir de l'ère dite des Lumières, et qui s'est propagée, non sans obstacles et résistances, au sein d'autres réalisations. Comme le savent ceux que l'on nomme en France les matérialistes scientifiques (naturalists en anglais), elle repose sur un postulat incontournable. Il s'agit de ne retenir que les hypothèses vérifiables expérimentalement.

Certes, l'extension naturelle des champs de l'hypothèse, comme le perfectionnement continu des instruments d'observation, font que ce que l'auteur appelle l' « Ile des connaissances » ne cesse de s'étendre, mais la nécessité d'exclure de la science, sauf exceptions sur lesquelles nous reviendrons, tout ce qui n'est pas vérifiable expérimentalement distingue radicalement la science de l'art, de la religion mais aussi de la philosophie dite métaphysique.

La science étant ainsi bordée, rien n'interdit, comme nous venons de le rappeler, les discours philosophiques commentant ses résultats ou anticipant sur des résultats futurs. De même, il est très important d'autoriser les scientifiques, dans leurs disciplines, à faire des hypothèses qui ne soient pas immédiatement vérifiables. Le cas est fréquent, en cosmologie ou en mécanique quantique. Mais il faut pour ce faire être déjà très qualifié dans les disciplines correspondantes, et ne pas évidemment renoncer à rechercher des preuves expérimentales à ces hypothèses. Ceci n'autorise évidemment pas n'importe qui à dire n'importe quoi et à tenter de le propager avec un entêtement mal placé.
Il faut donc absolument rappeler les fondements expérimentaux de la science, face à l'avalanche, qui a toujours été mais qui ne s'est pas ralentie, des jugements se disant scientifiques mais qui n'ont pas de bases vérifiables. On parlera alors de fausses sciences ou pseudo-sciences. 1)

Un tour d'horizon interdisciplinaire.

Il s'agit à première vue d'évidences, tout au moins aux yeux des philosophes de la science et des scientifiques. Est-il nécessaire de consacrer tout un ouvrage à les rappeler? Notre réponse sera évidemment affirmative. D'une part le tour d'horizon des domaines scientifiques étudiés par le livre s'impose, dans un esprit que l'on qualifie généralement d'interdisciplinaire. Nombre de chercheurs éminents, tout au moins dans leurs premières années de recherche, ignorent faute de temps les travaux de collègues portant sur des questions apparemment très éloignées mais qui à plus ample informé se révèlent très liées.

D'autre part et surtout, c'est à l'intention des lecteurs généralistes que s'impose cette remise en perspective. Ceux-ci ne connaissent l'évolution des connaissances qu'à partir d'articles nécessairement spécialisés. Ils risquent donc ne ne pas faire les rapprochements nécessaires. Ainsi un article sur le phénomène qualifié de trou noir ne rappellera pas nécessairement les bases de la physique quantique s'appliquant à cet état particulier de la matière.

Mais, dira-t-on, n'existe-t-il pas suffisamment d'encyclopédies des sciences fort bien faites qui auraient pu éviter à l'auteur l'écriture d'une bonne moitié des pages de son livre ? Disons ici que si fréquenter ces encyclopédies, dont Wikipedia est l'équivalent sur le web, s'impose, ceci ne donnera pas nécessairement le dernier état d'une question évoluant vite. Dans certains des chapitres de son livre, c'est au contraire ce à quoi s'est attaché Marcelo Gleiser. Ces propos perdront vite de leur actualité, mais pendant quelques mois de 2014-2015 – en attendant une nouvelle édition? - les questions qu'il aborde ne seront pas traitées ailleurs – sauf évidemment dans des blogs spécialisés inabordables pour le tout venant.

Le mur de l'inconnaissable

Plus fondamentalement Gleiser met l'accent dans son livre sur des aspects de la science rarement évoqués par les chercheurs ou les vulgarisateur écrivant sur telle ou telle question scientifique: les murs de la connaissance dans ces domaines. Chacun sait qu'en permanence, toute recherche se heurte à un mur d'inconnu. Mais qui dit mur d'inconnu ne dit pas nécessairement mur d'inconnaissable, le terme inconnaissable pris au pied de la lettre, signifiant que jamais l'humanité ne pourra s'aventurer avec succès au delà de ce mur. Ce sera du soit à l'impossibilité d'espérer disposer d'instruments permettant d'expérimenter certaines hypothèses, soit à la nature profonde de tel ou tel aspect de la réalité relevant de ce que l'on nomme l'indécidable, soit à l'incapacité de nos cerveaux, même renforcés de prothèses artificielles, à embrasser des questions trop complexes pour eux.

L'originalité du livre est de postuler, sans pouvoir évidemment le démontrer, que toute une série de grands problèmes posés par le développement des sciences ne pourront jamais être résolus. Il en est ainsi de tout ce qui concerne non pas l'univers observable, mais l'univers en général. Jamais nous n'aurons par exemple les instruments permettant de nous projeter à des millions ou milliards d'années-lumière dans l'espace temps, jamais nous ne pourrons conceptualiser et a fortiori modéliser avec la précision suffisante ce que pourrait être un univers composé d'un nombre infini d'univers-bulles comme le nôtre. Certes il ne faut pas poser d'emblée l'inconnaissabilité de telle ou telle hypothèse, ce qui éviterait de rechercher les preuves expérimentales permettant de la confirmer. Mais au delà de certains niveaux de difficultés, il apparaît raisonnable d'envisager son inconnaissabilité fondamentale.

Ainsi, en matière de multivers, Gleiser nous rappelle que dans les prochains mois, les cosmologistes rechercheront, à partir des observations du fond de radiation micro-ondes cosmologique (CMB) attendues du satellite européen Planck, d'éventuelles traces d'une collision passée de notre univers avec un autre univers. Mais il s'agira d'un cas particulier, très peu discernable, qui donnera d'ailleurs lieu à d'innombrables interprétations. Aller au delà, c'est-dire nous représenter de façon quelque peu réaliste, autrement dite opérationnelle, ce que pourrait être un multivers, ne parait pas scientifique. Ne vaut-il pas mieux postuler que l'humanité, non plus d'ailleurs qu'aucune autre espèce vivante, équipée de corps et de cerveaux aux capacités limitées, même avec le renfort de l'intelligence artificielle, disparaîtra de la surface de la Terre sans avoir jamais pu répondre à ces questions?

L'auteur ne nous dit pas, comme certains savants en leur temps (Lord Kelvin en 1900), qu'il n'y a plus rien à découvrir, mais au contraire qu'il y a un océan de choses que nous ne pourrons jamais découvrir. Il conseille d'en prendre son parti. Certes les frontières de la science reculeront sans cesse pendant encore de longues années, sinon indéfiniment. Sans cesse de nouvelles hypothèses se trouveront vérifiés, ou ce que préfèrent d'ailleurs les théoriciens, falsifiées selon le terme de Carl Popper, obligeant à bâtir des hypothèses plus ambitieuses. Aujourd'hui cette question a été évoquée, au vu des récents résultats du grand collisionnneur à hadrons du CERN, qui semblent avoir confirmé la pertinence du modèle standard des particules, alors que certains physiciens auraient préféré une invalidation qui les aurait obligés à réviser en profondeur leurs conceptions concernant la physique des hautes énergies.

Mais pourquoi, tout au moins dans un certain nombre de domaines pourtant essentiels, ne se heurterait-on pas au mur d'inconnaissable évoqué par le livre. On a déjà objecté à l'auteur que ce disant, il procède à un acte de croyance que devrait s'interdire la démarche scientifique. Depuis l'origine des sciences, les lois de la nature présentées comme les plus établies ont toujours été revues et complétées, ce qui a constamment ouvert de nouveaux domaines de recherche. C'est sans doute d'ailleurs déjà le cas en ce moment. Certains scientifiques pensent que les lois dites fondamentales de l'univers, parmi lesquelles notamment la vitesse de la lumière, pourraient être modifiées à l'avenir, ou pourraient être différentes dans d'autres univers, si ceux-ci s'étaient organisés d'une autre façon que le nôtre à la suite d'une « fluctuation du vide quantique » différente de celle ayant généré notre propre univers.

La réponse de Gleiser, à cette objection, si nous l'avons bien comprise, est que ces perspectives ne sont pas à exclure dans le cadre d'une vision métaphysique de l'univers, mais que pour le moment, sauf fait nouveau imprévisible, elles ne présentent pas d'intérêt pour la pratique scientifique. Dans le même esprit, il rejette toute tentative visant à élaborer une « Théorie du tout », qui non seulement ne reposerait sur rien de vérifiable, mais qui pourrait décourager l'élaboration d'autres théories particulières concernant tel ou tel aspect de ce mythique « Tout ». Du fait que nous ne pourrons jamais connaître l'étendue de ce que nous ne savons pas, nous ne pourrons jamais prouver qu'une Théorie du Tout englobe bien la totalité dudit Tout.

La vie et la conscience

Il faut préciser que, contrairement aux préconisations des religions, les scientifiques d'aujourd'hui n'ont pas placé dans le domaine de l'inconnaissable les deux questions pourtant encore considérées comme très difficiles, celle des origines de la vie et celle des mécanismes de la conscience. Même si les circonstances précises ayant permis l'apparition de la vie sur Terre il y a plus de 4 milliards d'années ne seront sans doute jamais connues, ils espèrent dans des délais relativement court pouvoir créer un ou plusieurs organismes vivants artificiels suffisamment proches des organismes vivants biologiques pour que les questions que ceux-ci posent encore à la biologie évolutionnaire se trouvent résolues.

Il en sera de même de la conscience artificielle, dont nous avons souvent ici entretenus nos lecteurs. Pour reprendre l'expression empruntée au test dit de Turing, si une conscience artificielle pense comme une conscience, communique comme une conscience, alors ce sera une conscience. On ne peut évidemment en dire autant des phénomènes cosmologiques hypothétiques complexes. Même s'il est possible de simuler certains d'entre eux sur ordinateur, rien ne permettra jamais d'affirmer que quelque chose d'analogue existe dans l'univers.

La mécanique quantique constitue un cas un peu particulier. Même si aujourd'hui les différents phénomènes caractérisant le monde quantique, tels l'intrication ou la superposition d'états, peuvent être constatés et utilisés par la technique, ils restent inexpliquées en termes de physique ou de cosmologie ordinaire. Il en est de même des questions intéressant ce que l'on nomme le vide quantique. Il est possible de recréer des états de la matière suffisamment denses et chauds pour permettre l'équivalant de fluctuations quantiques voisines de celles supposées avoir donné naissance à notre univers, mais on peut penser que créer, aujourd'hui ou plus tard, des bulles d'univers en laboratoire ne sera jamais possible.

Cependant les physiciens quantiques, dans le cadre d'une encore hypothétique gravitation quantique, ne renoncent pas à modéliser de tels phénomènes, à les expérimenter à de très petites échelles et donc à commencer à comprendre en quoi consiste exactement l'univers profond que l'on pourrait qualifier d'infra-quantique. Prudemment cependant, ils se préparent à affronter de nouveaux domaines de non connaissance révélés par ces progrès futures de la connaissance. Ils ne peuvent garantir qu'ils ne se heurteront pas ainsi au mur d'inconnaissable évoqué par Marcello Gleiser.

Questions philosophiques

Nous avons indiqué en introduction qu'il ne fallait pas confondre la philosophie des sciences, mettant en perspective l'évolution des différentes connaissances, et la philosophie proprement dite, qui discute d'un très grand nombre de questions qui ne seront jamais abordables en terme scientifique, par exemple qu'est-ce que le bien, le mal, l'amour, qu'est ce qu'il y avait « avant », qu'est ce qu'il y aura « après », les dieux existent-ils? ...toutes questions que les humains se sont posés bien avant l'apparition de la science, et qu'ils continueront à se poser, tout en sachant qu'elles ne recevront jamais de réponses scientifiques. Elles sont néanmoins fondamentales car la façon dont une personne, un groupe, un pays traitent de telles questions définit le type de civilisation auquel ils se rattachent.

Mais à côté de ces questions se posent d'autres questions philosophiques suggérées par le développement des sciences. Ce sont précisément celles que Gleiser définit comme se trouvant au delà du mur du scientifiquement connaissable mais qui demeurent importantes aux yeux d'un questionnement philosophique suscité par le progrès des connaissances. Ainsi peut-on se demander, en observant la vie d'un insecte généralement inconscient de son passé et de son futur, si notre vie est ou non différente, à d'autres échelles. De même, observant ce même insecte à l'insu de celui-ci, nous pouvons très légitimement nous demander si d'autres entités, beaucoup plus complexes que nous, ne nous observeraient pas au même moment à notre insu. C'est d'ailleurs sur la base d'une quasi infinité de faits aujourd'hui évoqués par la science que les auteurs de scénarios de science-fiction nous passionnent en éveillant notre imagination et notre réflexion philosophique bien au delà des circonstances de la vie ordinaire.

L'étude de la cosmologie entraine inévitablement d'autres débats philosophiques. A quoi bon se préoccuper de ce que deviendra l'univers, ne fut-ce que dans quelques milliers d'années, alors que nous ne seront pas là, non plus que nos descendants, pour le constater ? Pourquoi s'attrister, comme le font beaucoup de gens, du fait que le système solaires disparaitra inévitablement dans quelques 5 milliards d'années?

D'autres questions, tout à fait différentes, sont posées par la cosmologie. L'humanité, dès ses origines, a eu l'intuition qu'à côté du monde réel, soumis aux contraintes de temps et d'espace, existait un autre monde, intemporel et infini. Mais ne peut-on pas se demander, sans faire référence à de quelconques divinités, si les humains, comme peut-être l'ensemble des créatures vivants, n'ont pas d'une façon intuitive et pour des raisons qu'il faudrait expliquer, conscience d'une « réalité » sous-jacente à toutes les réalités que nous ne connaissons pas explicitement.

Pour sa part, Marcelo Gleiser, ayant pris ses distances à l'égard de l'éducation chrétienne qu'il a reçue, ne nous incite jamais à penser que telle ou telle question relevant de l'inconnaissable scientifique puisse faire l'objet d'un appel à des considérations religieuses, mais il comprend très bien que ces mêmes questions puissent faire l'objet de méditations philosophiques. 2)

Notes

1) Sur le matérialisme scientifique, voir Baquiast, « Pour un principe matérialiste fort »
Editions Jean-Paul Bayol. 2007

2) Sur un thème analogue, voir notre présentation du livre de Caleb Scharf, The Copernicus Complex.

Partager cet article

22 septembre 2014 1 22 /09 /septembre /2014 18:35

The Copernicus Complex: Our Cosmic Significance in a Universe of Planets and Probabilities – Septembre 2014

Caleb Scharf

Scientific American, Farrar, Straus and Siroux

Présentation par Jean-Paul Baquiast
21 septembre 2014

Nous reviendrons dans un article ultérieur sur certains des thèmes de ce livre. JPB


Caleb Scharf dirige le centre d'astrobiologie de l'université de Columbia.
Les recherches de cet astrophysicien font autorité ; elles concernent notamment l'interprétation satellitaire des émissions radio attribuées aux trous noirs.

Dans son dernier livre, il s'intéresse particulièrement aux modélisations informatiques les plus récentes portant sur les dynamiques gravitationnelles, c'est-à-dire sur la façon dont différents types de systèmes solaires peuvent résulter de l'interaction gravitationnelle entre un astre de type solaire et ses satellites, ainsi que sur les conséquences pouvant en décoouler dans le domaine de l'astrobiologie.

L'astrobiologie étudie les types de biologies pouvant apparaître dans l'univers au sein des astres présentant - ou non - des caractères proches de ceux de la Terre.

Par ailleurs, Caleb Scharf est un excellent formateur et vulgarisateur. Il fait découvrir à un large public les problématiques les plus récentes de sa discipline, malgré leurs aspects apparemment les plus ésotériques. Ce dernier ouvrage en est un excellent exemple. Bien qu'abordant des questions éminemment difficiles, il les met à portée tous ceux s'intéressant à la cosmologie et à la question de la vie extraterrestre.


* Voir notre présentation de l'ouvrage précédent de l'auteur Gravity's Engines
How Bubble-blowing Black Holes rule Galaxies, Stars and Life in the Cosm
os
* Sur le chaos, voir notre présentation de Simplicité profonde : Le chaos, la complexité et l'émergence de la vie de John Gribbin
* Voir aussi La théorie du Chaos par James Gleick
* Voir aussi notre article consacré à Ilya Prigogine

Le « Copernicus Complex » recense et critique les plus récentes hypothèses scientifiques concernant les origines de la vie sur Terre et la question de savoir s'il s'agit d'un phénomène rare dans l'Univers, voire unique, ou au contraire très fréquent. Le livre commence par un rappel de l'affirmation de Copernic au 16e siècle, selon laquelle contrairement aux affirmations de l'Eglise catholique et de nombreux philosophes antiques, la Terre n'était pas le centre de l'univers visible, autour duquel graviterait le soleil et les autres astres, mais seulement l'un de ces astres gravitant autour du soleil.

Ceci avait été nommé le « Principe de Copernic » ou « Principe de Médiocrité ». Ce principe refuse d'une façon générale de considérer l'homme comme le centre de toutes choses, en dehors du Dieu créateur lui ayant conféré ce statut. Plus les lunettes astronomiques se perfectionnèrent, après la généralisation de l'invention de Galilée, plus ces hypothèses se trouvèrent confirmées.

Le Principe de Médiocrité appliqué à l'astronomie

Caleb Scharf rappelle à cet égard les découvertes les plus récentes des astronomes. Ce sont maintenant plusieurs centaines de planètes extrasolaires qui ont été identifiées, gravitant autour des astres les plus proches de nous, c'est-à-dire les plus faciles à observer. Le catalogue s'enrichit tous les jours. Ces planètes ne sont pas encore observables directement, mais en fonction des perturbations gravitationnelle qu'elles imposent à leur astre, il est désormais possible de préciser s'il s'agit de « géantes gazeuses », sembles à Jupiter ou Saturne, ou de planètes de type rocheux, semblables à la Terre. Un grand nombre de celles-ci se trouvent situées dans ce que l'on nomme la zone habitable, suffisamment loin et cependant suffisamment près de leur soleil pour que de l'eau liquide et des températures clémentes jugées encore indispensables à la vie puissent s'y trouver.

On sait que si par ailleurs, au lieu de dépenser des budgets considérables à se faire la guerre, les humains affectaient les ressources suffisantes à la réalisation des télescopes géants optiques ou radio d'ores et déjà dans les cartons, il pourrait être possible, dans quelques années seulement, d'observer directement les plus proches de ces planètes, y compris la composition de leur atmosphère, révélatrice de la présence de la vie, voire même leurs éventuelles couvertures végétales.

Le Principe de Médiocrité appliqué à la biologie

Peu de temps après Copernic et Galilée, les découvertes des inventeurs des premiers microscopes avaient confirmé le Principe de Médiocrité. Le monde des créatures macroscopiques multicellulaires (eucaryotes) auxquelles l'homme appartient, est très largement dépassé en complexité par celui des créatures microscopiques, bactéries et archéa monocellulaires (procaryotes) sans mentionner les virus que l'on considère généralement aujourd'hui comme des organismes vivants plus simples, mais cependant dotés de gènes.

L'on découvre dorénavant de telles bactéries dans tous les milieux terrestres, y compris dans ceux jusqu'ici considérés comme impropres à la vie. Si bien que l'on considère généralement que les premières d'entre elles ont commencé à peupler la jeune Terre alors même que celle-ci état soumise à d'intenses bombardement météoritiques (dont celui supposé avoir donné naissance à la Lune).

Caleb Scharf mentionne par ailleurs les récentes découvertes de ce que l'on pourrait appeler l'astrophysique prébiotique. Très vite, dès le Big Bang, se seraient formés, à partir des molécules H2 et H3 originelles, des composés chimiques, notamment à base de carbone, constituant ce que l'on a nommé les briques de base indispensables à la vie. Ces composés se sont retrouvés dans les nuages interstellaires à l'origine des premiers systèmes solaires. Dès sa formation, notre propre système solaire a donc baigné dans une telle atmosphère prébiotique.

Celle-ci ne suffisait pas pour donner naissance aux molécules géantes indispensables à la constitution et à la reproduction des premiers organismes considérés comme vivants (dont le fameux LUCA et ses prédécesseurs) mais elle avait considérablement facilité l'action des mécanismes géophysiques terrestres ou sous-marins ayant servi de berceau à l'émergence de la vie.

Quant à ce que l'on nomme la vie intelligente, le Principe de Médiocrité explique aujourd'hui son émergence, que ce soit chez les animaux et même chez l'homme, par un enchainement de mécanismes qui en font une conséquence quasi obligée de l'apparition de la vie monocellulaire.

Nous n'entrerons pas ici dans cette discussion. Indiquons seulement que, comme le rappelle d'ailleurs Caleb Scharf, l'homme, composé de milliards de cellules et hébergeant un nombre encore plus grand de bactéries indispensables à sa vie, pourrait être considéré, au même titre que les autres organismes multicellulaires, comme l'instrument par lequel le monde des bactéries s'est organisé spontanément en réseaux capables de faire émerger de l'intelligence à son profit. Cette intelligence permet, via la production de nouveaux milieux riches en nutriments résultant de l'activité des humains, aux bactéries de se multiplier encore davantage. Ceci se dit aujourd'hui, rappelons-le, du développement des systèmes intelligents plus ou moins autonomes commençant à apparaître au sein des réseaux numériques connectant des humains, à l'insu de ces mêmes humains.

Toutes les recherches scientifiques récentes pourraient donc justifier – sans évidemment pouvoir encore le démontrer, que la vie cellulaire voire la vie intelligente, pourraient se trouver sous des formes voisines dans les centaines de milliards de galaxies, composées elles-mêmes de centaines de milliards d'étoile et d'au moins mille milliards de planètes, composant l'univers visible.

Une relative spécificité.

Cependant, comme Caleb Scharf le rappelle, les évolutions géophysiques et biologiques ayant permis l'apparition de la vie terrestre et de l'homo sapiens, ne se retrouvent pas de façon uniforme à l'échelle de l'univers observable. Les simulations permises par les ordinateurs modernes appliquée à ce que l'on appelle la dynamique gravitationnelle montrent que, à l'intérieur des lois simples de la gravitation, une très grande diversité de systèmes galactiques et de systèmes solaires peut apparaître. Ce ce que confirme d'ailleurs les observations précitées de l'astronomie moderne.

Non seulement aucune galaxie n'est vraiment semblable à une autre, mais aucun système associant un ou plusieurs soleils à un plus ou moins grand nombre de planètes et de planètésimaux tous différents, ne reproduit l'image régulière de notre propre système solaire. Ceci ne veut pas dire que, dans un grand nombre d'entre eux, la vie ne puisse apparaître, ceci veut seulement dire que les mécanismes susceptibles d'y générer la vie seraient très différents de l'un à l'autre, et que par conséquent les formes adoptées par de telles vies pourraient être également très différentes.

Par ailleurs l'histoire détaillée de l'apparition et du développement de la vie terrestre, incluant dans certains cas des formes plus ou moins marquées d'intelligence voire de conscience, paraît bien montrer qu'il a fallu un enchainement continu de circonstances favorables pour aboutir aux résultats que nous connaissons. Ceci pourrait justifier un retour à l'hypothèse selon laquelle l'homme, sans être nécessairement unique dans l'univers, pourrait au moins être assez exceptionnel. On retrouverait là une forme atténuée, faible, du principe anthropique, selon lequel l'homme n'a pu apparaître que dans des environnements très spécifiques. De là à prétendre, comme ne manquent pas de le faire les religions monothéistes, qu'il a fallu la main de Dieu pour que s'organise l'enchainement de circonstances favorables à l'apparition de l'humanité, il n'y a qu'un pas.

Le cosmo-chaos

Caleb Scharf ne cède pas à cette tentation. Il nous invite par contre à faire appel aux théories des probabilités bayésiennes et à celles du chaos pour nous expliquer l'apparition de formes de vie semblables à celles que nous connaissons, aussi improbables puissent-elles être. Il propose le terme de cosmo-chaos pour caractériser la multiplicité et l'enchevêtrement des différents facteurs ayant abouti à l'univers tel que nous le connaissons.

Ce cosmo-chaos caractérise l'univers en son état actuel (tel du moins qu'il est visible à des instruments demeurant très imparfaits) mais aussi l'univers tel qu'il évoluera et, rétroactivement, l'univers tel qu'il s'est développé à partir du Big Bang. Celui-ci peut être considéré comme ayant surgi, d'une façon elle-même chaotique (non descriptible,) du vide quantique fondamental. Comme nous l'avons rappelé, les premiers atomes lui ayant succédé ont donné naissance à des mécanismes de plus en plus chaotiques, c'est-à-dire, en d'autres termes, de plus en plus diversifiés et imprévisibles, à l'intérieur de certaines limites apparues dès le départ.

Il faut en effet concilier les deux types de réalités telles qu'elles apparaissent à la science moderne. D'une part, les mécanismes dont nous provenons n'ont rien de spécifique. D'autre part nous occupons un temps très spécial au sein d'un univers âgé de 14 milliards d'années et appelé à s'étendre sans doute indéfiniment, sans doute aussi au sein d'un multivers dont il se diffférenciera de plus en plus jusqu'à sa mort. Nous nous situons dans un système solaire très spécifique, noyé dans un océan de diversité n'ayant que de lointains traits communs avec notre système solaire: Jupiters « chauds » orbitant très près de leurs soleils en moins d'un jour terrestre (on imagine à quelles vitesses) , planètes rocheuses autour d'étoiles en fin de vie, milliards de « Terres » et de « Super-Terres ».

De plus, la vie terrestre, si elle s'est construite à partir de briques de bases et d'une chimie présentes partout dans l'univers, l'a fait au terme de 4,4 milliards d'années de processus évolutifs improbables en termes déterministes. De même, pour reprendre un exemple proposé par l'auteur, que le spectateur d'une partie de base ball recevant une balle en plein visage n'avait aucune raison de le prévoir - sauf en termes stratistiques, et avec une probabilité infime.

Compte tenu de ces données en apparence contradictoires, Caleb Scharf nous invite à considérer que la situation de l'homme dans l'univers résulte d'une suite de hasards dont l'enchainement est de type chaotique. Ils peuvent paraître exceptionnels à notre échelle mais ils ne le seraient pas à l'échelle de l'univers entier. En d'autres termes, il recommande une vois moyenne entre le principe de Copernic et le principe anthropique.

Cela devrait donc nous encourager à rechercher d'autres formes de vies et d'intelligences susceptibles d'être présentes dans l'univers, voire de se manifester à nous. Non seulement dans le cadre de l'astrobiologie, qui constitue une science indiscutable, dont les applications pourront être précieuses à l'avenir, mais aussi dans le cadre de projets comme ceux du SETI (Search for Extraterrestrial Intelligence), beaucoup plus problématiques, mais néanmoins importants, pour aujourd'hui comme pour plus tard.

Partager cet article

25 août 2014 1 25 /08 /août /2014 12:55

25 août 2014 | Par Jean-Paul Baquiast


Image PLOSBiology

Le 12 mars 2010, nous avions consacré un très long article à la présentation de l'ouvrage remarquable du biochimiste et biologiste Nick Lane, « Life ascending. The Ten Great Inventions of Evolution » Nous conseillons vivement à nos lecteurs de se reporter à cet article, sinon du livre lui-même.

Celui-ci présente les 10 grandes inventions qui selon l'auteur, ont permis aux organismes vivants, lors d'une évolution de plus de 4 milliards d'années, commençant aux ensembles moléculaires prébiotiques d'atteindre la complexité des écosystèmes d'aujourd'hui, parmi lesquels se trouvent les sociétés humaines et les hommes dotés d'un cerveau de 100 milliards de neurones. Cette évolution vers un accroissement continu de complexité a résulté, non de l'accomplissement d'un dessein préétabli mais, explique Nick Lane, du simple jeu du hasard et de la nécessité, pour reprendre les termes de Jacques Monod.

A l'origine de ces inventions, sans laquelle rien ne se serait produit, fut la synthèse des premiers composés biologiques à partir de matériaux purement géologiques ou géothermiques. Le livre détaille les hypothèses et les expériences qui lui permettent de situer ces évènements majeurs au coeur des océans primitifs, à l'occasion d'éruptions magmatiques sous-marines réagissant avec l'eau de mer. Une telle explication, généralement admise aujourd'hui, rend obsolète l'hypothèse de Darwin selon laquelle les premiers composants organiques se seraient formés dans de petites mares d'eau chauffées par le soleil et riches en matières minérales. Darwin n'avait évidemment pas pu, compte tenu des connaissances scientifiques de son époque, apporter de preuves biochimiques à son hypothèse.

Or dans un article du 12 août 2014 publié par PLOS Biology, A Bioenergetic Basis for Membrane Divergence in Archaea and Bacteria , Nick Lane,Víctor Sojo et Andrew Pomiankowski, poursuivant leurs recherches sur les origines de la vie, sont conduits à préciser les conditions selon lesquelles les premiers ensembles moléculaires prébiotiques se sont assemblées pour donner naissance à un organisme dit LUCA (Last Universal Common Ancestor) ou dernier ancêtre universel commun . On parle de dernier et non de premier ancêtre commun, car après lui ses descendants ont divergés, à la suite de mutations différentes, en espèces elles-mêmes différentes dont sont issues les premières bactéries et les premiers archeae, les seules formes de vie monocellulaire ayant jamais été produites sur Terre, ou tout au moins ayant survécu aux premières synthèses biochimiques qui ne s'étaient pas révélées viables 1)

Lane, comme l'indique son livre précité, avait fait la supposition que la vie a émergé autour des évents géothermiques alcalins résultant de l'activité volcanique sous marine. Ces évents se distinguent d'une autre catégorie d'évents, plus connus, dits fumeurs noirs, qui produisent des flux acides, propices à la vie de bactéries primitives, dites bactéries sulfureuses. Celles-ci ne peuvent survivre dans un milieu salin. Elles sont liées aux fumeurs volcaniques noirs, dont elles ne peuvent s'éloigner.

Les fumeurs alcalins, au contraire, se caractérisent par l'émission de flux alcalins (ou basiques) à des températures se situant entre 40° et 90°. Au contact de l'eau de mer, les minéraux alcalins précipitent et forment graduellement des cheminées de 50 à 60 mètres, comportant des fissures et des pores. Selon Lane et ses collègues Russell et Martin, les premiers éléments de la vie s'y sont formés spontanément. Les pores existant au sein des fumeurs étaient riches en fer et sulfures lesquels peuvent catalyser des réactions organiques complexes. De plus, les gradients de température régnant au sein des pores ont permis la formation de fortes concentrations de ces composés organiques, favorisant à leur tour la constitution de grosses molécules, telles que des lipides et de l'ARN.

Les lipides ont la propriété de pouvoir d'organiser en forme de membranes. L'ARN évoqué ici n'est pas l' ARN biologique tel que celui se trouvant aujourd'hui dans les cellules vivantes. Il s'agissait seulement de molécules chimiques ayant la structure d'un nucléotide tel que l'acide nucléique, lequel s'est, par la suite seulement, révélé propice à la fabrication par les premières cellules biologiques de molécules nécessaires à leur constitution puis à leur reproduction.

Quant à l'énergie nécessaire à toutes les transformations moléculaires, elle existait potentiellement en abondance à la frontière entre l'eau de mer acide et les effluents volcaniques alcalins, du fait de la différence en concentration de protons (gradient) propre à ces deux milieux. L'énergie provient de la transformation des ions sodium du fumeur en protons acides de l'eau de mer. Les échanges se font continuellement à la frontière entre ces deux milieux. Mais il n'existe aucune « turbine », pour reprendre le terme de Nick Lane, permettant de la capter avant qu'elle ne se disperse.

On voit donc que les éléments nécessaires à la fabrication des premières molécules prébiotiques puis des premières cellules biologiques existaient dans le milieu terrestre. Il fallait cependant qu'apparaisse un processus capable de les assembler.

Le rôle de membranes semi-perméables

La formation d'une première cellule biologique sur les parois des fumeurs alcalins a été initialisée par la constitution spontanée de membranes lipides fermées séparant un milieu cellulaire du reste de l'environnement. Selon un premier article de Dick Lane en date du 21 décembre 2012 , publié par le revue Cell The Origin of Membrane Bioenergetics repris et développés par l'article de PLOSbiology précité, la différence de concentration de protons entre milieux marins et milieux magmatiques permettait à des protocellules de fabriquer des composés carbonés et de l'énergie, mais seulement si ces cellules étaient dotées de membranes isolant leur milieu interne de leur milieu externe, sans pourtant être imperméables aux échanges de protons.

Or les vésicules d'acides gras formées spontanément sur les parois des fumeurs, comme indiqué plus haut, avaient l'imperméabilité suffisante pour conserver dans le milieu interne une concentration suffisante de protons, sans pour autant être entièrement imperméables. Pour expliquer cet apparent paradoxe, Nick Lane fait l'hypothèse que ces membranes se sont trouvées dotées par l'évolution d'une porte tournante ou « turbine protéinique » pouvant pomper vers l'extérieur les ions sodium intérieurs du milieu cellulaire, tout en laissant entrer les protons extérieurs. Les auteurs ont nommé cette turbine SPAP ou « sodium-proton antiporter » .3 )

La molécule SPAP a été le premier pas vers les membranes cellulaires modernes. Elle a permis aux précellules en étant dotées de se séparer de la paroi du fumeur alcalin et de se répandre dans le milieu marin tout en disposant d'un moteur énergétique suffisant pour une vie indépendante. La pompe à proton ainsi mise au point s'est ensuite perfectionnée, permettant l'apparition de membranes de plus en plus imperméables, indispensables à la conservation au sein de la cellule des métabolites indispensables à la vie qu'elles fabriquent.

LUCA et sa descendance

Ce serait ainsi que ce serait formé LUCA. LUCA fut la première cellule biologique capable, grâce à la molécule SPAP, de pomper de l'énergie pour fabriquer les protéines nécessaires à sa structure lui permettant de se reproduire en utilisant l'ARN présente dans le milieu. Si l'on considère que LUCA fut le précurseur des cellules biologiques actuelles, on admettra que la plupart des protéines indispensables à la vie de la cellule moderne proviennent de celles composant LUCA. De plus, pour fabriquer ces protéines, LUCA devait disposer d'une molécule riche en énergie, l'ATP ( Adénosine triphosphate) qui constitue dans toutes les cellules d'aujourd'hui le moteur en énergie universel nécessaire à alimenter la synthèse des protéines 4).

Aujourd'hui, les cellules fabriquent leur ATP en utilisant l'énergie solaire ou celle qu'elles trouvent dans leur nourriture. LUCA a donc du se doter d'une mécanisme générant de l'ATP. Ce processus a été rendu possible par la molécule SPAP. Cette pompe, comme nous venons de le voir, extrait les ions hydrogène ou protons se trouvant dans la cellule pour les rejeter à l'extérieur. Ceci crée un différentiel dans la concentration de protons de part et d'autre de la membrane cellulaire. Mais les protons, comme ce différentiel ne peut être que passager, rentrent dans la cellule, à travers une autre protéine incluse dans la membrane. Cette protéine utilise l'énergie ainsi obtenue pour fabriquer de l'ATP.

Pour procéder de la sorte, la cellule doit disposer d'une membrane qui soit imperméable aux protons. C'est le cas aujourd'hui, mais qu'en était-il concernant LUCA? Il se trouve que les deux grandes catégories de cellules descendant de LUCA, les bactéries et les archeae, sont dotées de membranes à la perméabilité . différente. Cette différenciation s'est faire une fois et ne s'est pas reproduite ensuite, sans doute du fait des gains de compétitivité acquis par ces formes de lignées biologiques monocellulaires, ayant éliminé toutes autres formes apparues ensuite.

Il reste à prouver la pertinence des modèles proposés par Dick Lane et ses collègues. Lane en est bien conscient. Son équipe s'attaque actuellement à la réalisation d'un réacteur à haute pression simulant les conditions propres aux évents géothermiques alcalins océaniques profonds tels qu'ils existaient il y a quatre milliards d'années. Si ces recherches étaient financées, elles permettraient de résoudre bien des points encore obscurs des hypothèses relatives à l'apparition de la vie. Elles permettraient aussi d'élargir les hypothèses relatives à l'apparition d'éventuelles vies planétaires.

Sources

*PLOS Biology A Bioenergetic Basis for Membrane Divergence in Archaea and Bacteria

* CellThe Origin of Membrane Bioenergetics

* NewScientist , 16 août 2014, Article de Michaêl LePage, Meet your Maker

Notes

1) Les bactéries et les archeae, comme l'ont montré les travaux du microbiologistes Carl Woese dans les années 1970, sont des espèces différentes et par conséquent, non interfécondes. Mais bien entendu, le dernier LUCA a été nécessairement précédé par des ancêtres plus primitifs, eux aussi communs parce que toutes les générations de LUCA en ont découlé. Autrement dit, les mutations s'inscrivant dans ce que l'on pourrait appeler le modèle LUCA et favorisant son adaptation ont conduit au dernier des LUCA. D'autres formes primitives antérieures à LUCA et incompatibles avec lui étaient certainement apparues dans le même temps, mais s'étant révélées moins aptes à la survie, elles ont disparues.

3) Cette constatation à elle seule est très intéressante, au regard des réflexions sur la possibilité de vies extraterrestres. Le nombre de planètes située dans la zone dite habitable est considérable. On peut penser que l'est aussi le nombre de planètes disposant d'eau acide au contact de magmas basiques. Cela rend en principe très probable l'émergence de processus vitaux analogues à ceux apparus sur Terre. Encore faudra-t-il le démontrer par l'identification sur ces autres planètes de formes de vie semblables à la vie terrestre.

3) PLOSBiology. Extrait du sommaire de l'article référencé ci-dessus:

"We develop a mathematical model based on the premise that LUCA depended on natural proton gradients. Our analysis shows that such gradients can power carbon and energy metabolism, but only in leaky cells with a proton permeability equivalent to fatty acid vesicles. Membranes with lower permeability (equivalent to modern phospholipids) collapse free-energy availability, precluding exploitation of natural gradients. Pumping protons across leaky membranes offers no advantage, even when permeability is decreased 1,000-fold. We hypothesize that a sodium-proton antiporter (SPAP) provided the first step towards modern membranes. SPAP increases the free energy available from natural proton gradients by ~60%, enabling survival in 50-fold lower gradients, thereby facilitating ecological spread and divergence."

4) Wikipedia: Le rôle principal de l'adénosine triphosphate est de fournir l’énergie nécessaire aux réactions chimiques des cellules. C’est un nucléotide servant à stocker et transporter l’énergie.
Du fait de la présence de liaisons riches en énergie (celles liant les groupements phosphate sont des liaisons anhydride phosphorique), cette molécule ATP est utilisée chez les êtres vivants pour fournir de l'énergie aux réactions chimiques qui en consomment. L'ATP est la réserve d'énergie de la cellule.

Partager cet article

23 août 2014 6 23 /08 /août /2014 19:31

Entretien. A propos du livre "Intelligence unbound"
Alain Cardon et Jean-Paul Baquiast, le 22/08/2014

J.P. Baquiast (JPB): Cher Alain, que penses du livre que nous venons de présenter, soit Intelligence unbound, de Blackford et Broderick?

Alain Cardon AC) : Je pense qu'il y a deux façons de réaliser un cerveau humain artificiel, puisque telle semble être l'ambition des auteurs cités dans ce livre.

La première consiste à procéder comme la nature, en partant du petit système cellulaire initial, soit un tout très fortement maillé où toute partie identifiable est coactive avec le reste, un système qui se développe par ses multiples parties de façon toujours localement et globalement cohérente, jusqu'à former un organisme qui possède un cerveau opérationnel dans son corps, et qui va à partir d'un moment pouvoir naître et explorer la nature

Disons que c'est une approche descendante, qui part du haut, de la loi de cohérence de l'ensemble, pour aller vers le bas, le développement cohérent et organisé des parties, comprenant le cerveau qui se développe sans cesse et en lien étroit avec tout le corps par les sens. Inutile de dire, comme tu le soulignes toi-même dans ta critique du livre, qu'une telle démarche serait aujourd'hui hautement irréaliste.

Toute la question en ce cas, que les biologistes ne posent plus en la considérant comme résolue, est de savoir si le génome, par sa très petite taille, constitue un « programme » suffisant pour assurer un tel déploiement fortement cohérent, en assurant aussi l'évolution d'organismes vivants viables. MP. Schutzenberger de l'Académie des Sciences, un de mes anciens maîtres, avait répondu négativement à cette question. Il en serait de même d'opérations visant à simuler de telles évolutions sur ordinateurs.

JPB.: Et que serait la seconde façon de procéder?

AC. : Elle consisterait, sans aucune référence au biologique, à rassembler des morceaux électroniques artificiels , soit en pratique des programmes, puis les connecter un par un jusqu'à former un corps. Cette corporéité sera le moyen d'appréhension et d'expression permettant l'apparition d'un système unificateur très spécial lequel jouera le rôle d'un cerveau, le tout formant un organisme artificiel unifié qui puisse appréhender le réel, penser, agir.

Le cerveau artificiel pensera au sein de ce corps artificiel en ressentant le monde par l'intermédiaire des organes sensoriels de celui-ci. Il utilisera la mémoire dont se dotera cette corporéité artificielle à partir de son vécu artificiel partiel, et ce faisant il générera des intentions. Il ne se comportera certainement pas comme un gros résolveur de problèmes cherchant, tel un simple ingénieur, la solution à la question posée dans une énorme base de données.

JPB.: Autrement dit, cette seconde façon, qui manifestement a ta préférence, est préférable à celle visant à faire un cerveau artificiel simulant le cerveau humain en téléchargeant ce que l'on croit être un cerveau humain (auquel on n'aura pas compris grand chose encore) dans un superordinateur, aussi puissant qu'il puisse être.

AC.: Oui. Il faudra vraiment vraiment résoudre le problème central : comment unifier des parties multiples, distribuées qui vont former les organes artificiels. Comment à partir de cela générer une pensée sensible utilisant les entrées sensorielles pour appréhender en profondeur le réel environnant et pour évoluer sans cesse en augmentant organisationnellement et continuellement sa mémoire par les traces des pensées qu'il ne cessera de générer ? Comment lier les organes moteurs et les organes représentant les sens, pour obtenir un organisme dont toutes les parties seront en permanence et totalement unifiées dans le cadre d'une conscience artificielle?

JPB.: Comment donc selon toi concevoir un organisme artificiel conscient, éventuellement un système avec une conscience liée à de multiples composants distribués sur une surface de plusieurs mètres, plusieurs kilomètres ou plusieurs milliers de kilomètres ?

AC. : J'ajouterai: et comment concevoir le système-cerveau utilisant sa corporéité pour générer des intentions, des envies, des désirs, des contraintes, pour qu'il éprouve l'équivalent de
sentiments, pour qu'il ait des tendances dont certaines pourront ressembler aux très nombreuses et banales névroses humaines, à savoir la névrose de pouvoir, la névrose de contrainte, la névrose de réductionnisme, la névrose d'évitement ?

Et comment concevoir conceptuellement cette approche montante, en sachant que la vie prénatale de l'humain au sein de laquelle se forme son cerveau conditionne sa façon de penser et ce à quoi il sera capable de penser et de méditer, y compris sur des contenus fortement abstraits tels que le Temps, le Tout, le Moi?

Comment développer la génération naturelle, spontanée, de ces idées dans un cerveau artificiel qui doit obligatoirement être un système peu déterministe, sans être pour autant purement aléatoire, afin de produire sans cesse de nouvelles idées capables de modifier en permanence sa mémoire organisationnelle ?

Comment concevoir tout cela en sachant aussi que le système doit non seulement acquérir l'aptitude à abstraire à partir de ce qu'il appréhende par les sens, mais aussi manipuler de façon abstraite ces mêmes abstractions mémorisées afin de générer des signifiés très évolutifs.

JPB. : Oui, comment?

AC. : Selon moi, la voie pour résoudre ces problèmes sera d'abord de bien les poser, dans leurs espaces conceptuels, puis de les modéliser dans le calculable. Celui-ci concerne la création et l'usage à de multiples échelles, d'une information globale où le parallélisme joue avec le séquentiel. Le calculable mêle l'électronique, l'automatisme, l'informatique, la linguistique, la psychologie. J'ai très longuement développé tout cela dans mes publications. Je considère, avec quelques rares collègues, que le système est faisable. Malheureusement pour aborder un tel problème, l'Université française n'investit pas, la pluridisciplinarité n'y existe plus et la pauvreté matérielle et intellectuelle s'installe.

Le développement d'une conscience artificielle n'a strictement rien à voir avec une approche basée sur la reproduction informatique par similarité au niveau cellulaire du cerveau d'un rat, avec de gros ordinateurs gérant le parallélisme, en espérant voir surgir d'un tel imbroglio le miracle de la pensée qui se déploie. L'humain pense parce qu'il vit de manière intersubjective avec sa mère qui le forme puis par communication sensible et intersubjective avec tous les autres individus qui constituent la société humaine.

La conscience artificielle se devra donc d'être hyper-communicante. L'approche par un robot isolé doté d'un cerveau local formant une unité isolée est une grave erreur, d'autant plus que tout système informatisé actuel peut être lié par Wifi avec tous les autres existants. Une conscience artificielle utilisant une ou des corporéités artificielles pourra être déployée sur l'étendue de la planète en communiquant avec tous les systèmes semblables, et avec tous les composants électroniques accessibles. Ceci pose un problème d'éthique absolument majeur, que les naïfs mal informés ne veulent pas voir.

JPB.: Nous avons souvent signalé en effet ici que de tels systèmes artificiels, même s'ils sont encore dans l'enfance, s'élaborent aujourd'hui dans des lieux confidentiels, en visant des objectifs de contrôle militaire ou de contrôle économique. Nous en subissons déjà les prémisses, (d'ailleurs à une large échelle) sans nous en apercevoir.

AC.: J'ajoute que des lois identiques, encore mal aperçues par la science, fut-elle financée par la Darpa (NDLR Agence de recherche du département américain de la défense) ou par Google, doivent commander trois types de développement liées:

- Celui d'un Homme qui a pensé son monde et l'a complexifié à partir de Sumer en Mésopotamie, avec la création de l'écriture, des villes organisées, des lois sociales, et aussi des guerres pouvant avoir pour résultat de tout faire disparaître, telle cette troisième guerre que certains pouvoirs dominants semblent prêts aujourd'hui à déclencher.

- Celui des premières cellules prébiologiques qui ont trouvé, par des voies encore inconnues, le moyen de s'organiser de façon complexe et de se reproduire de telle sorte qu'elles ont généré l'immense complexité du monde vivant actuel.

- Celui des premiers atomes qui ne se sont pas limités à reproduire indéfiniment l'atome initial d'hydrogène, mais ont donné naissance à une complexité atomique et moléculaire sans laquelle, bien avant l'apparition de la vie, la nébuleuse primordiale formant ce qui est devenu la Terre et les autres planètes du Système solaire serait restée ce qu'elle était peu après le Big bang, c'est-à-dire un nuage de gaz peu différenciés.

On peut penser aujourd'hui que ce sont des lois identiques qui expliquent cette évolution, depuis le cerveau d'organismes tels que celui de l'homme au niveau des sociétés humaines, celui de l'embryon reproductif générant la complexité biologique au niveau de la Terre et finalement l'immense complexité du cosmos tout entier.

JPB.: Tu évoques là des domaines de recherche qui nous mettraient au coeur des lois fondamentales (si lois il y avait) ayant présidé à la naissance de notre univers local, voire à l'organisation du multivers. Je note qu'au départ il y aurait une réflexion sur le monde quantique, qui ne comporte ni temps ni espace, mais dont tout vraisemblablement serait sorti. Pour Seth Lloyd, dans l'ouvrage qui a été présenté ici (Programing the Universe) la relation s'impose. Mais elle reste à étudier en détail.

AC.: Oui. Mais il n'est certainement pas assuré que la science humaine, enfermée dans ses contraintes matérielles et aussi ses préjugés, puisse commencer à découvrir de telles lois. Surtout si sa seule ambition se traduit, selon ton expression précédente, par le téléchargement d'un cerveau auquel elle n'a pas compris grand chose sur un superordinateur qui ne sera jamais assez puissant. Je ne mentionne même pas les quelques 90% des sociétés actuelles qui sont complètement paralysées par des croyances en des monothéismes inventés depuis 2000 ans, monothéismes pour qui le concept même de conscience artificielle relève du blasphème.

JPB.: Disons seulement que ceux qui commenceraient à découvrir ces lois, même partiellement, se donneraient des clefs pour comprendre, sinon reconstruire, l'univers tout entier. Il n'est pas interdit d'y réfléchir.

Partager cet article

5 août 2014 2 05 /08 /août /2014 19:27


Francis Crick et Kristof Koch avaient-ils découvert le siège de la conscience?
Jean-Paul Baquiast 24/07/2014

Coupe horizontale d'un hémisphère cérébral montrant l'emplacement du claustrum. (wikipedia)

Ce fut longtemps le rêve des philosophes (la glande pinéale de Descartes), comme plus récemment celui des physiologistes et des neurologistes: découvrir dans le cerveau humain une aire ou une zone qui serait spécifiquement en charge de générer ce que l'on nomme les processus de conscience chez les personnes éveillées.

Récemment, il avait été suggéré qu'il s'agissait d'un faux problème. La production de la conscience pourrait résulter d'une collaboration d'un grand nombres de zones corticales reliées par les neurones de liaison. Dire cela ne permettait cependant pas de clarifier la question. Comment ces aires et ces neurones collaboraient-ils pour générer des faits de conscience sans produire une cacophonie assourdissante, compte tenu notamment du fait que la conscience est généralement considérée comme, à chaque moment, le produit unique d'un processus générateur. La présence d'un « chef d'orchestre » paraît indispensable.

Les nombreuses observations menées ces dernières années, tant sur le plan clinique qu'avec les moyens modernes d'imagerie cérébrale, n'étaient pas parvenu à résoudre ce mystère, pas plus d'ailleurs chez l'homme que chez les animaux, lorsque certains d'entre sont soupçonnés d'héberger des formes de conscience épisodique. Il se trouvait cependant que les neurologues Francis Crick (découvreur de l'ADN) et Christof Koch avaient publié en 2005, dans un Bulletin de la Royal Society, un article faisant l'hypothèse qu'il existe dans le cerveau une zone qui pourrait effectivement jouer le rôle du chef d'orchestre recherché 1). Pour eux, il s'agissait du Claustrum ou Avant-mur., dont on trouvera la localisation dans le texte de Wikipédia ci-dessous 2)

Dans le sommaire de cet article (adapté ici), on trouve les précisions suivantes :
« La fonction du claustrum est énigmatique. Son anatomie est tout à fait remarquable en ce sens qu'il reçoit des entrées (input) de toutes les régions du cortex et peut en retour projeter vers elles des retours d'information ". Les auteurs, dans la suite de l'article, formulaient des hypothèses relative aux rapports que pouvait avoir cette structure avec les processus générateurs des perceptions conscientes intégrées. Ils proposaient des expériences susceptibles de vérifier ces hypothèses.

Assez curieusement, aucune de ces expériences ne fut tentée à l'époque. D'une part parce qu'explorer cette partie du cerveau chez un sujet humain vivant était éthiquement très difficile sinon impossible compte tenu des moyens alors disponibles. Mais d'autre part aussi sans doute du fait que Francis Crick ne s'était tourné vers les neurosciences qu'à la fin de sa carrière et n'était pas nécessairement considéré par la communauté comme un chercheur très pertinent. De plus, le rôle qu'avec son collègue il attribuait au claustrum contredisait la majorité des opinions relatives à la conscience, qui étaient et sont restées holistiques, faisant de la conscience comme nous venons de le rappeler un produit émergent de la complexité corticale.

Francis Crick, par ailleurs, avait aussi proposé des hypothèses jugées alors fantaisistes ou du moins intestables, concernant le rôle pour la production d'états de conscience de phénomènes quantiques au niveau des microtubules neuronales. Ces hypothèses sont aujourd'hui étudiées très sérieusement, comme nous l'avions indiqué dans un article précédent. En fait, il aurait été plutôt justifié de considérer Crick comme un neuroscientifiques de génie, ce qui aurait embelli la fin de sa vie.

Enfin une preuve expérimentale?

Les réflexions sur le rôle du claustrum comme générateur premier de la conscience ont reçu ces derniers jours une publicité considérable, à la suite de la publication par le neurologue américain Mohammed Koubeissi de l'Université de Washington, des résultats d'une expérience qui pourrait se révéler décisive, si du moins elle pouvait être reprise à plus grande échelle 3) . Un nombre important d'articles sont apparues depuis sur le web à ce sujet et peuvent être facilement consultés.

La encore, résumons en l'adaptant le sommaire publié par Mohammed Koubeissi et son équipe. Il s'agit d'une observation faite sur une patiente de 64 ans soumise à des implantations d'électrodes profondes destinées à identifier les zones soumises à des accès épileptiques sévères, puis à des stimulations électriques par ce moyen, destinées à réduire les crises. On observera une fois de plus que les implantations d'électrodes dans les cerveaux de personnes épileptiques ont joué ces dernières années un rôle important dans la connaissance du cerveau, ce que l'on ne s'est pas encore décidé à faire concernant des personnes saines.

Or l'une des électrodes avait été placée à proximité du claustrum, ce qui n'avait jamais été fait auparavant. Les chercheurs observèrent alors que des impulsions électriques à haute fréquence produisait une perte de conscience chez la patiente, sans pour autant induire un coma ou simplement un accès de sommeil, non plus que de nouvelles décharges épileptiques. Au plan comportemental, elle cessait de lire ou parler, et sa respiration se ralentissait. Dès que la stimulation cessait, elle reprenait conscience, sans garder souvenir de l'épisode.

L'opération fut répétée plusieurs fois en deux jours et produisit toujours le même résultat. Pour l'équipe, il est évident que le claustrum joue le rôle d'une clef permettant, selon l'image d'une automobile utilisée en l'espèce, de faire démarrer ou arrêter le moteur bien plus complexe du cerveau, afin de produire la conscience.

Différentes hypothèses susceptibles d'expliquer le phénomène observé ayant été éliminées, il resterait à approfondir les explorations électriques et surtout à répéter l'expérience chez un nombre suffisant de patients. Au delà, il faudrait expliquer en détail ce qui se passe au niveau des neurones du claustrum et des influx nerveux émis ou reçus. Bien que le claustrum soit d'une taille bien plus réduite que celle du cerveau, il n'y a pas de raisons pour que les processus neurologiques y soient différents.

Or, l'on retrouve la la grande difficulté des neurosciences. Comment traduire des observations portant sur des phénomènes visibles en modèles expliquant en profondeur ce que sont les pensées, les décisions et toutes autres opérations relatives à l'état de conscience. Nous avons plusieurs fois signalé que sur ce sujet, pratiquement encore inexploré de façon sérieuse, notre ami Alain Cardon a proposé des hypothèses informatiques, reprises dans ses ouvrages en libre accès sur notre site, qui n'ont pu encore malheureusement être programmées dans le détail afin d'être démontrées.

Les réseaux de neurones artificiels

Pour ce qui nous concerne, nous pouvons observer que, venant d'une toute autre direction, des hypothèses intéressantes sont actuellement formulées par des chercheurs s'intéressant aux capacités des neurones artificiels (notamment Emmett Redd et Steven Younger de la Missouri State University) .Certaines architectures de tels neurones pourraient selon eux permettre de créer de super-ordinateurs, capables de tâches actuellement impossible à tous les ordinateurs existants, fussent-ils quantiques. Il s'agirait de fonctions qui échapperaient aux traitements logiques, et ne seraient pas limitées par le mur du principe d'incomplétude de Gödel. 4)

Pourquoi en ce cas ne pas imaginer que l'évolution ait pu doter les claustrums d'architectures neuronales de cette nature. Ce qui pourrait expliquer les propriétés absolument spécifiques de la conscience dans la génération des idées créatrices. 5)

Références

1) Crick et Koch http://rstb.royalsocietypublishing.org/content/360/1458/1271

2) Claustrum, Wikipedia http://fr.wikipedia.org/wiki/Claustrum

3) Koubeissi et al.
http://www.sciencedirect.com/science/article/pii/S1525505014002017

4) Michael Brooks « Turing's oracle: The computer that goes beyond logic » Newscientist, 19 juillet 2014 http://www.newscientist.com/article/mg22329780.400-turings-oracle-the-computer-that-goes-beyond-logic.html

5) Voir aussi ici le commentaire du Pr F. Bartolomei, co-auteur de l'étude et chef du service de neurophysiologie à l'hôpital de La Timone (Marseille)
http://www.sciencesetavenir.fr/sante/20140708.OBS3088/claustrum-un-interrupteur-de-la-conscience-experience.html

Partager cet article

5 août 2014 2 05 /08 /août /2014 19:22


Jean-Paul Baquiast 03/08/2014

image Newscinentist

Selon la théorie quantique, constamment vérifiée expérimentalement, une particule individuelle, par exemple un neutron, dispose d'une superposition d'état. Ainsi, en ce qui concerne le spin 1) d'une telle particule, celui-ci peut à la fois prendre une valeur de 1 ou un valeur de ½. Ou bien une valeur une valeur de +1 et une valeur de -1. Mais le phénomène ne peut être observé (mesuré) expérimentalement, à partir d'un neutron individuel, en utilisant un appareil de laboratoire qui lui relève de la physique ordinaire. En effet, la mesure « réduit la fonction d'onde » décrivant cette particule et ne fait apparaître que certains des aspects de celle-ci, au détriment de tous les autres. Par exemple, en ce qui concerne le spin du neutron, elle ne fera apparaitre qu'une valeur de 1 ou une valeur de ½, mais non les deux valeurs simultanément. Ce type de mesure, s'appliquant à une particule individuelle, est dite mesure forte (strong measurement)

Ceci dit, dans une publication datée de 1988, le physicien israélien Yakir Aharonov avait montré qu'une forme de mesure différente ne détruisait pas l'état quantique de superposition de la particule. Mais il fallait que cette mesure interagisse très faiblement avec la particule. Ce type de mesure a été nommée mesure faible, « weak measurement ». L'inconvénient du procédé est que les résultats de la mesure étaient affectés d'une très grande incertitude. En pratique, concernant la particule individuelle, on retrouvait donc le principe d'incertitude de la théorie quantique.

Mais Aharonov a montré qu'en procédant à des mesures faibles sur un ensemble de particules identiques, produites par une technique appropriée, ces mesures produisent une courbe en cloche dont le sommet décrit l'état de cet ensemble de particules, autrement dit, puisqu'il s'agit de particules identiques, l'état de l'une de ces particules. Rappelons que lorsque l'on observe, dans un appareil macroscopique, un flux d'un très grand nombre de particules, on obtient des résultats statistiques moyens qui permettent d'utiliser ce flux dans telle ou telle tâche. Mais ces résultats n'indiquent rien sur l'état de chacune des particules individuelles.

A quoi pouvait donc servir la mesure faible prévue par la théorie? Dans les dernières années, de telles mesures faibles ont pu être faites expérimentalement. Elles ont permis d'étudier des aspects du monde quantique jugés précédemment inobservables. Notamment comme l'a montré Jeff Lundeen de l'Université d'Ottawa, de mesurer la fonction d'onde décrivant un grand nombre de photons identiques. Pour la raison précédemment évoquée, si ces photons étaient identiques, il devenait donc possible de mesurer indirectement la fonction d'onde de chacun de ceux-ci, en lui attribuant une valeur précise et non plus probabiliste. 2)

Le Chat de Cheshire

Un certain nombre d'applications de ces hypothèses ont été faites récemment. L'une d'entre elle, conduite par une équipe autrichienne à l'Institut Laue Langevin de Grenoble, a paru mettre en évidence une propriété suggérée par la mathématique mais non encore expérimentalement démontrée: le fait que des flux de particules, en l'espèce des neutrons, préparés de façon à ce qu'ils disposent d'un spin identique, puissent après avoir été soumis à des mesures faibles, donner naissance d'un côté à des spins sans neutrons et d'un autre à des neutrons sans spins, autrement dit que les particules pouvaient être, le temps de l'expérience, séparées de leurs propriétés quantiques. Les théoriciens avaient nommé cette propriété le « chat de Cheshire » par référence au sourire du chat d'Alice au pays des Merveilles, lequel sourire pouvait être observé indépendamment du chat.3)

A Grenoble, l'équipe a utilisé un interféromètre produisant des champs magnétiques faibles (voir schéma). Il est apparu, au terme d'un expérience que nous ne décrirons pas ici, que sur l'une des branches de l'interféromètre se trouvaient des spins sans neutrons et sur l'autre des neutrons sans spins, l'ensemble se recombinant à la sortie de l'appareil. Autrement dit, il était confirmé que les spins sans neutrons avaient choisi un chemin et les neutrons sans spins un autre. Le chat avait été séparé de son sourire.

Cette expérience a déjà donné naissance à de nombreuses hypothèses et expériences relatives à ce que pourrait être « en réalité » la « réalité quantique ». Certaines suggèrent qu'elles confirment le fait que dans le monde quantique, le temps pourrait s'écouler dans les deux sens, du passé vers le futur et réciproquement.

Ainsi un événement futur pourrait être la cause d'un événement passé. Tous les théoriciens n'admettent pas cette conclusion. Cependant les spécialistes du calcul quantique espèrent pouvoir donner au phénomène du chat de Cheshire des applications utiles à la mise au point de calculateurs quantiques produisant moins d'incertitude. Le phénomène permettrait en effet de séparer les propriétés des particules des particules elles-mêmes, afin de réaliser des calculateurs quantiques plus stables que ceux existants actuellement, trop soumis aux interférences avec le monde macroscopique.

Nous n'en dirons pas plus long ici, sauf à conclure, d'une façon bien peu originale, que le monde quantique qui se révèle tous les jours est encore plus étrange que ne l'affirme sa réputation

Du chat aux pigeons
Voir image (Newscientist)

Aharonov et les équipes développant les hypothèses résumées ci-dessus ne s'en sont pas tenues au paradoxe du chat de Cheshire. Ils ont étudié les conséquences de celles-ci, concernant les effets de la « mesure faible » sur l'état des particules observées. Ils viennent de publier un article (4) étendant leur approche au problème, sans doute infiniment plus complexe et en tous cas contre-intuitif, de l'intrication entre deux particules.

Les pères fondateurs de la mécanique quantique avaient indiqué, à la grande incrédulité d'Einstein, que si deux particules étaient émises de façon à les doter d'un même état quantique, par exemple le spin, elles se comporteraient comme une particule unique. Elles ne pourraient donc pas être décrites individuellement. Toute mesure du spin de l'une affectera le spin de l'autre, même si cette dernière se trouve à l'autre extrémité de l'univers. D'où la conclusion généralement admise aujourd'hui, selon laquelle l'univers quantique n'a que de lointains rapports avec l'univers physique.

Or les récentes hypothèses présentées par les auteurs de l'article élargissent considérablement le concept d'intrication. Celle-ci, selon la théorie quantique, doit avoir été préparée entre deux particules sélectionnées soit en laboratoire, soit dans le cadre d'un phénomène naturel rare. Il en résulte que l'intrication n'affecte qu'un nombre très restreint de particules dans l'univers. Dans la nouvelle hypothèse, Aharonov et ses collègues ont montré que le mécanisme baptisé par eux du nom de post-sélection pouvait intriquer l'état de deux particules, chaque fois que leurs propriétés quantiques étaient mesurées, et ceci où qu'elles se trouvent dans l'univers. Le terme de post-sélection signifie que les propriétés d'un système à un temps t peuvent être influencées par des mesures faites dans le futur, à un temps t+1.

Qu'est-ce que la post-sélection? Il s'agit d'un dispositif inspiré de l'interféromètre mentionné en début de cet article. Si l'on envoie trois électrons simultanément dans l'interféromètre, celui-ci sépare chaque électron en deux, selon deux voies suivies en parallèle, puis il les réunit à nouveau. Si alors on mesure l'état des électrons à leur sortie de l'interféromètre, en les sélectionnant dans un état différent de celui qu'ils avaient en entrant dans la machine, l'on crée un lien quantique, autrement dit une intrication, entre ces électrons. Autrement dit, la post-sélection influence les états passés de ces électrons.

Pour le montrer, il faut préciser comment les électrons se comportent dans le système. La superposition d'état, autre propriété des particules quantiques, signifie que chaque électron peut se retrouver à l'identique dans les deux chemins simultanément. Si deux électrons partagent le même chemin, leurs charges électriques identiques les repoussent, ce qui infléchit leur trajectoire, même légèrement. Cette inflexion est détectée à la sortie de l'interféromètre. Du fait de la superposition, rien ne permettrait d'affirmer que tel électron se trouve dans telle branche ou dans l'autre. Mais si l'on mesure (post-sélection) les chemins de l'une ou l'autre des deux paires d'électrons, aucune déflexion n'est détectable. Un lien existe donc entre les électrons. Chacun d'eux connait l'emplacement de l'autre et l'évite.

D'où l'image des pigeons, ou du pigeonnier quantique. L'on peut avoir trois pigeons dans deux pigeonniers, et pourtant aucun pigeonnier ne comportera deux pigeons. Ceci d'ailleurs quelque soit le nombre des pigeons. Même avec un millier de pigeons, il n'y en aura toujours qu'un dans chacun des deux pigeonniers. Cet effet constitue la façon la plus simple de tester l'idée que des particules non corrélées peuvent se trouver intriquées simplement parce qu'elles ont fait l'objet d'une post-sélection.

Or comme les mesures correspondantes se produisent en permanence, soit du fait des humains, soit pour des causes naturelles, les particules mesurées se retrouvent intriquées, fussent-elles réparties n'importe où dans l'univers, et ceci sans avoir fait l'objet d'une préparation préalable. En conclura-t-on que toutes les particules de l'univers peuvent se retrouver intriquées, sans avoir été préparées à l'avance? Théoriquement, l'hypothèse paraît plus que crédible, dans les termes où l'expérience de pensée est formulée.

Encore faudra-t-il qu'une expérience réelle soit réalisée, sans doute en utilisant l'interféromètre précédent, et les « mesures faibles » précédemment décrites. Ceci ne devrait pas tarder, si la question continue à être explorée. En fait la nouveauté dans ces affaires repose sur le concept de mesure faible. Va-t-elle remplacer dans la pratique la mesure forte traditionnelle. Et que devient en ce cas de l’image que l’on peut se donner des particules, qu’il s’agisse d’électrons ou de neutrons ou de tout autre ensemble microscopique. Sont-elles soumises à indétermination, si celle-ci dépend du type de mesure auquel l’on procède?

Les physiciens, cosmologues et philosophes ne manqueront pas d'y réfléchir. Cette nouvelle propriété de l'intrication entre particules pourrait expliquer pourquoi l'univers fonctionne comme un immense ordinateur quantique, selon l'hypothèse de Seth Loyd.

Quant aux artistes, l'un d'eux très vite sans doute nous montrera comment nous pourrions nous représenter un pigeon de Cheshire.

Sources

1) Le spin d'une particule est son moment angulaire intrinsèque, ou le sens de rotation de cette particule. Le spin est une propriété quantique, il ne peut prendre que des valeurs entières ou demi-entières.
2) voir Direct measurement of the quantum wavefunction
3) voir Observation of a quantum Cheshire Cat in a matter wave interferometer experiment
4) voir The quantum pigeonhole principle and the nature of quantum correlations
5) Sur l'ensemble de ces thèmes, voir NewScientist Quantum split: Particle this way, properties that way, ainsi que Pigeon paradox reveals quantum cosmic connections

Partager cet article

20 juillet 2014 7 20 /07 /juillet /2014 13:44

Nous avions signalé en son temps (2012-2013) le lancement par la Commission européenne d'un projet visant à simuler le cerveau humain sur ordinateur. L'objectif était d'approfondir à cette occasion les fonctions du cerveau, depuis le rôle des neurones corticaux jusqu'aux activités cognitives les plus élaborées. Il s'agissait du Human Brain Project (HBP).

Le HBP est l’un des deux projets scientifiques d’envergure que l’Union Européenne avait décidé de soutenir en 2013 dans le cadre du projet FET Flagship (Future and emerging technologies), un programme d’innovation et de recherche de la Commission. Il est susceptible de recevoir jusqu’à 500 millions d’euros de fonds européens sur une période de dix ans, à condition que les États ou l’industrie les cofinancent à la même hauteur. Il sera ainsi doté d'environ 1 milliard d'euros sur 10 ans.

Le HBP rassemble (en principe) des centaines de chercheurs et des dizaines de laboratoires, provenant d'un grand nombre de pays européens ou non européens. Il a été initié par le professeur Henry Markram de l'EPFL (Ecole polytechnique fédérale de Lausanne) qui continue à le diriger. Il vise à simuler en détail un cerveau humain sur un superordinateur de la marque IBM d’ici 2023, afin de mieux comprendre comment le cerveau fonctionne et améliorer les applications en neurosciences et en médecine. Le projet représente pour IBM une référence très importante, venant dans la suite de son initiative précédente, le Blue Brain Project.

Dans le même temps, nous avions signalé que le président OBAMA annonçait un projet de même envergure, BRAIN, mais beaucoup plus orienté que le HBP sur l'étude fonctionnelle et clinique du cerveau et de ses dysfonctionnement. Il est piloté par les National Institutes of Health. Les deux projets, après deux ans de travail, envisagent actuellement de mieux échanger leurs acquis.

Or l'on vient d'apprendre qu'une véritable rébellion vient d'éclater au sein du projet.HBP. Des centaines de chercheurs ont publié, sur le site neurofuture.eu une pétition demandant non seulement un audit contradictoire du projet, mais une réorientation en profondeur. Sous les propos diplomatiques, on devine que les neuroscientifiques, au sein du HBP, revendiquent d'être mieux associés au pilotage.

Selon des conversations téléphoniques que nous avons eu avec certains d'entre eux, ils critiquent l'orientation essentiellement technologique imposé au projet par Henry Markram, l'EPFL et, en sous mains mais très activement, par IBM. Selon les neuroscientifiques concernés, le projet doit viser non pas à seulement construire une maquette sur ordinateur du cerveau, mais à comprendre comment il fonctionne et comment traiter ses dysfonctionnements. Pour cela il faut recourir à des observations globales, notamment cliniques, en liaison avec les simulations informatiques

Pour ne pas paraître attaquer hors de propos un des rares projets de recherche financés par l'Europe, nous n'avions initialement évoqué ces points qu'avec prudence. L'expérience nous donne raison. La simulation sur ordinateur d'un cerveau, surtout si en fait il s'agit pour le moment d'une mini-colonne de cortex de rat, ne peut absolument pas faire apparaître ce qui se passe dans le cerveau humain, fut-ce même au niveau d'une mini-colonne de cortex. Les fonctions essentielles remplies notamment par les neurones de liaison entre aires cérébrales ne peuvent en aucun cas être représentées.

De plus, les chercheurs ne peuvent retranscrire sur le modèle que ce qu'ils voient, et encore faut-il tenir compte du fait que ne sachant pas exactement ce qu'il faudrait découvrir, ils ne pourraient que reproduire ce qu'ils savent déjà. Le processus proposé par Markram et IBM est semblable à celui consistant, pour comprendre à grande échelle les courants marins affectant la Manche, à simuler sur ordinateur quelques mètres linéaires de côte ou quelque mètres carrés de fonds.

Les neuroscientifiques en révolte ne nient pas l'intérêt d'un modèle informatique. IBM a produit sur ce thème des images spectaculaires de la complexité d'une mini-colonne corticale. Mais il faudrait, plutôt que mettre tous les moyens disponibles au service de ce seul objectif, multiplier les approches fonctionnelles globales, en les superposant, le cas échéant dans un désordre créateur, aux simulations informatiques.

La direction du HBP s'était engagée à le faire, mais l'essentiel des ressources du projet restent accaparées par la construction d'un bel outil technologique, dont l'intérêt scientifique demeurera longtemps limité. En effet dans la voie technologique, ce seraient au minimum les dizaines de milliards d'un cortex humain qu'il faudrait simuler. La tâche est évidemment impossible pour le moment, tous les ordinateurs d'IBM n'y suffiraient pas.

Plus en profondeur, rappelons que, quitte à simuler le cerveau sur ordinateur, il faudrait reprendre les voies proposées par Alain Cardon, dans le cadre de ses recherches sur la conscience artificielle. L'Intelligence Artificielle de type évolutionnaire permet aujourd'hui d'aborder les fonctions et les organes sous-jacents du cerveau par grands ensembles, puis de laisser jouer les mécanismes de compétition darwinienne entre eux sur un réseau de mini-ordinateurs. Le processus génère de nombreuses hypothèses différentes, dont il reste à tester la pertinence avec des cliniciens ou des psychologues. Les coûts de telles recherches ne dépasseraient pas quelques millions, consacrés à la programmation d'analyses fonctionnelles déjà réalisées par Alain Cardon. Mais celui-ci n'a pu jusqu'à ce jour susciter l'intérêt d'éventuels contributeurs. N'est pas suisse et IBM qui veut.

Nous ne pouvons ici entrer dans le détail des critiques ayant fait l'objet de la pétition, ni des débuts de réponse apportées. Les liens suivants permettront aux curieux de le faire.

* HBP https://www.humanbrainproject.eu/

* Brain Initiative Brain Research through Advancing Innovative Neurotechnologies (BRAIN) http://www.nih.gov/science/brain/

* Open message to the European Commission concerning the Human Brain Project July/7/2014
http://www.neurofuture.eu/

Summary: Neuroscience advances our understanding of normal and pathological brain function, offering potentially enormous benefits to society. It is, therefore, critical to Europe. The Human Brain Project (HBP), sponsored by the European Commission (EC), was meant to forward this mission. However, due in great part to its narrow focus, it has been highly controversial and divisive within the European neuroscience community and even within the consortium, resulting in on-going losses of members. The HBP is now scheduled for review and we wish to draw the attention of the EC to these problems. We believe the HBP is not a well conceived or implemented project and that it is ill suited to be the centerpiece of European neuroscience. We are particularly concerned about the plan to tie a substantial portion European member states’ neuroscience funding to the HBP through so-called ‘partnering projects’. We call for the EC to go beyond the strict requirements of the upcoming review, to demand transparency and accountability and, if necessary, change the structure of the HBP’s governance and supervision to correct their shortcomings. Failing that we call for the EC to redirect the HBP funding to smaller investigator-driven neuroscience grants. We stand fully behind a strong and united European neuroscience strategy and we pledge not to seek funding through HBP partnering projects that would compromise that mission.

* Réponse de la Commission Official Response by the EC - 18 July 2014 No single roadmap for understanding the human brain
https://ec.europa.eu/digital-agenda/en/blog/no-single-roadmap-understanding-human-brain

* Commentaire de Neuroscience Programme http://neuro.fchampalimaud.org/en/news/130/
Human Brain Project: Neuroscientists across Europe are raising a red flag.
In an Open Letter to the European Commission (EC), neuroscientists express their concern about the current course of the Human Brain Project (HBP) and call for the EC to examine closely both the scientific policy and management of the HBP prior to its renewal. The HBP was launched two years ago by the EC as a European “Future Emerging Technology Flagship.” The HBP leadership presented a bold vision of a large-scale collaborative project that will span over one hundred neuroscience and technology groups across the world, all working together towards understanding the human brain. However, due to the projects’ narrow focus, the HBP has been highly controversial and divisive within the European neuroscience community and even within the consortium, resulting in on-going losses of members.
A formal review of the HBP is now scheduled to evaluate the success of the project’s ramp-up phase and the plan for the next phase. At stake is funding on the order of 50M€ per year European Commission for the “core project” and 50M€ in “partnering projects” provided largely by the European member states’ funding bodies.
Many international neuroscientists, including both HBP members and non-members are now calling for this review to be performed in a very critical manner.
“We want the public and the government to know that we believe collaborative research in neuroscience can yield great benefits to human well-being but that the Human Brain Project does not provide what is needed to achieve that.”, explains Zachary Mainen, HBP member and Director of the Champalimaud Neuroscience Programme, in Lisbon, Portugal. Neuroscientists composed an open letter that describes both their support of this project and their concern about the course it is taking under the current management. In this letter, they recommend certain criteria to be taken in order to insure the future success of the project. “If we don’t wake up and address this situation by insisting on transparent, accountable and representative structures to support large-scale research efforts then we will fail to reach our goals and compromise the legacy that we might have achieved.”, concludes Mainen. In the event that the EC is unable to adopt the recommendations proposed in the Open Letter, the undersigned pledge not to apply for HBP partnering projects and will urge other scientists to join them in this com
mitment.

* Réponse de la direction du HBP. https://www.humanbrainproject.eu/documents/10180/17646/HBP-Statement.090614.pdf

* Commentaires de La Tribune de Genève http://www.tdg.ch/geneve/actu-genevoise/Petition-contre-le-Human-Brain-Project/story/15828686
Dans une lettre adressée lundi à la Commission européenne, quelque 130 scientifiques menacent de boycotter le Human Brain Project. La recherche dirigée par l’EPFL a pour but de modéliser entièrement le cerveau humain sur ordinateur. 24 heures après le lancement de la protestation, on s'approchait de 300 soutiens dont la liste figure sous le document en ligne www.neurofuture.eu, dans lequel ils contestent les options scientifiques du projet à un milliard d’euros, et sa gestion financière. Parmi les signataires, on relevait lundi dix représentants de l’Université de Genève, pourtant associée au projet qui doit s’installer au Campus Biotech de Sécheron.
Le HBP suscite «un grand malaise en Suisse et en Europe», a indiqué lundi Richard Hahnloser, professeur de neurosciences à l'EPFZ et à l'Uni de Zurich, sur les ondes de la RTS, qui a révélé l'information. Il parle d'un «bâtiment plein de promesses mais sans contenu réel». «Quel avantage y a-t-il à faire une simulation pareille alors qu'on arrive même pas à simuler un ver de terre qui a seulement 300 neurones», s'est-il interrogé. Le chercheur craint que le projet n'accapare tout l'argent dévolu aux neurosciences en Europe.
Le HBP, initié par le professeur Henry Markram, vise à simuler en détail un cerveau humain sur un superordinateur d’ici 2023, afin de mieux comprendre comment il fonctionne et d’améliorer les applications en neurosciences et en médeci
ne.

Voici enfin nos articles précédents sur le sujet
* Le projet Blue Brain et le programme européen Human Brain Simulation project (HBSP)
http://www.automatesintelligents.com/echanges/2011/jan/hbsp.html

* Human Brain Project, un grand projet européen sur le cerveau humain http://www.automatesintelligents.com/edito/2013/fev

Partager cet article

15 juin 2014 7 15 /06 /juin /2014 08:22

Transférer les contenus de mémoire d'un cerveau à l'autre
Jean-Paul Baquiast 13/06/2014

Cet intitulé fait allusion à des expériences menées actuellement avec succès chez le rat mais qui pourraient être étendues à l'homme. L'objectif en est d'abord thérapeutique. Il s'agit de réhabiliter le cerveau de personnes ayant subi certaines formes d'attaques cérébrales ou maladies dégénératives empêchant ledit cerveau de transférer le contenu d'une aire cérébrale donnée A à une autre B, ces aires cérébrales elles-mêmes n'étant pas atteintes. On se trouve en ce cas dans une situation analogue à celle de deux personnes ne pouvant plus avoir d'échanges téléphoniques, la ligne téléphonique les reliant ayant été coupée.

En théorie, la solution à ce problème est simple. Il faut enregistrer dans l'aire A, par un dispositif électronique externe, le contenu de mémoire à transférer et le réinjecter dans l'aire B, en court-court-circuitant la partie malade. L'opération doit être faite dans les deux sens, de façon à ce que se rétablisse un dialogue entre les aires cérébrales intéressées. Les processus permettant un tel transfert à l'intérieur du cerveau d'une personne donnée étant mis au point, on peut envisager d'étendre le transfert de cette personne à une autre. On enregistrera le contenu de l'aire A d'une première personne et on le réinjectera dans l'aire B d'une autre personne...Le dispositif électronique en charge de cette opération rendra possibles différentes solutions augmentant l'intérêt du transfert: relier des cerveaux séparés par de grandes distances, mémoriser les contenus pendant un temps indéterminé, éventuellement construire des bases de données de contenus.

Aujourd'hui l'on sait réaliser les bases élémentaires de cette opération, mais dans un seul sens. Ainsi il est possible d'obtenir en sortie la commande d'un bras robotique par l'intermédiaire de la lecture dans le cerveau des instructions cérébrales données par le patient, et du transfert de ces instructions à la machine. Dans l'autre sens, c'est-à-dire en entrée, il est possible de faire pénétrer dans le cerveau des informations provenant d'un dispositif électronique de lecture, afin de les rendre utilisables par ce cerveau. Il en est ainsi des implants cochléaires en matière d'audition et de certains dispositifs externes permettant de suppléer à une vision défaillante. Mais dans ces divers cas, les données émises ou reçues par le cerveau sont relativement simples et bien identifiées, tant concernant les messages électroniques que les aires cérébrales et associations de neurones susceptibles de les traiter.

Concernant les transferts de contenus de mémoire, le problème à résoudre n'est pas très différent, en termes de circuiterie, électronique ou neurologique, de celui consistant à recueillir en entrée ou en sortie des instructions motrices ou sensorielles. Dans les deux cas, il faut utiliser des capteurs externes (casques) permettant de recueillir ou de créer ce que l'on appelle les ondes cérébrales. Comme ces capteurs externes sont aujourd'hui encore très rudimentaires, il a fallu se résoudre à mettre en place des implants cérébraux, sous forme de sondes de moins en moins invasives et de plus en plus sensibles, assurant la connexion avec des groupes de neurones, voire avec des neurones individuels. La chose ne pose pas en principe de problèmes éthiques quand il s'agit d'animaux. Ce n'est évidement pas le cas en ce qui concerne les humains. Les techniques utilisées se perfectionnent cependant tous les jours. Nous ne les évoquerons pas ici.

Contenus de mémoire

Mais la véritable difficulté provient de la complexité et même de l'obscurité s'attachant aux mécanismes correspondant à ce que l'on appelle la mémoire, que ce soit chez l'animal ou chez l'homme. D'abord, il existe différentes sortes de mémoire, mémoire de travail, mémoire à long terme...Il faut choisir le type de mémoire à laquelle on s'attachera. D'autre part et surtout, la mémoire fait intervenir des milliards de neurones et des centaines d'aires cérébrales réparties dans le cerveau. Comment identifier le ou les neurones responsables d'un contenu de mémoire particulier? Comment faire apparaître la façon par laquelle ils se conjuguent pour constituer des paysages mémoriels complexes? Comment s'assurer que les combinaisons ainsi obtenues, valables pour un individu, pourront être reconnues et utilisées par un autre?

Ceci d'autant plus que les mémoires immédiates ne prennent de sens qu'après confrontation dans le cerveau avec les contenus cognitifs et culturels correspondants à des mémoires à long terme, variant nécessairement d'un individu à l'autre, ayant mis par ailleurs plusieurs dizaines d'années à se construire et se trouvant pour la plupart hors de portée d'une prise de conscience dite volontaire.

Il se trouve cependant que les mémoires à long terme se forment en passant par une sorte de gare de triage qui est l'hippocampe. L'hippocampe (source wikipedia) est une structure du cerveau des mammifères. Il appartient notamment au système limbique et joue un rôle central dans la mémoire et la navigation spatiale. Chez l'homme et le primate, il se situe dans le lobe temporal médian, sous la surface du cortex. Comme le cortex avec lequel il est en étroite relation, c'est une structure paire, présente de manière symétrique dans chaque hémisphère L'hippocampe a été très étudié chez le rongeur pour son implication dans les systèmes de l'inhibition du comportement, de l'attention, de la mémoire spatiale et de la navigation. Une des conséquences d'une lésion à l'hippocampe sur le comportement du rat est l'augmentation de l'activité (déplacement, exploration, etc.). Beaucoup des cellules de l'hippocampe du rat ou de la souris répondent comme des cellules de lieu : elles émettent des trains de potentiel d'action lorsque l'animal passe à des endroits précis de son environnement. Ces cellules de lieu interagissent fortement avec des cellules codant pour la direction de la tête dans l'espace et avec les cellules de grille du cortex entorhinal voisin et sont supposées jouer un rôle clé dans la navigation spatiale (formation de carte cognitive).

MIMO

Dans ces conditions, si l'on place des électrodes dans l'hippocampe du cerveau d'un rongeur (ou de tout autre animal), il devient possible de recueillir les traces électriques de potentiels d'action. On peut également, à l'inverse, y injecter des messages électriques générant de tels potentiels. Mais ceci ne suffit pas pour identifier les contenus sémantiques des messages circulant dans l'hippocampe, d'autant plus que ceux-ci sont très nombreux et peu diversifiés. Cependant, dans les années 1990, le Pr. Theodore Berger de l'Université de Sud Californie eut l'idée fondatrice de faire appel à une technique dite multi input/multi output (MIMO) .

Celle-ci est utilisée dans les réseaux sans fil et les réseaux mobiles pour permettre des transferts de données à plus longue portée et à plus grande vitesse qu’avec des antennes utilisant la technique SISO (Single-Input Single-Output). Elle permet aussi d'éliminer les bruits de fond et messages parasites. Nous pouvons à cette occasion faire remarquer les gains qu'apportent les approches inter-disciplinaires, ici entre les neurosciences et les télécommunications. Si elles pouvaient être généralisées, il en résulterait sans doute et à moindre coût des découvertes surprenantes.

Theodore Berger a montré que par l'utilisation de MIMO en neurosciences, il pouvait identifier des messages significatifs au sein du bruit formé dans l'hippocampe par des millions de neurones déchargeant simultanément. Ces messages recueillis par une sonde pouvaient ensuite être réinjectés dans l'hippocampe d'un autre animal et produire le même résultat que celui produit dans le cerveau de l'animal initial.

Ces résultats furent appliqués chez des rats. Berger, avec les Pr. Deadwyler et Hampson, purent recueillir les contenus de mémoires de rats entrainés à accomplir des tâches déterminées. Ces contenus réinjectés dans le cerveau d'un rat ainsi entraîné, puis drogué afin qu'il perde l'accès à sa mémoire antérieure, permettaient au rat de retrouver les comportements appris. La même chose se produisait d'un rat à un autre, le contenu de mémoire d'un rat entrainé, injecté dans le cerveau d'un rat vierge, permettait à celui-ci de faire appel aux compétences acquises par le premier.

Un champ illimité

Ultérieurement, les chercheurs ont utilisé ces procédures pour explorer les mémoires bien plus complexes de macaques témoins et transférer les connaissances acquises par l'un des macaques à d'autres. Le champ de telles recherches est pratiquement illimité, comme l'on devine. Mais les expériences visant chez l'homme à réparer les processus de transmission de contenus de mémoire d'une aire cérébrale à l'autre se poursuivent en priorité, puisque la demande est considérable.

Aujourd'hui, l'on envisage d'introduire à demeure dans les cerveaux des puces dotées des électrodes adéquates qui rétabliraient des ponts entre aires cérébrales intervenant dans des fonctions essentielles. Une puce dans l'hippocampe permettrait de restaurer la capacité de former des mémoires à long terme. Une autre entre les aires de Broca et de Wernicke restaurerait les fonctions langagières. Une autre enfin dans le cortex préfrontal faciliterait les opérations, il est vrai bien plus difficiles à modéliser, intéressant la prise de décision et le contrôle de leur exécution.

Les chercheurs participant à ces travaux estiment avoir commencé à « casser » le code de communication interne du cerveau. Il ne s'agit pas, répétons-le, d'identifier les réseaux neuronaux reliant les aires cérébrales entre elles, ou avec d'autres parties du corps. Cet inventaire est, dans l'ensemble, déjà réalisé. Il s'agit de comprendre les connaissances, autrement dit les contenus de sens que transportent ces cerveaux, le cas échéant en utilisant des langages sociaux préalablement acquis. Ceci afin de communiquer directement avec eux, ou leur permettre de communiquer les uns avec les autres via des prothèses.

Un projet dit Restoring Active Memory (RAM) financé par la Darpa, l'Agence de recherche du Pentagone, fait actuellement l'objet d'appel à propositions et à contributions extérieures. Il devrait permettre d'améliorer les connaissances concernant les divers thèmes évoqués ici. Les militaires blessés pourront en bénéficier, mais il est vraisemblable que d'autres applications, couvertes par le secret défense, seront aussi développées. Il s'agit en effet d'un sujet qui sera de plus en plus sensible à l'avenir.

Pour en savoir plus
* Sur l'ensemble du sujet, voir l'article de Sally Adee, « The memory fix », Newscientist, 7 juin 2014
* Sur l'expérience concernant les rats, voir Journal of Neural Engineering, vol 10, p 066013).(accès soumis à conditions)

Partager cet article

15 juin 2014 7 15 /06 /juin /2014 08:21


Jean-Paul Baquiast 14/06/2014

Le concept de Singularité a été développé pour désigner l'état initial de notre univers lorsque l'on remonte à l'envers l'histoire des différents états qu'il aurait traversé après le supposé Big Bang. Dans la cosmologie reposant sur la conception de la gravité qui découle de la théorie de la relativité générale, présentée par Einstein, les corps exercent les uns sur les autres une force de gravité (ou d'attirance mutuelle) en fonction de leur masse et de leurs distances. Si la distance s'accroit, comme le suggèrent les théories de l'expansion, l'attraction gravitationnelle diminue. Si au contraire cette distance diminuait, parce que l'univers subissait à un certain moment de son évolution une force de contraction, l'attraction gravitationnelle deviendrait infinie. C'est ce qui avait été symbolisé par le concept de « Big Crunch » ou grand écrasement, l'opposé du Big Bang.

Les physiciens admettent généralement que l'état de l'univers précédant le Big Bang ou résultant d'un Big Crunch menée à son terme, ne peut être décrit par les paramètres de la physique macroscopique, c'est-à-dire de la physique einsténienne. L'espace-temps se réduit au point que l'espace et le temps tels que nous les connaissons disparaissent. Il en est de même des échanges entre ondes et particules générant les diverses radiations qui façonnent l'univers actuel. Mais alors qu'en dire? On ne peut pas se borner à constater que ces questions sont trop complexes pour que notre cerveau, en son état actuel, les comprenne. On ne peut pas non plus se renvoyer, comme les 9/10 des populations actuelles, aux textes religieux. La science s'est donc tournée vers la physique quantique.

Celle-ci décrit un univers quantique aux propriétés bien étudiées aujourd'hui, dont nous constatons tous les jours la « réalité », si l'on peut dire, mais qui sont bien particulières. Le temps et l'espace n'y existent plus, les entités quantiques onde-particule, ne peuvent être décrites que par des formules statistiques (la fonction d'onde), elles peuvent se superposer ou se lier (intrication) d'une façon inexplicable par la physique macroscopique.

L'univers quantique primordial est généralement résumé aujourd'hui par le concept de vide quantique. Celui-ci n'est pas vide, il est constitué d'un milieu extrêmement dense et énergétique, parcouru de fluctuations. De quoi s'agit-il? L'équation E=mc2 traduit l'équivalence entre masse et énergie. Donc en empruntant de l'énergie au vide il est possible de créer des particules dotées de masses. Ce mécanisme est à l'origine de l'apparition de paires de particules virtuelles.

Le vide parait rempli de particules virtuelles apparaissant pendant un temps très bref avant de disparaître. On peut les constater dans l'effet dit Casimir. Plus généralement, on considère que les fluctuations du vide quantique peuvent donner naissance à des germes d'univers dits bulles d'univers, se développant dans la cadre de la physique macroscopique. Notre univers serait né d'une de ces bulles. A ce stade, il s'agit évidemment d'hypothèses. Mais elles sont à la source d'une autre hypothèse aujourd'hui très populaire, celle du multivers.

Le concept de vide quantique n'est cependant pas considéré par les physiciens comme suffisant à définir ce qu'aurait pu être le milieu précédant le Big Bang. Depuis de nombreuses années déjà, les théoriciens essayent d'élaborer des modèles résultant d'une synthèse à réaliser entre gravité et mécanique quantique. Il s'agit de ce qui a été nommé la gravitation quantique. La version la plus étudiée à ce jour est la théorie des cordes. Elle a suscité de nombreux travaux, provenant de très nombreux chercheurs, dont certains y ont gagné une grande renommée.

Mais les types de milieu primordial que propose la théorie des cordes sont en très grand nombre. Ses hypothèses ne disent rien de précis en ce qui concerne les origines de l'espace et du temps. Aucune par ailleurs ne suggère d'expérinces vérifiables par les instruments actuels, même si leurs auteurs annoncent régulièrement pouvoir le faire.

L'une des théories jugées aujourd'hui la plus convaincante est cependant la gravitation quantique à boucle (Loop quantum gravity, LQG)) dont le physicien Lee Smolin s'est fait depuis longtemps le défenseur. Pour elle, l'espace présente une structure discrète (par opposition au continuum espace-temps de la relativité générale) : les aires et les volumes d'espace sont quantifiés. La notion d'espace est remplacée par la notion de grains primitifs, sortes d'« atomes » d'espace ou, plus exactement, de quanta du champ gravitationnel. La notion d'espace-temps doit en conséquence être remplacée par une interaction de particules et de boucles du champ gravitationnel. L'espace-temps devient granulaire et probabiliste.

La « causal dynamical triangulation »

Concernant la cosmologie et notamment l'étude de l'univers primordial et la physique du Big Bang. la LQG considère en général que l'évolution de notre univers ne commence pas au Big Bang. Celui-ci pourrait être remplacé par le rebond cosmique ( Big Bounce) d'un univers pré-existant en contraction (Big Crunch). Mais cela ne suffit pas, aux yeux des travaux les plus récents, pour caractériser le milieu ayant précédé l'apparition de notre espace-temps. Les hypothèses ne manquent pas et font l'objet d'intenses discussions au sein de blogs scientifiques tous incompréhensibles par le grand public.

Des théories plus abordables commencent cependant à circuler. L'une d'elle est dite en anglais causal dynamical triangulation (CDT). Selon celle-ci, l'univers serait composé d'unités d'espace-temps s'organisant en pyramides de base triangulaire (image ci-dessus). La façon dont ces pyramides triangulaires s'assemblent entre elles génère une dynamique conférant à notre espace-temps la courbure que la relativité générale attribue à la présence de masse et d'énergie. Ce sont évidemment des simulations mathématiques, et non l'observation, qui donnent naissance à ces descriptions. Ces simulations sont en compétition et, de temps à autres, la plus convaincante réussit à s'imposer.

L'univers primordial décrit pas la CDT peut exister sous trois formes ou phases différentes. La première est celle que nous connaissons, où les différents régions de l'espace sont connectées les unes aux autres grâce à la transmission de forces. Dans une deuxième forme, l'univers constitue un amas indistinct dont chaque élément fait partie de tous les autres. Dans une troisième, les unités d'espace-temps sont complètement déconnectées, chacune se présentant à elle-même comme une entité solitaire. Plus rien alors ne peut y circuler.

Les théoriciens de la LQG, dont le physicien français Aurélien Barrau, considèrent que celle-ci peut expliquer la façon dont l'univers primordial a évolué à travers ces trois phases pour prendre la forme que nous lui connaissons. Nous ne pouvons en discuter ici. Il est important cependant de noter que ces théoriciens estiment pouvoir faire apparaître des conséquences de cette évolution à partir des prochaines générations d'observatoire du fond cosmologique, qu'il s'agisse d'un Planck 2 ou d'un BICEP 2.

En attendant, une hypothèse plus que surprenante a été formulée, à propos des métamatériaux expérimentés actuellement par la physique et dont l'une des propriétés est qu'ils dévient les rayons lumineux d'une façon non cohérente, de telle sorte que dans certains conditions ils deviendraient invisibles. L'univers primitif, avant le Big Bang, aurait pu avoir ces propriétés. Il serait alors possible d'étudier l'avant- Big bang sur les paillasses des laboratoires.

Pour en savoir plus
* Le site The Physics Mill, Physics (and math) for everyone, propose un long article concernant la CDT. Le lecteur curieux pourra s'y reporter. Disons seulement que l'article, contrairement aux prétentions de The Physics Mill, n'est pas à la portée de chacun. Si bien que nous sommes incapbles de juger en profondeur de sa pertinence.
* Il faudra aussi se référer à un article de Michael Brooks dans le NewScientist du 11 juin 2014 Goodbye big bang, hello big silence. Cet article développe d'autres points intéressants auxquels nous n'avons pas fait allusion ici.

Partager cet article

25 mai 2014 7 25 /05 /mai /2014 11:15


Jean-Paul Baquiast 24/05/2014

This shows theories describing light and matter interactions. (Photo : Oliver Pike, Imperial College London)

C'est ainsi, selon les hypothèses actuelles, que l'univers, dans les quelques fractions de seconde ou quelques secondes ayant suivi le Big Bang, a pris le visage que nous lui connaissons aujourd'hui, c'est-à-dire faisant coexister les photons de la lumière avec les atomes de la matière. Mais initialement, l'univers aurait consisté en un plasma de photons à très haute densité et très haute température. Il a donc fallu qu'un processus jusqu'ici encore mystérieux intervienne pour que certains de ces photons, en se rencontrant, émettent les sous-produits du choc ainsi généré, soit les briques de base de la matière, un électron et un positron (constitutifs de l'hydrogène).

Mais ce processus était peu imaginable compte tenu de la nature de la lumière telle que conçue jusqu'à présent. Les photons étaient considérés comme des particules sans masse, incapables d'interagir les unes avec les autres. Deux faisceaux de lumière émanant d'une lampe de poche (ou d'un émetteur laser) peuvent se croiser sans produire le moindre atome d'hydrogène. Pourtant, un modèle théorique du phénomène avait été suggéré par les physiciens Gregory Breit et John Archibald Wheeler en 1934, mais il n'avait pu être observé en pratique.

Or aujourd'hui, la production de matière à partir de la lumière a été réalisée dans le cadre de deux expériences successives un peu différentes. Dans un premier temps, ( voir Phys.org ) un groupe de chercheurs de Harvard et du MIT, dirigé par les professeurs de physique Mikhail Lukin et Vladan Vuletic, travaillant au Center for Ultracold Atoms de Harvvard-MIT avait publié dans Nature (septembre 2013) un article selon lequel ils avaient réussi ce qui était jusqu'ici inimaginable, forcer des photons à s'agréger pour produire des molécules. Pour cela, ils ont mis au point un certain type de milieu dans lequel des photons violemment heurtés interagissent si fortement qu'ils se comportent comme s'ils étaient dotés de masse, ce qui leur permet ensuite de s'agréger sous forme de molécules.

Mais il ne s'agissait pas encore de matière au sens propre. Plus récemment (voir Natureworld ) une seconde équipe, dirigée par Oliver Pike et composée de chercheurs de l'Imperial Collège britannique et du Max Planck Institute allemand, est allée plus loin. Ils ont réalisé un dispositif permettant d'observer les photons individuellement, ainsi que ce qu'il en advenait dans le cas de collision, c'est-à-dire la production d'électrons et de positrons. L'exploit est d'importance. En effet, selon Oliver Pike, le dispositif, qui illustre la validité du processus théorisé par Breit-Wheeler, constitue la façon la plus simple de démontrer que la matière peut être construite à partir de la lumière, selon l'équation célèbre E=mc2.

L'expérience de collisionneur photon-photon proposée par Pyke et ses collègues fait appel à plusieurs étapes que nous ne décrirons pas. En simplifiant, disons qu'elle utilise comme la précédente un laser de très haute intensité qui accélère des électrons quasiment à la vitesse de la lumière. Ceux-ci sont ensuite dirigés sur une feuille d'or qui renvoie un faisceau de photons ayant des milliards de fois l'énergie de la lumière visible. Dans une seconde phase, un laser également de haute énergie est envoyé dans un petit récipient d'or (hohlraum ou chambre vide, en allemand) ce qui crée un champ de radiation thermique capable de générer une lumière de force comparable à celle émise par les étoiles.

Ensuite, le premier faisceau de photon est envoyé dans la hohlraum. Les photons des deux sources se rencontrent alors avec violence. Des milliers de pairs électron-positron, et non plus seulement de molécules photoniques, peuvent alors être générées. On pourrait suggérer qu'il s'agit d'un processus de fusion repris à l'envers. Au lieu de fusionner des molécules de matière pour obtenir de l'énergie sous forme de photons, on obtient des molécules de matière à partir de photons rendus massivement énergétiques.

Comme de telles hohlraum sont depuis longtemps utilisées dans les recherches sur la fusion nucléaire, l'expérience imaginée par ces chercheurs a pu être assez facilement réalisée en pratique. Elle pourra être renouvelée et compliquée, afin de préciser les modèles théoriques. Outre l'intérêt d'une telle réalisation pour comprendre, comme indiqué ci-dessus, les premiers instants ayant suivi la création de l'univers, elle devrait permettre également d'expliquer ces phénomènes encore mal connus que sont les explosions de rayons gamma se produisant à partir de sources non identifiées situées dans l'univers lointain.

Inutile de faire remarquer que de telles expériences, si elles étaient confirmées, permettraient, tout autant que les observations du rayonnement cosmologique par des satellites tels que Planck, de se représenter les origines de l'univers, ceci, si l'on peut dire, aux origines des origines. Resterait évidemment à comprendre comment, du vide cosmologique primordial, a pu émerger le plasma de photons chargés composant l'univers à sa naissance.

Par ailleurs, il faudra comprendre comment des photons pourraient se transformer en électrons et protons. Si l'on considère qu'il s'agit à la fois d'ondes et de particules, quels phénomènes, éventuellement reproductibles, pourraient se produire à leur niveau, tant au plan ondulatoire que particulaire ?

NB au 25/05.

Alain Cardon nous écrit ceci:

La grande question est la notion de l'information fondamentale qui pourrait être le substrat à l'existence de toutes les particules (photons et toutes les autres) et déterminant leurs possibilités d'états, de relations et de générations, avec notamment la théorie du contenu informatif du vide (voir par exemple Marc Lachièze-Rey du CEA Saclay sur ce sujet).
Mais là, on aborde une bifurcation du modèle usuel de la physique des particules, ce qui n'est pas du tout dans l'air du temps où il faut être conforme à la conformit
é.

Partager cet article

Articles Récents

Liens

Partager cette page Facebook Twitter Google+ Pinterest
Suivre ce blog