Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

5 août 2014 2 05 /08 /août /2014 19:27


Francis Crick et Kristof Koch avaient-ils découvert le siège de la conscience?
Jean-Paul Baquiast 24/07/2014

Coupe horizontale d'un hémisphère cérébral montrant l'emplacement du claustrum. (wikipedia)

Ce fut longtemps le rêve des philosophes (la glande pinéale de Descartes), comme plus récemment celui des physiologistes et des neurologistes: découvrir dans le cerveau humain une aire ou une zone qui serait spécifiquement en charge de générer ce que l'on nomme les processus de conscience chez les personnes éveillées.

Récemment, il avait été suggéré qu'il s'agissait d'un faux problème. La production de la conscience pourrait résulter d'une collaboration d'un grand nombres de zones corticales reliées par les neurones de liaison. Dire cela ne permettait cependant pas de clarifier la question. Comment ces aires et ces neurones collaboraient-ils pour générer des faits de conscience sans produire une cacophonie assourdissante, compte tenu notamment du fait que la conscience est généralement considérée comme, à chaque moment, le produit unique d'un processus générateur. La présence d'un « chef d'orchestre » paraît indispensable.

Les nombreuses observations menées ces dernières années, tant sur le plan clinique qu'avec les moyens modernes d'imagerie cérébrale, n'étaient pas parvenu à résoudre ce mystère, pas plus d'ailleurs chez l'homme que chez les animaux, lorsque certains d'entre sont soupçonnés d'héberger des formes de conscience épisodique. Il se trouvait cependant que les neurologues Francis Crick (découvreur de l'ADN) et Christof Koch avaient publié en 2005, dans un Bulletin de la Royal Society, un article faisant l'hypothèse qu'il existe dans le cerveau une zone qui pourrait effectivement jouer le rôle du chef d'orchestre recherché 1). Pour eux, il s'agissait du Claustrum ou Avant-mur., dont on trouvera la localisation dans le texte de Wikipédia ci-dessous 2)

Dans le sommaire de cet article (adapté ici), on trouve les précisions suivantes :
« La fonction du claustrum est énigmatique. Son anatomie est tout à fait remarquable en ce sens qu'il reçoit des entrées (input) de toutes les régions du cortex et peut en retour projeter vers elles des retours d'information ". Les auteurs, dans la suite de l'article, formulaient des hypothèses relative aux rapports que pouvait avoir cette structure avec les processus générateurs des perceptions conscientes intégrées. Ils proposaient des expériences susceptibles de vérifier ces hypothèses.

Assez curieusement, aucune de ces expériences ne fut tentée à l'époque. D'une part parce qu'explorer cette partie du cerveau chez un sujet humain vivant était éthiquement très difficile sinon impossible compte tenu des moyens alors disponibles. Mais d'autre part aussi sans doute du fait que Francis Crick ne s'était tourné vers les neurosciences qu'à la fin de sa carrière et n'était pas nécessairement considéré par la communauté comme un chercheur très pertinent. De plus, le rôle qu'avec son collègue il attribuait au claustrum contredisait la majorité des opinions relatives à la conscience, qui étaient et sont restées holistiques, faisant de la conscience comme nous venons de le rappeler un produit émergent de la complexité corticale.

Francis Crick, par ailleurs, avait aussi proposé des hypothèses jugées alors fantaisistes ou du moins intestables, concernant le rôle pour la production d'états de conscience de phénomènes quantiques au niveau des microtubules neuronales. Ces hypothèses sont aujourd'hui étudiées très sérieusement, comme nous l'avions indiqué dans un article précédent. En fait, il aurait été plutôt justifié de considérer Crick comme un neuroscientifiques de génie, ce qui aurait embelli la fin de sa vie.

Enfin une preuve expérimentale?

Les réflexions sur le rôle du claustrum comme générateur premier de la conscience ont reçu ces derniers jours une publicité considérable, à la suite de la publication par le neurologue américain Mohammed Koubeissi de l'Université de Washington, des résultats d'une expérience qui pourrait se révéler décisive, si du moins elle pouvait être reprise à plus grande échelle 3) . Un nombre important d'articles sont apparues depuis sur le web à ce sujet et peuvent être facilement consultés.

La encore, résumons en l'adaptant le sommaire publié par Mohammed Koubeissi et son équipe. Il s'agit d'une observation faite sur une patiente de 64 ans soumise à des implantations d'électrodes profondes destinées à identifier les zones soumises à des accès épileptiques sévères, puis à des stimulations électriques par ce moyen, destinées à réduire les crises. On observera une fois de plus que les implantations d'électrodes dans les cerveaux de personnes épileptiques ont joué ces dernières années un rôle important dans la connaissance du cerveau, ce que l'on ne s'est pas encore décidé à faire concernant des personnes saines.

Or l'une des électrodes avait été placée à proximité du claustrum, ce qui n'avait jamais été fait auparavant. Les chercheurs observèrent alors que des impulsions électriques à haute fréquence produisait une perte de conscience chez la patiente, sans pour autant induire un coma ou simplement un accès de sommeil, non plus que de nouvelles décharges épileptiques. Au plan comportemental, elle cessait de lire ou parler, et sa respiration se ralentissait. Dès que la stimulation cessait, elle reprenait conscience, sans garder souvenir de l'épisode.

L'opération fut répétée plusieurs fois en deux jours et produisit toujours le même résultat. Pour l'équipe, il est évident que le claustrum joue le rôle d'une clef permettant, selon l'image d'une automobile utilisée en l'espèce, de faire démarrer ou arrêter le moteur bien plus complexe du cerveau, afin de produire la conscience.

Différentes hypothèses susceptibles d'expliquer le phénomène observé ayant été éliminées, il resterait à approfondir les explorations électriques et surtout à répéter l'expérience chez un nombre suffisant de patients. Au delà, il faudrait expliquer en détail ce qui se passe au niveau des neurones du claustrum et des influx nerveux émis ou reçus. Bien que le claustrum soit d'une taille bien plus réduite que celle du cerveau, il n'y a pas de raisons pour que les processus neurologiques y soient différents.

Or, l'on retrouve la la grande difficulté des neurosciences. Comment traduire des observations portant sur des phénomènes visibles en modèles expliquant en profondeur ce que sont les pensées, les décisions et toutes autres opérations relatives à l'état de conscience. Nous avons plusieurs fois signalé que sur ce sujet, pratiquement encore inexploré de façon sérieuse, notre ami Alain Cardon a proposé des hypothèses informatiques, reprises dans ses ouvrages en libre accès sur notre site, qui n'ont pu encore malheureusement être programmées dans le détail afin d'être démontrées.

Les réseaux de neurones artificiels

Pour ce qui nous concerne, nous pouvons observer que, venant d'une toute autre direction, des hypothèses intéressantes sont actuellement formulées par des chercheurs s'intéressant aux capacités des neurones artificiels (notamment Emmett Redd et Steven Younger de la Missouri State University) .Certaines architectures de tels neurones pourraient selon eux permettre de créer de super-ordinateurs, capables de tâches actuellement impossible à tous les ordinateurs existants, fussent-ils quantiques. Il s'agirait de fonctions qui échapperaient aux traitements logiques, et ne seraient pas limitées par le mur du principe d'incomplétude de Gödel. 4)

Pourquoi en ce cas ne pas imaginer que l'évolution ait pu doter les claustrums d'architectures neuronales de cette nature. Ce qui pourrait expliquer les propriétés absolument spécifiques de la conscience dans la génération des idées créatrices. 5)

Références

1) Crick et Koch http://rstb.royalsocietypublishing.org/content/360/1458/1271

2) Claustrum, Wikipedia http://fr.wikipedia.org/wiki/Claustrum

3) Koubeissi et al.
http://www.sciencedirect.com/science/article/pii/S1525505014002017

4) Michael Brooks « Turing's oracle: The computer that goes beyond logic » Newscientist, 19 juillet 2014 http://www.newscientist.com/article/mg22329780.400-turings-oracle-the-computer-that-goes-beyond-logic.html

5) Voir aussi ici le commentaire du Pr F. Bartolomei, co-auteur de l'étude et chef du service de neurophysiologie à l'hôpital de La Timone (Marseille)
http://www.sciencesetavenir.fr/sante/20140708.OBS3088/claustrum-un-interrupteur-de-la-conscience-experience.html

Partager cet article

5 août 2014 2 05 /08 /août /2014 19:22


Jean-Paul Baquiast 03/08/2014

image Newscinentist

Selon la théorie quantique, constamment vérifiée expérimentalement, une particule individuelle, par exemple un neutron, dispose d'une superposition d'état. Ainsi, en ce qui concerne le spin 1) d'une telle particule, celui-ci peut à la fois prendre une valeur de 1 ou un valeur de ½. Ou bien une valeur une valeur de +1 et une valeur de -1. Mais le phénomène ne peut être observé (mesuré) expérimentalement, à partir d'un neutron individuel, en utilisant un appareil de laboratoire qui lui relève de la physique ordinaire. En effet, la mesure « réduit la fonction d'onde » décrivant cette particule et ne fait apparaître que certains des aspects de celle-ci, au détriment de tous les autres. Par exemple, en ce qui concerne le spin du neutron, elle ne fera apparaitre qu'une valeur de 1 ou une valeur de ½, mais non les deux valeurs simultanément. Ce type de mesure, s'appliquant à une particule individuelle, est dite mesure forte (strong measurement)

Ceci dit, dans une publication datée de 1988, le physicien israélien Yakir Aharonov avait montré qu'une forme de mesure différente ne détruisait pas l'état quantique de superposition de la particule. Mais il fallait que cette mesure interagisse très faiblement avec la particule. Ce type de mesure a été nommée mesure faible, « weak measurement ». L'inconvénient du procédé est que les résultats de la mesure étaient affectés d'une très grande incertitude. En pratique, concernant la particule individuelle, on retrouvait donc le principe d'incertitude de la théorie quantique.

Mais Aharonov a montré qu'en procédant à des mesures faibles sur un ensemble de particules identiques, produites par une technique appropriée, ces mesures produisent une courbe en cloche dont le sommet décrit l'état de cet ensemble de particules, autrement dit, puisqu'il s'agit de particules identiques, l'état de l'une de ces particules. Rappelons que lorsque l'on observe, dans un appareil macroscopique, un flux d'un très grand nombre de particules, on obtient des résultats statistiques moyens qui permettent d'utiliser ce flux dans telle ou telle tâche. Mais ces résultats n'indiquent rien sur l'état de chacune des particules individuelles.

A quoi pouvait donc servir la mesure faible prévue par la théorie? Dans les dernières années, de telles mesures faibles ont pu être faites expérimentalement. Elles ont permis d'étudier des aspects du monde quantique jugés précédemment inobservables. Notamment comme l'a montré Jeff Lundeen de l'Université d'Ottawa, de mesurer la fonction d'onde décrivant un grand nombre de photons identiques. Pour la raison précédemment évoquée, si ces photons étaient identiques, il devenait donc possible de mesurer indirectement la fonction d'onde de chacun de ceux-ci, en lui attribuant une valeur précise et non plus probabiliste. 2)

Le Chat de Cheshire

Un certain nombre d'applications de ces hypothèses ont été faites récemment. L'une d'entre elle, conduite par une équipe autrichienne à l'Institut Laue Langevin de Grenoble, a paru mettre en évidence une propriété suggérée par la mathématique mais non encore expérimentalement démontrée: le fait que des flux de particules, en l'espèce des neutrons, préparés de façon à ce qu'ils disposent d'un spin identique, puissent après avoir été soumis à des mesures faibles, donner naissance d'un côté à des spins sans neutrons et d'un autre à des neutrons sans spins, autrement dit que les particules pouvaient être, le temps de l'expérience, séparées de leurs propriétés quantiques. Les théoriciens avaient nommé cette propriété le « chat de Cheshire » par référence au sourire du chat d'Alice au pays des Merveilles, lequel sourire pouvait être observé indépendamment du chat.3)

A Grenoble, l'équipe a utilisé un interféromètre produisant des champs magnétiques faibles (voir schéma). Il est apparu, au terme d'un expérience que nous ne décrirons pas ici, que sur l'une des branches de l'interféromètre se trouvaient des spins sans neutrons et sur l'autre des neutrons sans spins, l'ensemble se recombinant à la sortie de l'appareil. Autrement dit, il était confirmé que les spins sans neutrons avaient choisi un chemin et les neutrons sans spins un autre. Le chat avait été séparé de son sourire.

Cette expérience a déjà donné naissance à de nombreuses hypothèses et expériences relatives à ce que pourrait être « en réalité » la « réalité quantique ». Certaines suggèrent qu'elles confirment le fait que dans le monde quantique, le temps pourrait s'écouler dans les deux sens, du passé vers le futur et réciproquement.

Ainsi un événement futur pourrait être la cause d'un événement passé. Tous les théoriciens n'admettent pas cette conclusion. Cependant les spécialistes du calcul quantique espèrent pouvoir donner au phénomène du chat de Cheshire des applications utiles à la mise au point de calculateurs quantiques produisant moins d'incertitude. Le phénomène permettrait en effet de séparer les propriétés des particules des particules elles-mêmes, afin de réaliser des calculateurs quantiques plus stables que ceux existants actuellement, trop soumis aux interférences avec le monde macroscopique.

Nous n'en dirons pas plus long ici, sauf à conclure, d'une façon bien peu originale, que le monde quantique qui se révèle tous les jours est encore plus étrange que ne l'affirme sa réputation

Du chat aux pigeons
Voir image (Newscientist)

Aharonov et les équipes développant les hypothèses résumées ci-dessus ne s'en sont pas tenues au paradoxe du chat de Cheshire. Ils ont étudié les conséquences de celles-ci, concernant les effets de la « mesure faible » sur l'état des particules observées. Ils viennent de publier un article (4) étendant leur approche au problème, sans doute infiniment plus complexe et en tous cas contre-intuitif, de l'intrication entre deux particules.

Les pères fondateurs de la mécanique quantique avaient indiqué, à la grande incrédulité d'Einstein, que si deux particules étaient émises de façon à les doter d'un même état quantique, par exemple le spin, elles se comporteraient comme une particule unique. Elles ne pourraient donc pas être décrites individuellement. Toute mesure du spin de l'une affectera le spin de l'autre, même si cette dernière se trouve à l'autre extrémité de l'univers. D'où la conclusion généralement admise aujourd'hui, selon laquelle l'univers quantique n'a que de lointains rapports avec l'univers physique.

Or les récentes hypothèses présentées par les auteurs de l'article élargissent considérablement le concept d'intrication. Celle-ci, selon la théorie quantique, doit avoir été préparée entre deux particules sélectionnées soit en laboratoire, soit dans le cadre d'un phénomène naturel rare. Il en résulte que l'intrication n'affecte qu'un nombre très restreint de particules dans l'univers. Dans la nouvelle hypothèse, Aharonov et ses collègues ont montré que le mécanisme baptisé par eux du nom de post-sélection pouvait intriquer l'état de deux particules, chaque fois que leurs propriétés quantiques étaient mesurées, et ceci où qu'elles se trouvent dans l'univers. Le terme de post-sélection signifie que les propriétés d'un système à un temps t peuvent être influencées par des mesures faites dans le futur, à un temps t+1.

Qu'est-ce que la post-sélection? Il s'agit d'un dispositif inspiré de l'interféromètre mentionné en début de cet article. Si l'on envoie trois électrons simultanément dans l'interféromètre, celui-ci sépare chaque électron en deux, selon deux voies suivies en parallèle, puis il les réunit à nouveau. Si alors on mesure l'état des électrons à leur sortie de l'interféromètre, en les sélectionnant dans un état différent de celui qu'ils avaient en entrant dans la machine, l'on crée un lien quantique, autrement dit une intrication, entre ces électrons. Autrement dit, la post-sélection influence les états passés de ces électrons.

Pour le montrer, il faut préciser comment les électrons se comportent dans le système. La superposition d'état, autre propriété des particules quantiques, signifie que chaque électron peut se retrouver à l'identique dans les deux chemins simultanément. Si deux électrons partagent le même chemin, leurs charges électriques identiques les repoussent, ce qui infléchit leur trajectoire, même légèrement. Cette inflexion est détectée à la sortie de l'interféromètre. Du fait de la superposition, rien ne permettrait d'affirmer que tel électron se trouve dans telle branche ou dans l'autre. Mais si l'on mesure (post-sélection) les chemins de l'une ou l'autre des deux paires d'électrons, aucune déflexion n'est détectable. Un lien existe donc entre les électrons. Chacun d'eux connait l'emplacement de l'autre et l'évite.

D'où l'image des pigeons, ou du pigeonnier quantique. L'on peut avoir trois pigeons dans deux pigeonniers, et pourtant aucun pigeonnier ne comportera deux pigeons. Ceci d'ailleurs quelque soit le nombre des pigeons. Même avec un millier de pigeons, il n'y en aura toujours qu'un dans chacun des deux pigeonniers. Cet effet constitue la façon la plus simple de tester l'idée que des particules non corrélées peuvent se trouver intriquées simplement parce qu'elles ont fait l'objet d'une post-sélection.

Or comme les mesures correspondantes se produisent en permanence, soit du fait des humains, soit pour des causes naturelles, les particules mesurées se retrouvent intriquées, fussent-elles réparties n'importe où dans l'univers, et ceci sans avoir fait l'objet d'une préparation préalable. En conclura-t-on que toutes les particules de l'univers peuvent se retrouver intriquées, sans avoir été préparées à l'avance? Théoriquement, l'hypothèse paraît plus que crédible, dans les termes où l'expérience de pensée est formulée.

Encore faudra-t-il qu'une expérience réelle soit réalisée, sans doute en utilisant l'interféromètre précédent, et les « mesures faibles » précédemment décrites. Ceci ne devrait pas tarder, si la question continue à être explorée. En fait la nouveauté dans ces affaires repose sur le concept de mesure faible. Va-t-elle remplacer dans la pratique la mesure forte traditionnelle. Et que devient en ce cas de l’image que l’on peut se donner des particules, qu’il s’agisse d’électrons ou de neutrons ou de tout autre ensemble microscopique. Sont-elles soumises à indétermination, si celle-ci dépend du type de mesure auquel l’on procède?

Les physiciens, cosmologues et philosophes ne manqueront pas d'y réfléchir. Cette nouvelle propriété de l'intrication entre particules pourrait expliquer pourquoi l'univers fonctionne comme un immense ordinateur quantique, selon l'hypothèse de Seth Loyd.

Quant aux artistes, l'un d'eux très vite sans doute nous montrera comment nous pourrions nous représenter un pigeon de Cheshire.

Sources

1) Le spin d'une particule est son moment angulaire intrinsèque, ou le sens de rotation de cette particule. Le spin est une propriété quantique, il ne peut prendre que des valeurs entières ou demi-entières.
2) voir Direct measurement of the quantum wavefunction
3) voir Observation of a quantum Cheshire Cat in a matter wave interferometer experiment
4) voir The quantum pigeonhole principle and the nature of quantum correlations
5) Sur l'ensemble de ces thèmes, voir NewScientist Quantum split: Particle this way, properties that way, ainsi que Pigeon paradox reveals quantum cosmic connections

Partager cet article

20 juillet 2014 7 20 /07 /juillet /2014 13:44

Nous avions signalé en son temps (2012-2013) le lancement par la Commission européenne d'un projet visant à simuler le cerveau humain sur ordinateur. L'objectif était d'approfondir à cette occasion les fonctions du cerveau, depuis le rôle des neurones corticaux jusqu'aux activités cognitives les plus élaborées. Il s'agissait du Human Brain Project (HBP).

Le HBP est l’un des deux projets scientifiques d’envergure que l’Union Européenne avait décidé de soutenir en 2013 dans le cadre du projet FET Flagship (Future and emerging technologies), un programme d’innovation et de recherche de la Commission. Il est susceptible de recevoir jusqu’à 500 millions d’euros de fonds européens sur une période de dix ans, à condition que les États ou l’industrie les cofinancent à la même hauteur. Il sera ainsi doté d'environ 1 milliard d'euros sur 10 ans.

Le HBP rassemble (en principe) des centaines de chercheurs et des dizaines de laboratoires, provenant d'un grand nombre de pays européens ou non européens. Il a été initié par le professeur Henry Markram de l'EPFL (Ecole polytechnique fédérale de Lausanne) qui continue à le diriger. Il vise à simuler en détail un cerveau humain sur un superordinateur de la marque IBM d’ici 2023, afin de mieux comprendre comment le cerveau fonctionne et améliorer les applications en neurosciences et en médecine. Le projet représente pour IBM une référence très importante, venant dans la suite de son initiative précédente, le Blue Brain Project.

Dans le même temps, nous avions signalé que le président OBAMA annonçait un projet de même envergure, BRAIN, mais beaucoup plus orienté que le HBP sur l'étude fonctionnelle et clinique du cerveau et de ses dysfonctionnement. Il est piloté par les National Institutes of Health. Les deux projets, après deux ans de travail, envisagent actuellement de mieux échanger leurs acquis.

Or l'on vient d'apprendre qu'une véritable rébellion vient d'éclater au sein du projet.HBP. Des centaines de chercheurs ont publié, sur le site neurofuture.eu une pétition demandant non seulement un audit contradictoire du projet, mais une réorientation en profondeur. Sous les propos diplomatiques, on devine que les neuroscientifiques, au sein du HBP, revendiquent d'être mieux associés au pilotage.

Selon des conversations téléphoniques que nous avons eu avec certains d'entre eux, ils critiquent l'orientation essentiellement technologique imposé au projet par Henry Markram, l'EPFL et, en sous mains mais très activement, par IBM. Selon les neuroscientifiques concernés, le projet doit viser non pas à seulement construire une maquette sur ordinateur du cerveau, mais à comprendre comment il fonctionne et comment traiter ses dysfonctionnements. Pour cela il faut recourir à des observations globales, notamment cliniques, en liaison avec les simulations informatiques

Pour ne pas paraître attaquer hors de propos un des rares projets de recherche financés par l'Europe, nous n'avions initialement évoqué ces points qu'avec prudence. L'expérience nous donne raison. La simulation sur ordinateur d'un cerveau, surtout si en fait il s'agit pour le moment d'une mini-colonne de cortex de rat, ne peut absolument pas faire apparaître ce qui se passe dans le cerveau humain, fut-ce même au niveau d'une mini-colonne de cortex. Les fonctions essentielles remplies notamment par les neurones de liaison entre aires cérébrales ne peuvent en aucun cas être représentées.

De plus, les chercheurs ne peuvent retranscrire sur le modèle que ce qu'ils voient, et encore faut-il tenir compte du fait que ne sachant pas exactement ce qu'il faudrait découvrir, ils ne pourraient que reproduire ce qu'ils savent déjà. Le processus proposé par Markram et IBM est semblable à celui consistant, pour comprendre à grande échelle les courants marins affectant la Manche, à simuler sur ordinateur quelques mètres linéaires de côte ou quelque mètres carrés de fonds.

Les neuroscientifiques en révolte ne nient pas l'intérêt d'un modèle informatique. IBM a produit sur ce thème des images spectaculaires de la complexité d'une mini-colonne corticale. Mais il faudrait, plutôt que mettre tous les moyens disponibles au service de ce seul objectif, multiplier les approches fonctionnelles globales, en les superposant, le cas échéant dans un désordre créateur, aux simulations informatiques.

La direction du HBP s'était engagée à le faire, mais l'essentiel des ressources du projet restent accaparées par la construction d'un bel outil technologique, dont l'intérêt scientifique demeurera longtemps limité. En effet dans la voie technologique, ce seraient au minimum les dizaines de milliards d'un cortex humain qu'il faudrait simuler. La tâche est évidemment impossible pour le moment, tous les ordinateurs d'IBM n'y suffiraient pas.

Plus en profondeur, rappelons que, quitte à simuler le cerveau sur ordinateur, il faudrait reprendre les voies proposées par Alain Cardon, dans le cadre de ses recherches sur la conscience artificielle. L'Intelligence Artificielle de type évolutionnaire permet aujourd'hui d'aborder les fonctions et les organes sous-jacents du cerveau par grands ensembles, puis de laisser jouer les mécanismes de compétition darwinienne entre eux sur un réseau de mini-ordinateurs. Le processus génère de nombreuses hypothèses différentes, dont il reste à tester la pertinence avec des cliniciens ou des psychologues. Les coûts de telles recherches ne dépasseraient pas quelques millions, consacrés à la programmation d'analyses fonctionnelles déjà réalisées par Alain Cardon. Mais celui-ci n'a pu jusqu'à ce jour susciter l'intérêt d'éventuels contributeurs. N'est pas suisse et IBM qui veut.

Nous ne pouvons ici entrer dans le détail des critiques ayant fait l'objet de la pétition, ni des débuts de réponse apportées. Les liens suivants permettront aux curieux de le faire.

* HBP https://www.humanbrainproject.eu/

* Brain Initiative Brain Research through Advancing Innovative Neurotechnologies (BRAIN) http://www.nih.gov/science/brain/

* Open message to the European Commission concerning the Human Brain Project July/7/2014
http://www.neurofuture.eu/

Summary: Neuroscience advances our understanding of normal and pathological brain function, offering potentially enormous benefits to society. It is, therefore, critical to Europe. The Human Brain Project (HBP), sponsored by the European Commission (EC), was meant to forward this mission. However, due in great part to its narrow focus, it has been highly controversial and divisive within the European neuroscience community and even within the consortium, resulting in on-going losses of members. The HBP is now scheduled for review and we wish to draw the attention of the EC to these problems. We believe the HBP is not a well conceived or implemented project and that it is ill suited to be the centerpiece of European neuroscience. We are particularly concerned about the plan to tie a substantial portion European member states’ neuroscience funding to the HBP through so-called ‘partnering projects’. We call for the EC to go beyond the strict requirements of the upcoming review, to demand transparency and accountability and, if necessary, change the structure of the HBP’s governance and supervision to correct their shortcomings. Failing that we call for the EC to redirect the HBP funding to smaller investigator-driven neuroscience grants. We stand fully behind a strong and united European neuroscience strategy and we pledge not to seek funding through HBP partnering projects that would compromise that mission.

* Réponse de la Commission Official Response by the EC - 18 July 2014 No single roadmap for understanding the human brain
https://ec.europa.eu/digital-agenda/en/blog/no-single-roadmap-understanding-human-brain

* Commentaire de Neuroscience Programme http://neuro.fchampalimaud.org/en/news/130/
Human Brain Project: Neuroscientists across Europe are raising a red flag.
In an Open Letter to the European Commission (EC), neuroscientists express their concern about the current course of the Human Brain Project (HBP) and call for the EC to examine closely both the scientific policy and management of the HBP prior to its renewal. The HBP was launched two years ago by the EC as a European “Future Emerging Technology Flagship.” The HBP leadership presented a bold vision of a large-scale collaborative project that will span over one hundred neuroscience and technology groups across the world, all working together towards understanding the human brain. However, due to the projects’ narrow focus, the HBP has been highly controversial and divisive within the European neuroscience community and even within the consortium, resulting in on-going losses of members.
A formal review of the HBP is now scheduled to evaluate the success of the project’s ramp-up phase and the plan for the next phase. At stake is funding on the order of 50M€ per year European Commission for the “core project” and 50M€ in “partnering projects” provided largely by the European member states’ funding bodies.
Many international neuroscientists, including both HBP members and non-members are now calling for this review to be performed in a very critical manner.
“We want the public and the government to know that we believe collaborative research in neuroscience can yield great benefits to human well-being but that the Human Brain Project does not provide what is needed to achieve that.”, explains Zachary Mainen, HBP member and Director of the Champalimaud Neuroscience Programme, in Lisbon, Portugal. Neuroscientists composed an open letter that describes both their support of this project and their concern about the course it is taking under the current management. In this letter, they recommend certain criteria to be taken in order to insure the future success of the project. “If we don’t wake up and address this situation by insisting on transparent, accountable and representative structures to support large-scale research efforts then we will fail to reach our goals and compromise the legacy that we might have achieved.”, concludes Mainen. In the event that the EC is unable to adopt the recommendations proposed in the Open Letter, the undersigned pledge not to apply for HBP partnering projects and will urge other scientists to join them in this com
mitment.

* Réponse de la direction du HBP. https://www.humanbrainproject.eu/documents/10180/17646/HBP-Statement.090614.pdf

* Commentaires de La Tribune de Genève http://www.tdg.ch/geneve/actu-genevoise/Petition-contre-le-Human-Brain-Project/story/15828686
Dans une lettre adressée lundi à la Commission européenne, quelque 130 scientifiques menacent de boycotter le Human Brain Project. La recherche dirigée par l’EPFL a pour but de modéliser entièrement le cerveau humain sur ordinateur. 24 heures après le lancement de la protestation, on s'approchait de 300 soutiens dont la liste figure sous le document en ligne www.neurofuture.eu, dans lequel ils contestent les options scientifiques du projet à un milliard d’euros, et sa gestion financière. Parmi les signataires, on relevait lundi dix représentants de l’Université de Genève, pourtant associée au projet qui doit s’installer au Campus Biotech de Sécheron.
Le HBP suscite «un grand malaise en Suisse et en Europe», a indiqué lundi Richard Hahnloser, professeur de neurosciences à l'EPFZ et à l'Uni de Zurich, sur les ondes de la RTS, qui a révélé l'information. Il parle d'un «bâtiment plein de promesses mais sans contenu réel». «Quel avantage y a-t-il à faire une simulation pareille alors qu'on arrive même pas à simuler un ver de terre qui a seulement 300 neurones», s'est-il interrogé. Le chercheur craint que le projet n'accapare tout l'argent dévolu aux neurosciences en Europe.
Le HBP, initié par le professeur Henry Markram, vise à simuler en détail un cerveau humain sur un superordinateur d’ici 2023, afin de mieux comprendre comment il fonctionne et d’améliorer les applications en neurosciences et en médeci
ne.

Voici enfin nos articles précédents sur le sujet
* Le projet Blue Brain et le programme européen Human Brain Simulation project (HBSP)
http://www.automatesintelligents.com/echanges/2011/jan/hbsp.html

* Human Brain Project, un grand projet européen sur le cerveau humain http://www.automatesintelligents.com/edito/2013/fev

Partager cet article

15 juin 2014 7 15 /06 /juin /2014 08:22

Transférer les contenus de mémoire d'un cerveau à l'autre
Jean-Paul Baquiast 13/06/2014

Cet intitulé fait allusion à des expériences menées actuellement avec succès chez le rat mais qui pourraient être étendues à l'homme. L'objectif en est d'abord thérapeutique. Il s'agit de réhabiliter le cerveau de personnes ayant subi certaines formes d'attaques cérébrales ou maladies dégénératives empêchant ledit cerveau de transférer le contenu d'une aire cérébrale donnée A à une autre B, ces aires cérébrales elles-mêmes n'étant pas atteintes. On se trouve en ce cas dans une situation analogue à celle de deux personnes ne pouvant plus avoir d'échanges téléphoniques, la ligne téléphonique les reliant ayant été coupée.

En théorie, la solution à ce problème est simple. Il faut enregistrer dans l'aire A, par un dispositif électronique externe, le contenu de mémoire à transférer et le réinjecter dans l'aire B, en court-court-circuitant la partie malade. L'opération doit être faite dans les deux sens, de façon à ce que se rétablisse un dialogue entre les aires cérébrales intéressées. Les processus permettant un tel transfert à l'intérieur du cerveau d'une personne donnée étant mis au point, on peut envisager d'étendre le transfert de cette personne à une autre. On enregistrera le contenu de l'aire A d'une première personne et on le réinjectera dans l'aire B d'une autre personne...Le dispositif électronique en charge de cette opération rendra possibles différentes solutions augmentant l'intérêt du transfert: relier des cerveaux séparés par de grandes distances, mémoriser les contenus pendant un temps indéterminé, éventuellement construire des bases de données de contenus.

Aujourd'hui l'on sait réaliser les bases élémentaires de cette opération, mais dans un seul sens. Ainsi il est possible d'obtenir en sortie la commande d'un bras robotique par l'intermédiaire de la lecture dans le cerveau des instructions cérébrales données par le patient, et du transfert de ces instructions à la machine. Dans l'autre sens, c'est-à-dire en entrée, il est possible de faire pénétrer dans le cerveau des informations provenant d'un dispositif électronique de lecture, afin de les rendre utilisables par ce cerveau. Il en est ainsi des implants cochléaires en matière d'audition et de certains dispositifs externes permettant de suppléer à une vision défaillante. Mais dans ces divers cas, les données émises ou reçues par le cerveau sont relativement simples et bien identifiées, tant concernant les messages électroniques que les aires cérébrales et associations de neurones susceptibles de les traiter.

Concernant les transferts de contenus de mémoire, le problème à résoudre n'est pas très différent, en termes de circuiterie, électronique ou neurologique, de celui consistant à recueillir en entrée ou en sortie des instructions motrices ou sensorielles. Dans les deux cas, il faut utiliser des capteurs externes (casques) permettant de recueillir ou de créer ce que l'on appelle les ondes cérébrales. Comme ces capteurs externes sont aujourd'hui encore très rudimentaires, il a fallu se résoudre à mettre en place des implants cérébraux, sous forme de sondes de moins en moins invasives et de plus en plus sensibles, assurant la connexion avec des groupes de neurones, voire avec des neurones individuels. La chose ne pose pas en principe de problèmes éthiques quand il s'agit d'animaux. Ce n'est évidement pas le cas en ce qui concerne les humains. Les techniques utilisées se perfectionnent cependant tous les jours. Nous ne les évoquerons pas ici.

Contenus de mémoire

Mais la véritable difficulté provient de la complexité et même de l'obscurité s'attachant aux mécanismes correspondant à ce que l'on appelle la mémoire, que ce soit chez l'animal ou chez l'homme. D'abord, il existe différentes sortes de mémoire, mémoire de travail, mémoire à long terme...Il faut choisir le type de mémoire à laquelle on s'attachera. D'autre part et surtout, la mémoire fait intervenir des milliards de neurones et des centaines d'aires cérébrales réparties dans le cerveau. Comment identifier le ou les neurones responsables d'un contenu de mémoire particulier? Comment faire apparaître la façon par laquelle ils se conjuguent pour constituer des paysages mémoriels complexes? Comment s'assurer que les combinaisons ainsi obtenues, valables pour un individu, pourront être reconnues et utilisées par un autre?

Ceci d'autant plus que les mémoires immédiates ne prennent de sens qu'après confrontation dans le cerveau avec les contenus cognitifs et culturels correspondants à des mémoires à long terme, variant nécessairement d'un individu à l'autre, ayant mis par ailleurs plusieurs dizaines d'années à se construire et se trouvant pour la plupart hors de portée d'une prise de conscience dite volontaire.

Il se trouve cependant que les mémoires à long terme se forment en passant par une sorte de gare de triage qui est l'hippocampe. L'hippocampe (source wikipedia) est une structure du cerveau des mammifères. Il appartient notamment au système limbique et joue un rôle central dans la mémoire et la navigation spatiale. Chez l'homme et le primate, il se situe dans le lobe temporal médian, sous la surface du cortex. Comme le cortex avec lequel il est en étroite relation, c'est une structure paire, présente de manière symétrique dans chaque hémisphère L'hippocampe a été très étudié chez le rongeur pour son implication dans les systèmes de l'inhibition du comportement, de l'attention, de la mémoire spatiale et de la navigation. Une des conséquences d'une lésion à l'hippocampe sur le comportement du rat est l'augmentation de l'activité (déplacement, exploration, etc.). Beaucoup des cellules de l'hippocampe du rat ou de la souris répondent comme des cellules de lieu : elles émettent des trains de potentiel d'action lorsque l'animal passe à des endroits précis de son environnement. Ces cellules de lieu interagissent fortement avec des cellules codant pour la direction de la tête dans l'espace et avec les cellules de grille du cortex entorhinal voisin et sont supposées jouer un rôle clé dans la navigation spatiale (formation de carte cognitive).

MIMO

Dans ces conditions, si l'on place des électrodes dans l'hippocampe du cerveau d'un rongeur (ou de tout autre animal), il devient possible de recueillir les traces électriques de potentiels d'action. On peut également, à l'inverse, y injecter des messages électriques générant de tels potentiels. Mais ceci ne suffit pas pour identifier les contenus sémantiques des messages circulant dans l'hippocampe, d'autant plus que ceux-ci sont très nombreux et peu diversifiés. Cependant, dans les années 1990, le Pr. Theodore Berger de l'Université de Sud Californie eut l'idée fondatrice de faire appel à une technique dite multi input/multi output (MIMO) .

Celle-ci est utilisée dans les réseaux sans fil et les réseaux mobiles pour permettre des transferts de données à plus longue portée et à plus grande vitesse qu’avec des antennes utilisant la technique SISO (Single-Input Single-Output). Elle permet aussi d'éliminer les bruits de fond et messages parasites. Nous pouvons à cette occasion faire remarquer les gains qu'apportent les approches inter-disciplinaires, ici entre les neurosciences et les télécommunications. Si elles pouvaient être généralisées, il en résulterait sans doute et à moindre coût des découvertes surprenantes.

Theodore Berger a montré que par l'utilisation de MIMO en neurosciences, il pouvait identifier des messages significatifs au sein du bruit formé dans l'hippocampe par des millions de neurones déchargeant simultanément. Ces messages recueillis par une sonde pouvaient ensuite être réinjectés dans l'hippocampe d'un autre animal et produire le même résultat que celui produit dans le cerveau de l'animal initial.

Ces résultats furent appliqués chez des rats. Berger, avec les Pr. Deadwyler et Hampson, purent recueillir les contenus de mémoires de rats entrainés à accomplir des tâches déterminées. Ces contenus réinjectés dans le cerveau d'un rat ainsi entraîné, puis drogué afin qu'il perde l'accès à sa mémoire antérieure, permettaient au rat de retrouver les comportements appris. La même chose se produisait d'un rat à un autre, le contenu de mémoire d'un rat entrainé, injecté dans le cerveau d'un rat vierge, permettait à celui-ci de faire appel aux compétences acquises par le premier.

Un champ illimité

Ultérieurement, les chercheurs ont utilisé ces procédures pour explorer les mémoires bien plus complexes de macaques témoins et transférer les connaissances acquises par l'un des macaques à d'autres. Le champ de telles recherches est pratiquement illimité, comme l'on devine. Mais les expériences visant chez l'homme à réparer les processus de transmission de contenus de mémoire d'une aire cérébrale à l'autre se poursuivent en priorité, puisque la demande est considérable.

Aujourd'hui, l'on envisage d'introduire à demeure dans les cerveaux des puces dotées des électrodes adéquates qui rétabliraient des ponts entre aires cérébrales intervenant dans des fonctions essentielles. Une puce dans l'hippocampe permettrait de restaurer la capacité de former des mémoires à long terme. Une autre entre les aires de Broca et de Wernicke restaurerait les fonctions langagières. Une autre enfin dans le cortex préfrontal faciliterait les opérations, il est vrai bien plus difficiles à modéliser, intéressant la prise de décision et le contrôle de leur exécution.

Les chercheurs participant à ces travaux estiment avoir commencé à « casser » le code de communication interne du cerveau. Il ne s'agit pas, répétons-le, d'identifier les réseaux neuronaux reliant les aires cérébrales entre elles, ou avec d'autres parties du corps. Cet inventaire est, dans l'ensemble, déjà réalisé. Il s'agit de comprendre les connaissances, autrement dit les contenus de sens que transportent ces cerveaux, le cas échéant en utilisant des langages sociaux préalablement acquis. Ceci afin de communiquer directement avec eux, ou leur permettre de communiquer les uns avec les autres via des prothèses.

Un projet dit Restoring Active Memory (RAM) financé par la Darpa, l'Agence de recherche du Pentagone, fait actuellement l'objet d'appel à propositions et à contributions extérieures. Il devrait permettre d'améliorer les connaissances concernant les divers thèmes évoqués ici. Les militaires blessés pourront en bénéficier, mais il est vraisemblable que d'autres applications, couvertes par le secret défense, seront aussi développées. Il s'agit en effet d'un sujet qui sera de plus en plus sensible à l'avenir.

Pour en savoir plus
* Sur l'ensemble du sujet, voir l'article de Sally Adee, « The memory fix », Newscientist, 7 juin 2014
* Sur l'expérience concernant les rats, voir Journal of Neural Engineering, vol 10, p 066013).(accès soumis à conditions)

Partager cet article

15 juin 2014 7 15 /06 /juin /2014 08:21


Jean-Paul Baquiast 14/06/2014

Le concept de Singularité a été développé pour désigner l'état initial de notre univers lorsque l'on remonte à l'envers l'histoire des différents états qu'il aurait traversé après le supposé Big Bang. Dans la cosmologie reposant sur la conception de la gravité qui découle de la théorie de la relativité générale, présentée par Einstein, les corps exercent les uns sur les autres une force de gravité (ou d'attirance mutuelle) en fonction de leur masse et de leurs distances. Si la distance s'accroit, comme le suggèrent les théories de l'expansion, l'attraction gravitationnelle diminue. Si au contraire cette distance diminuait, parce que l'univers subissait à un certain moment de son évolution une force de contraction, l'attraction gravitationnelle deviendrait infinie. C'est ce qui avait été symbolisé par le concept de « Big Crunch » ou grand écrasement, l'opposé du Big Bang.

Les physiciens admettent généralement que l'état de l'univers précédant le Big Bang ou résultant d'un Big Crunch menée à son terme, ne peut être décrit par les paramètres de la physique macroscopique, c'est-à-dire de la physique einsténienne. L'espace-temps se réduit au point que l'espace et le temps tels que nous les connaissons disparaissent. Il en est de même des échanges entre ondes et particules générant les diverses radiations qui façonnent l'univers actuel. Mais alors qu'en dire? On ne peut pas se borner à constater que ces questions sont trop complexes pour que notre cerveau, en son état actuel, les comprenne. On ne peut pas non plus se renvoyer, comme les 9/10 des populations actuelles, aux textes religieux. La science s'est donc tournée vers la physique quantique.

Celle-ci décrit un univers quantique aux propriétés bien étudiées aujourd'hui, dont nous constatons tous les jours la « réalité », si l'on peut dire, mais qui sont bien particulières. Le temps et l'espace n'y existent plus, les entités quantiques onde-particule, ne peuvent être décrites que par des formules statistiques (la fonction d'onde), elles peuvent se superposer ou se lier (intrication) d'une façon inexplicable par la physique macroscopique.

L'univers quantique primordial est généralement résumé aujourd'hui par le concept de vide quantique. Celui-ci n'est pas vide, il est constitué d'un milieu extrêmement dense et énergétique, parcouru de fluctuations. De quoi s'agit-il? L'équation E=mc2 traduit l'équivalence entre masse et énergie. Donc en empruntant de l'énergie au vide il est possible de créer des particules dotées de masses. Ce mécanisme est à l'origine de l'apparition de paires de particules virtuelles.

Le vide parait rempli de particules virtuelles apparaissant pendant un temps très bref avant de disparaître. On peut les constater dans l'effet dit Casimir. Plus généralement, on considère que les fluctuations du vide quantique peuvent donner naissance à des germes d'univers dits bulles d'univers, se développant dans la cadre de la physique macroscopique. Notre univers serait né d'une de ces bulles. A ce stade, il s'agit évidemment d'hypothèses. Mais elles sont à la source d'une autre hypothèse aujourd'hui très populaire, celle du multivers.

Le concept de vide quantique n'est cependant pas considéré par les physiciens comme suffisant à définir ce qu'aurait pu être le milieu précédant le Big Bang. Depuis de nombreuses années déjà, les théoriciens essayent d'élaborer des modèles résultant d'une synthèse à réaliser entre gravité et mécanique quantique. Il s'agit de ce qui a été nommé la gravitation quantique. La version la plus étudiée à ce jour est la théorie des cordes. Elle a suscité de nombreux travaux, provenant de très nombreux chercheurs, dont certains y ont gagné une grande renommée.

Mais les types de milieu primordial que propose la théorie des cordes sont en très grand nombre. Ses hypothèses ne disent rien de précis en ce qui concerne les origines de l'espace et du temps. Aucune par ailleurs ne suggère d'expérinces vérifiables par les instruments actuels, même si leurs auteurs annoncent régulièrement pouvoir le faire.

L'une des théories jugées aujourd'hui la plus convaincante est cependant la gravitation quantique à boucle (Loop quantum gravity, LQG)) dont le physicien Lee Smolin s'est fait depuis longtemps le défenseur. Pour elle, l'espace présente une structure discrète (par opposition au continuum espace-temps de la relativité générale) : les aires et les volumes d'espace sont quantifiés. La notion d'espace est remplacée par la notion de grains primitifs, sortes d'« atomes » d'espace ou, plus exactement, de quanta du champ gravitationnel. La notion d'espace-temps doit en conséquence être remplacée par une interaction de particules et de boucles du champ gravitationnel. L'espace-temps devient granulaire et probabiliste.

La « causal dynamical triangulation »

Concernant la cosmologie et notamment l'étude de l'univers primordial et la physique du Big Bang. la LQG considère en général que l'évolution de notre univers ne commence pas au Big Bang. Celui-ci pourrait être remplacé par le rebond cosmique ( Big Bounce) d'un univers pré-existant en contraction (Big Crunch). Mais cela ne suffit pas, aux yeux des travaux les plus récents, pour caractériser le milieu ayant précédé l'apparition de notre espace-temps. Les hypothèses ne manquent pas et font l'objet d'intenses discussions au sein de blogs scientifiques tous incompréhensibles par le grand public.

Des théories plus abordables commencent cependant à circuler. L'une d'elle est dite en anglais causal dynamical triangulation (CDT). Selon celle-ci, l'univers serait composé d'unités d'espace-temps s'organisant en pyramides de base triangulaire (image ci-dessus). La façon dont ces pyramides triangulaires s'assemblent entre elles génère une dynamique conférant à notre espace-temps la courbure que la relativité générale attribue à la présence de masse et d'énergie. Ce sont évidemment des simulations mathématiques, et non l'observation, qui donnent naissance à ces descriptions. Ces simulations sont en compétition et, de temps à autres, la plus convaincante réussit à s'imposer.

L'univers primordial décrit pas la CDT peut exister sous trois formes ou phases différentes. La première est celle que nous connaissons, où les différents régions de l'espace sont connectées les unes aux autres grâce à la transmission de forces. Dans une deuxième forme, l'univers constitue un amas indistinct dont chaque élément fait partie de tous les autres. Dans une troisième, les unités d'espace-temps sont complètement déconnectées, chacune se présentant à elle-même comme une entité solitaire. Plus rien alors ne peut y circuler.

Les théoriciens de la LQG, dont le physicien français Aurélien Barrau, considèrent que celle-ci peut expliquer la façon dont l'univers primordial a évolué à travers ces trois phases pour prendre la forme que nous lui connaissons. Nous ne pouvons en discuter ici. Il est important cependant de noter que ces théoriciens estiment pouvoir faire apparaître des conséquences de cette évolution à partir des prochaines générations d'observatoire du fond cosmologique, qu'il s'agisse d'un Planck 2 ou d'un BICEP 2.

En attendant, une hypothèse plus que surprenante a été formulée, à propos des métamatériaux expérimentés actuellement par la physique et dont l'une des propriétés est qu'ils dévient les rayons lumineux d'une façon non cohérente, de telle sorte que dans certains conditions ils deviendraient invisibles. L'univers primitif, avant le Big Bang, aurait pu avoir ces propriétés. Il serait alors possible d'étudier l'avant- Big bang sur les paillasses des laboratoires.

Pour en savoir plus
* Le site The Physics Mill, Physics (and math) for everyone, propose un long article concernant la CDT. Le lecteur curieux pourra s'y reporter. Disons seulement que l'article, contrairement aux prétentions de The Physics Mill, n'est pas à la portée de chacun. Si bien que nous sommes incapbles de juger en profondeur de sa pertinence.
* Il faudra aussi se référer à un article de Michael Brooks dans le NewScientist du 11 juin 2014 Goodbye big bang, hello big silence. Cet article développe d'autres points intéressants auxquels nous n'avons pas fait allusion ici.

Partager cet article

25 mai 2014 7 25 /05 /mai /2014 11:15


Jean-Paul Baquiast 24/05/2014

This shows theories describing light and matter interactions. (Photo : Oliver Pike, Imperial College London)

C'est ainsi, selon les hypothèses actuelles, que l'univers, dans les quelques fractions de seconde ou quelques secondes ayant suivi le Big Bang, a pris le visage que nous lui connaissons aujourd'hui, c'est-à-dire faisant coexister les photons de la lumière avec les atomes de la matière. Mais initialement, l'univers aurait consisté en un plasma de photons à très haute densité et très haute température. Il a donc fallu qu'un processus jusqu'ici encore mystérieux intervienne pour que certains de ces photons, en se rencontrant, émettent les sous-produits du choc ainsi généré, soit les briques de base de la matière, un électron et un positron (constitutifs de l'hydrogène).

Mais ce processus était peu imaginable compte tenu de la nature de la lumière telle que conçue jusqu'à présent. Les photons étaient considérés comme des particules sans masse, incapables d'interagir les unes avec les autres. Deux faisceaux de lumière émanant d'une lampe de poche (ou d'un émetteur laser) peuvent se croiser sans produire le moindre atome d'hydrogène. Pourtant, un modèle théorique du phénomène avait été suggéré par les physiciens Gregory Breit et John Archibald Wheeler en 1934, mais il n'avait pu être observé en pratique.

Or aujourd'hui, la production de matière à partir de la lumière a été réalisée dans le cadre de deux expériences successives un peu différentes. Dans un premier temps, ( voir Phys.org ) un groupe de chercheurs de Harvard et du MIT, dirigé par les professeurs de physique Mikhail Lukin et Vladan Vuletic, travaillant au Center for Ultracold Atoms de Harvvard-MIT avait publié dans Nature (septembre 2013) un article selon lequel ils avaient réussi ce qui était jusqu'ici inimaginable, forcer des photons à s'agréger pour produire des molécules. Pour cela, ils ont mis au point un certain type de milieu dans lequel des photons violemment heurtés interagissent si fortement qu'ils se comportent comme s'ils étaient dotés de masse, ce qui leur permet ensuite de s'agréger sous forme de molécules.

Mais il ne s'agissait pas encore de matière au sens propre. Plus récemment (voir Natureworld ) une seconde équipe, dirigée par Oliver Pike et composée de chercheurs de l'Imperial Collège britannique et du Max Planck Institute allemand, est allée plus loin. Ils ont réalisé un dispositif permettant d'observer les photons individuellement, ainsi que ce qu'il en advenait dans le cas de collision, c'est-à-dire la production d'électrons et de positrons. L'exploit est d'importance. En effet, selon Oliver Pike, le dispositif, qui illustre la validité du processus théorisé par Breit-Wheeler, constitue la façon la plus simple de démontrer que la matière peut être construite à partir de la lumière, selon l'équation célèbre E=mc2.

L'expérience de collisionneur photon-photon proposée par Pyke et ses collègues fait appel à plusieurs étapes que nous ne décrirons pas. En simplifiant, disons qu'elle utilise comme la précédente un laser de très haute intensité qui accélère des électrons quasiment à la vitesse de la lumière. Ceux-ci sont ensuite dirigés sur une feuille d'or qui renvoie un faisceau de photons ayant des milliards de fois l'énergie de la lumière visible. Dans une seconde phase, un laser également de haute énergie est envoyé dans un petit récipient d'or (hohlraum ou chambre vide, en allemand) ce qui crée un champ de radiation thermique capable de générer une lumière de force comparable à celle émise par les étoiles.

Ensuite, le premier faisceau de photon est envoyé dans la hohlraum. Les photons des deux sources se rencontrent alors avec violence. Des milliers de pairs électron-positron, et non plus seulement de molécules photoniques, peuvent alors être générées. On pourrait suggérer qu'il s'agit d'un processus de fusion repris à l'envers. Au lieu de fusionner des molécules de matière pour obtenir de l'énergie sous forme de photons, on obtient des molécules de matière à partir de photons rendus massivement énergétiques.

Comme de telles hohlraum sont depuis longtemps utilisées dans les recherches sur la fusion nucléaire, l'expérience imaginée par ces chercheurs a pu être assez facilement réalisée en pratique. Elle pourra être renouvelée et compliquée, afin de préciser les modèles théoriques. Outre l'intérêt d'une telle réalisation pour comprendre, comme indiqué ci-dessus, les premiers instants ayant suivi la création de l'univers, elle devrait permettre également d'expliquer ces phénomènes encore mal connus que sont les explosions de rayons gamma se produisant à partir de sources non identifiées situées dans l'univers lointain.

Inutile de faire remarquer que de telles expériences, si elles étaient confirmées, permettraient, tout autant que les observations du rayonnement cosmologique par des satellites tels que Planck, de se représenter les origines de l'univers, ceci, si l'on peut dire, aux origines des origines. Resterait évidemment à comprendre comment, du vide cosmologique primordial, a pu émerger le plasma de photons chargés composant l'univers à sa naissance.

Par ailleurs, il faudra comprendre comment des photons pourraient se transformer en électrons et protons. Si l'on considère qu'il s'agit à la fois d'ondes et de particules, quels phénomènes, éventuellement reproductibles, pourraient se produire à leur niveau, tant au plan ondulatoire que particulaire ?

NB au 25/05.

Alain Cardon nous écrit ceci:

La grande question est la notion de l'information fondamentale qui pourrait être le substrat à l'existence de toutes les particules (photons et toutes les autres) et déterminant leurs possibilités d'états, de relations et de générations, avec notamment la théorie du contenu informatif du vide (voir par exemple Marc Lachièze-Rey du CEA Saclay sur ce sujet).
Mais là, on aborde une bifurcation du modèle usuel de la physique des particules, ce qui n'est pas du tout dans l'air du temps où il faut être conforme à la conformit
é.

Partager cet article

10 mai 2014 6 10 /05 /mai /2014 19:55

Nous nous sommes depuis longtemps demandé pourquoi les physiciens, confrontés à la weirdness ou étrangeté du monde quantique, ne se posaient pas systématiquement la question de l'influence du cerveau sur les représentations qu'ils se donnent de ce monde. Après tout, cela aurait du dès le début être une de leurs préoccupations.


Jean-Paul Baquiast 10/05/2014

Sur le raisonnement bayésien, voir notre article du 14 juin 2008« Le cerveau bayésien ». Il demeure encore pour l'essentiel d'actualité.

Neurospin de Saclay

Au même titre que d'autres dispositifs observationnels, tels que les interféromètres de Young, le cerveau humain, couplé aux organes des sens, construit des modèles du monde extérieur à partir desquels il propose des interprétations. Dans une science telle que la physique, ces modèles ne sont plus en général construits à partir d'observations réalisées par les organes des sens. Ils sont construits à partir des données recueillies par les instruments, tels que le dispositif des fentes de Young ou tout autre appareil permettant par exemple de mesurer les objets dit qubits, leur superposition ou leur intrication. Mais ceci ne modifie pas le sens de notre question.

Le rôle de ces instruments est si important dans la modélisation du monde quantique que la première tâche du physicien, qu'il soit observateur ou théoricien, est de vérifier leur fiabilité, autrement dit vérifier qu'ils n'introduisent pas des biais instrumentaux susceptibles de fausser l'ensemble de la démarche. Pourquoi ne pas procéder de même à l'égard du cerveau, grand constructeur de modèles du monde, qu'ils reposent sur des données recueillies directement par les sens dans la nature, ou sur celles élaborées à partir des instruments ? Dans tous les cas ces données ne peuvent pas être acceptés sans un minimum de recul critique concernant leurs conditions d'élaboration, que ce soit en physique ou dans toute autre discipline.

Or dans les sciences dites macroscopiques, c'est-à-dire ne s'intéressant pas au monde quantiqe, ce travail de critique vis-à-vis du chercheur, de sa personnalité, voire du bon fonctionnement de ses fonctions mentales, a toujours été recommandé, dès les origines de la science expérimentale. Il est vite devenu évident que, contrairement aux religions qui attachent un grand crédit aux hallucinations des prophètes, la science en tant qu'outil universel de description et de modification du monde, devait éliminer les outrances subjectives de certains de ceux se réclamant d'elle.

La tâche n'est pas toujours facile. Comment, au moins au début, distinguer un délire d'une hypothèse vraiment révolutionnaire ? Mais dans la pratique, cela s'est fait en en retenant comme digne d'être ajoutés au corpus des connaissances que les travaux bénéficiant d'un certain consensus de la part des « pairs » . Ce corpus est évidemment appelé à évoluer, mais il doit en principe le faire au sein d'une communauté aussi large que possible. Pour bien faire, la science se voulant universelle, doit s'appuyer sur de tels consensus.

Les sciences du cerveau

Le problème que nous évoquons ici ne porte pas sur ce point. Il est de savoir si les progrès rapides des sciences du cerveau ne permettraient pas d'apporter des lumières intéressantes sur la façon dont ces cerveaux, à titre individuel ou collectif, avec leurs propriétés neurologiques transmises par héritage génétique depuis des temps très anciens, interviennent dans les représentations universelles du monde dont se dotent les humains. En ce qui concerne les animaux, cet effort pour remonter aux sources cérébrales générant des connaissances a été entrepris depuis un certain temps par les biologistes.

On commence à comprendre, bien que l'imagerie cérébrale y soit peu aisée, quels sont les centres nerveux et les procédures inter-neuronales intervenant dans des opérations de dénombrement (compter) utilisées par certains mammifères ou même certains oiseaux afin de réaliser des opérations arithmétiques simples. Il est possible d'en déduire la façon selon laquelle ces animaux se construisent des représentations « mathématiques » du monde.

Observons tout de suite cependant que si les humains peuvent essayer de retrouver chez les animaux les comportements cognitifs auxquels ils sont habitués, car ce sont les leurs, ils sont obligés, jusqu'à ce jour encore, de renoncer à comprendre les neurales des animaux intervenant dans les activités dont ils constatent l'existence sans comprendre leurs mécanismes ou leur finalités. Mentionnons les langages propres à chaque espèce (intra-spécifiques) ou la production de certains types d'affectivité, intra ou interspécifiques.

Bien évidemment, rien n'interdit que de telles approches soient étendues à l'étude de la façon dont les cerveaux humains construisent leurs représentations du monde - notamment les représentations dont on pourra dire, si elles reposent sur des observations partagées et produisent des résultats communs, qu'elles sont scientifiques. Il faut reconnaître que, dans la plupart des sciences macroscopiques, cette analyse critique des conditions dans lesquelles les cerveaux élaborent des connaissances commence à se répandre. C'est notamment le cas en ce qui concerne la production des langages ou des modèles mathématiques simples.

En France Stanislas Dehaine et ses collègues, au centre Neurospin de Saclay (voir image ci-dessus), ont publié des résultats d'un grand intérêt, largement diffusés. Ils identifient les architectures cérébrales qui sont à la base de l’arithmétique, de la lecture, du langage parlé, ainsi que de l'élaboration d'états de conscience. Ceci chez les sujets sains mais aussi chez ceux souffrant de troubles divers, tels la discalculie et la dyslexie. A partir de cela, il sera possible en principe d'examiner comment procèdent les cerveaux dans les différentes activités définissant la pratique scientifique, construction d'hypothèses, vérifications expérimentales et élaborations théoriques.

Les cerveaux des scientifiques, nous l'avons rappelé, construisent des modèles « scientifiques » du monde. Ils sont dits scientifiques s'ils résultent d'un travail en commun bénéficiant du consensus des communautés scientifiques. Mais ces modèles sont-ils pertinents pour décrire ce que serait le monde en soi, autrement dit tel qu'il existerait même s'il n'y avait pas de cerveaux humains pour les décrire ?. La réponse à cette question est simple : nous n'en savons rien. Nous ne savons même pas s' il existe un monde en soi « universel » qui serait la synthèse de tous les mondes en soi postulés par chacune des disciplines scientifiques.

La question se réfère au vieux problème du « réalisme » : existe-t-il un réel indépendant de l'observateur. Les sciences macroscopiques, qui sont globalement « réalistes » y répondent généralement par l'affirmative. Mais il s'agit d'un postulat. Il devrait être évident pour la réflexion que, s'il n'y avait pas d'humains avec leurs cerveaux et leurs instruments capables de recueillir des informations provenant d'un supposé réel qui leur serait extérieur, aucune connaissance de celui-ci ne serait possible, qu'elle soit intuitive ou scientifique. Les sciences et leurs visions du monde sont donc nécessairement le produit d'organismes humains rassemblées au sein de culture humaines.

Il y a longtemps d'ailleurs que les biologistes avaient fait la même constatation. Les animaux ne pourraient pas évoquer un réel existant en soi et s'imposant à toutes les espèces. Le réel d'une chauve souris, pourrait-on dire en paraphrasant Nagel, n'est en rien comparable à celui d'un poisson. L'homme, que l'on pourrait en l'espèce qualifier d'animal supérieur, serait en principe capable de faire la synthèse des réels propres à chaque espèce. Il pourrait donc se donner une représentation beaucoup plus étendue du monde que celles dont se dotent des espèces particulières. Si à ces représentations, il ajoutait les siennes propres, il pourrait se vanter d'obtenir, non un modèle du monde en soi, mais le modèle d'un monde quasiment universel, aux yeux du moins des espèces vivantes, dont la sienne, peuplant la Terre. Mais, là encore, il s'agirait d'un postulat indémontrable.

Le relativisme épistémologique

Pour les adversaires du réalisme, que l'on pourrait qualifier de relativistes épistémologiques pour reprendre le terme de Mioara Mugur-Schaechter, rien ne permettrait d'affirmer que ce modèle d'un monde universel correspondrait à ce que serait un monde en soi, existant à l'écart de ce que peuvent en observer la communauté des organismes vivants terrestres. Si des organismes vivants extraterrestres, différents de ceux peuplant la Terre, se dotaient selon le même processus de modèles décrivant le monde tel qu'ils le perçoivent et l'analysent, cela ne voudrait pas dire que ces modèles seraient plus pertinents que ceux élaborés par nous, ou même susceptibles de s'y ajouter. Ils seraient seulement différents. Ni eux ni nous, de nos places, nous ne pourrions dire que nous avons élaboré le modèle d'un Réel en soi.

Ce que nous venons de rappeler n'intéresse que les sciences macroscopiques. Qu'en est-il d'un Réel tel que postulé par la physique quantique. A priori, les différences d'approche entre la physique macroscopique et la physique quantique empêchent de postuler qu'il existerait un Réel en soi qui pourrait être commun aux deux physiques. Même si l'une comme l'autre admettent qu'il n'est pas possible de prouver l'existence d'un monde réel en soi, indépendant des observateurs, de leurs instruments et de leur appareils cérébraux, les descriptions du monde obtenues sont très profondément différentes. Avec l'indétermination, la superposition d'état, l'intrication, la physique quantique se place dans un cadre mathématique (celui de l'espace de Hilbert) différent de celui des sciences macroscopiques. Ce cadre, notamment, ne reconnaît pas les contraintes de l'espace et du temps telles que découlant d'un espace-temps einsténien, en dehors duquel les sciences macroscopiques ne peuvent absolument pas se situer.

Mais qu'en est-il des cerveaux humains ? Faut-il distinguer des cerveaux « quantiques » qui seraient différents des cerveaux « réalistes » ? Sont-ils différents, ou plutôt font-ils appel à des aires cérébrales et à des réseaux neuronaux qui ne seraient pas les mêmes, chez le scientifique quantique et chez le scientifique macroscopique ? Quand il s'agit de la même personne qui dans la journée, passe d'une science à l'autre, change-t-elle de cerveau ? Une réponse simpliste à cette question serait de dire, en paraphrasant Feynman, que tout ceux qui croient se donner des modèles du monde quantique ne se donnent en fait que des images très superficielles. A la limite, ils ne se donnent aucune image du tout, et avouent ne pas comprendre vraiment ce dont ils parlent.

Certes le formalisme quantique a permis de construire d'innombrables instruments, tels le laser ou le microscope électronique,qui opèrent dans le monde macroscopique. Mais l'expérience montre qu'ils peuvent le faire sans obliger en rien l'utilisateur ou le développeur à se représenter le monde quantique tel qu'il serait « réellement », à supposer que l'on puisse postuler l'existence d'un monde quantique réel, sous-tendant ou ne sous-tendant pas le monde macroscopique.

Le relativisme épistémologique s'appliquant à la physique quantique ne voudrait évidemment pas dire que le monde quantique pourrait être soit totalement imaginaire (solipsiste), soit dépourvu des caractères que la science macroscopique attribue à la réalité, notamment concernant les consensus à obtenir de ceux qui expérimentent à son sujet. Cela voudrait seulement dire que le cerveau humain, en son état de développement actuel, est incapable de comprendre ce monde en profondeur. Il peut en soupçonner l'existence, mais il ne serait pas capable de comprendre la moindre de ses lois fondamentales, à supposer que le terme de lois fondamentales puisse s'appliquer en physique quantique. Il ne disposerait pas des câblages neuronaux permettant de le faire.

Notre cerveau, hérité d'une longue évolution génétique, n'a pas eu besoin pour survivre d'imaginer qu'en dessous de la « réalité » du monde dans lequel vivaient nos prédécesseurs, peuvent exister des « variables cachées » représentant un monde quantique sous-jacent. S'il le fait, pour essayer d'interpréter les phénomènes étranges révélés par l'interféromètre de Young, c'est si l'on peut dire sans y croire en profondeur, sans être capable d'imaginer à quel monde « réaliste » caché correspondraient ces phénomènes. Qu'en serait-il du cerveau d'un extraterrestre, ou d'un cerveau artificiel très perfectionné et innovant en matière de conceptualisation. La réponse à cette question, là encore, est que nous ne pouvons pas répondre, faute d'avoir jusqu'à présent interagi avec de telles intelligences « autres ».

Ceci dit, avant de décider, à la suite de Feynman, que notre cerveau n'est pas organisé pour comprendre la mécanique quantique, ne faudrait-il pas se demander si ce cerveau ne dispose pas depuis longtemps des circuits neuronaux pour le faire, mais que nous n'avons pas jusqu'ici su les découvrir et nous en servir.

Le cerveau « bayésien »

Un des points clef de la représentation du monde quantique est qu'il n'est pas possible de déterminer à la fois l'emplacement et la vitesse d'une particule microscopique isolée, tel un électron. Il faut faire appel pour ce faire à une formule complexe faisant intervenir des probabilités, que l'on nomme la fonction d'onde. La particule en ce cas peut être considérée comme ne disposant pas de la même réalité qu'un oiseau surpris en vol, que l'on peut cinématographier, c'est-à-dire sans éprouver le moindre doute, quant à son existence, sa vitesse et la directionde son vol.. Ce n'est que lorsque ces particules sont groupées en masse, par exemple dans un rayon lumineux, qu'il devient possible de les considérer comme participant à un objet macroscopique, le rayon lumineux, dont on peut mesurer simultanément l'emplacement et la vitesse de déplacement.

Mais, comme il a été montré par les neroscientifiques, lorsque nous observons un oiseau passant rapidement devant nous, nos yeux et, à leur suite notre cerveau, traitent successivement des images se succédant à très grande vitesse, dont aucune ne pourrait à elle seule suffire à justifier l'existence d'une réalité extérieure à nous, que nous appellerions un oiseau. Chacune de ces images se présente comme le résultat d'un ensemble de probabilités pouvant être associées à une source lumineuse donnée. Ce n'est que par un travail de reconstruction que notre cerveau se donne à la suite de telles perceptions la certitude qu'elles correspondent à un objet réel qui nous serait extérieur, objet que nous pouvons alors nommer un oiseau. A chaque instant, les hypothèses faites par notre cerveau à ce sujet doivent être vérifiées par des observations les confirmant. Alors nous pouvons faire l'hypothèse, à presque 100% certaine, qu'il s'agit bien d'un oiseau.

Le type de processus neuronaux qui interviennent dans ce calcul de probabilité définissent ce qui a été nommé le cerveau bayésien 1). Le cerveau bayésien, capable de tels processus, peut paraître très complexe. En fait, il est extrêmement simple. Si bien que selon les neuroscientifiques, il serait apparu très tôt dans l'évolution. C'est grâce à lui que les animaux primitifs identifiaient des prédateurs sans être obligés de conceptualiser ce que pouvait être un prédateur ou la menace qu'il représentait. Aujourd'hui de même les nouveaux-nés humains l'utilisent pour catégoriser les éléments d'un environnement qu'ils découvrent peu à peu. Stanislas Dehaene, précité, consacra à ce thème une suite de cours donnés au Collège de France en 2012. Il évoque une véritable « révolution cognitive » en train de se produire 2) .

Mais pourquoi en ce cas ne pas supposer que, confronté aux étrangetés révélées par les expérimentations en mécanique quantique, le cerveau humain ne pourrait-il pas faire appel à de telles ressources ?

Le QBism

Pour le physicien David Mermin de l'Université Cornell, il convient de se persuader que, face aux incertitudes révélées par l'expérimentation en physique quantique, ce n'est pas le monde quantique qui serait incertain, mais nous-mêmes. Quel est l'état d'une particule quantique quand personne ne l'observe ? Selon l'interprétation de Copenhague, personne ne peut le préciser. Tant qu'il n'est pas observé, le chat de Schrödinger est à la fois mort et vivant. Il ne l'est pas seulement pour nous. Il l'est « en réalité », c'est-dire pour lui. Aucune interprétation complémentaire, comme celle des univers multiples, ne peut en pratique être retenue.

Selon Mervin, ce ne serait pas le cas dans l'approche dit « Quantum Bayesianism » ou QBism, qui étend à la physique quantique les postulats définissant l'inférence bayésienne, ci-dessus résumée.3) L'argument central du Qbism est que, lorsque l'on étend cette approche au monde quantique, de nouvelles perspectives apparaissent. Si l'on mesure le spin d'un électron invisible, l'on acquiert sur lui une nouvelle connaissance, augmentant les probabilités de le rendre pour nous certain plutôt qu'incertain. Mais rien n'a eu besoin de changer au niveau du monde quantique.

Les états quantiques, les fonctions d'onde et tout l'appareillage de probabilités utilisé dans l'observation du monde quantique ne résultent pas de caractères propres au monde quantique réel. Il s'agit seulement d'outils subjectifs utilisés par notre cerveau et destinés à nous permettre de lever l'incertitude que nous éprouvons à l'égard de ce monde avant que l'observation ne lève le doute – c'est-à-dire nous permette de savoir si en réalité le chat est mort ou vivant.

Dans cette hypothèse, les paradoxes de la mécanique quantique disparaissent purement et simplement. Ce n'est pas la « mesure », autrement dit l'observation, qui provoque la matérialisation d'une entité quantique. Le processus de l'observation agit seulement dans notre cerveau. C'est à ce niveau que la chose se matérialise, autrement dit que l'indétermination propre à l'observation est levée grâce aux mécanismes de l'inférence bayésienne caractérisant ce cerveau. Ce n'est pas le monde quantique qui serait indéterminé en soi, ce serait notre cerveau qui le serait par rapport à lui.

Certains théoriciens ont repris, confronté aux hypothèses du Qbism, l'objection que nous avons évoquée ci-dessus. Qu'est-ce qui nous permettrait d'affirmer que le monde quantique ne serait pas indéterminé, vu que nous ne pouvons pas, en tant qu'observateurs « indépendants », nous mettre à sa place. Nous pourrions répondre en reprenant la réflexion présentée au début de cet article. Il serait plus économique pour les scientifiques d'étudier comment fonctionne cet instrument essentiel qu'est pour eux le cerveau, que multiplier des hypothèses suscitées par le fonctionnement d'instruments de laboratoire vraisemblablement trop simplistes ou mal conçus.

Plus généralement, comme on peut le voir en consultant la littérature consacrée au QBism et à ses versions censées être améliorées, les objections à cette approche sont nombreuses et sérieuses. Nous n'avons pas les moyens d'en discuter ici. Bornons-nous, à titre de distraction, a imaginer les conséquences que pourrait avoir le Qbism dans le domaine de la cosmologie, s'il était vraiment pris au sérieux. Les nombreuses indéterminations propres à cette science et découlant de la large place qu'y tient la mécanique quantique aujourd'hui, disparaitraient elles ? Et par quoi seraient elles remplacées.
.

Notes

1) Selon un article de Wikipedia, un raisonnement bayésien, ou inférence bayésienne est : une méthode d'inférence permettant de déduire la probabilité d'un événement à partir de celles d'autres événements déjà évaluées. Elle s'appuie principalement sur le théorème de Bayes. Dans la logique d'Aristote développée dans l'algèbre de Boole et le calcul des propositions, une proposition ne peut être que vraie ou fausse, et les règles d'inférence ne font intervenir que ces deux valeurs. Le raisonnement bayésien s'intéresse aux cas où une proposition pourrait être vraie ou fausse, non pas en raison de son rapport logique à des axiomes tenus pour assurément vrais, mais selon des observations où subsiste une incertitude. On attribue à toute proposition une valeur entre 0 (faux à coup sûr) et 1 (vrai à coup sûr). S'il s'agit d'un événement pouvant avoir plus de deux issues possibles, on considère la distribution de probabilité de ces issues. L'inférence bayésienne révise la probabilité des propositions au fur et à mesure des observations, incluant, dans l'analyse de Thomas Bayes qui lui donne son nom, la première opinion (a priori) sur la probabilité des prémisses.

2) Stanislas Dehaene. Le cerveau statisticien : la révolution Bayésienne en sciences cognitives
Nous citons : « la théorie Bayésienne fournit un modèle mathématique de la manière optimale de mener un raisonnement plausible en présence d'incertitudes. Dès la naissance, le bébé semble doté de compétences pour ce type de raisonnement probabiliste. L'inférence Bayésienne rend également bien compte des processus de perception : étant donné des entrées ambigües, le cerveau en reconstruit l'interprétation la plus probable. La règle de Bayes indique comment combiner, de façon optimale, les a priori issus de notre évolution ou de notre mémoire avec les données reçues du monde extérieur. En cela, elle offre une nouvelle vision de l'apprentissage qui dépasse le dilemme classique entre théories empiristes et nativistes. Enfin, de nombreuses décisions humaines semblent résulter d'une approximation de la règle Bayésienne d'accumulation d'évidence, combinée à une estimation de la valeur attendue des conséquences de nos choix. Dans la mesure où les principes de l'inférence Bayésienne sont ainsi partagés par de multiples domaines de la cognition, il se pourrait que l'architecture du cortex ait évolué pour approximer ce type de calcul probabiliste à grande vitesse et de façon massivement parallèle. L'algorithme utilisé pourrait expliquer non seulement l'organisation du cortex en couches, mais aussi la manière dont notre cerveau anticipe sur le monde extérieur (codage prédictif) et dont il répond à la nouveauté (propagation des signaux d'erreur) » .

Voir aussi Stanislas Dehaene Les mécanismes Bayésiens de l'induction chez l'enfant

3) Lire dans le NewScientist QBism : Is quantum uncertainty all in the mind ?

Partager cet article

8 mai 2014 4 08 /05 /mai /2014 18:33

Jean-Paul Baquiast 08/05/2014

Dans un entretien publié par le NewScientist du 3 mai 2014, p. 26, le scientifique israélien Mordehai Milgrom 1) constate, avec beaucoup de philosophie, que l'hypothèse, ou plus exactement la théorie de la Gravité Modifiée (MOND, Theory of Modiified Nextonian Dynamics) qu'il avait fait connaître dès 1981, n'avait jusqu'à des époques récentes que rencontré le scepticisme. Aujourd'hui, quelques cosmologistes s'y intéressent davantage, mais cela n'est pas encore le grand succès.

Il convient de se demander pourquoi, car cette théorie apporte une solution élégante, et semble-t-il démontrée, au casse-tête de la matière noire, dont aucune preuve incontestable, telle l'observation d'une seule particule d'une telle matière, n'a jusqu'ici été apportée.

On ne confondra évidemment pas la matière noire avec l'énergie noire. Celle-ci désigne une force répulsive, constatée mais non encore expliquée, qui provoquerait une expansion accélérée de l'univers, contrairement aux prévisions selon laquelle l'univers, après le Big Bang et la supposée Grande Inflation, devrait cesser de se dilater, voir commencer à se rétrécir.

Le problème à résoudre

La matière noire a été imaginée par Milgrom pour résoudre un problème que chaque astronome peut constater. Dans les galaxies spirales, les étoiles périphériques qui devraient progressivement se rapprocher du centre galactique vu la forte attractivité gravitationnelle de ce centre, semblent s'en éloigner. Plus exactement, les plus éloignées de ces étoiles devraient spiraler autour du centre à une vitesse d'autant plus réduite qu'elles en sont éloignées. En effet, selon la loi de Newton, la force de gravité diminue d'autant plus rapidement que l'on s'éloigne du centre gravitationnel. Si je lance une pomme depuis la navette spatiale, elle retombera sur Terre bien plus lentement que si je l'avais lancée de mon jardin.

Expected (A) and observed (B) star velocities as a function of distance from the galactic center.

Or ce n'est pas le cas concernant les galaxies. La vitesse orbitale des étoiles éloignées du centre semble plus grande que celle des étoiles proches. Ceci pourrait d'ailleurs expliquer la forme en spirale de ces galaxies. Observons que dans les galaxies globulaires, le même phénomène est difficilement observable, compte tenu de la difficulté à identifier la vitesse orbitale des étoiles, les unes par rapport aux autres.

L'explication de ce phénomène, explication devenue presque canonique aujourd'hui, est que chaque galaxie est incluse dans un nuage de matière noire, très dense mais invisible, qui exercerait une force de gravité bien supérieure à celle qui devrait résulter de la masse des étoiles visibles. Ce nuage générerait aux frontières extérieures de la galaxie une force d'attraction suffisamment énergique pour les empêcher de s'éloigner du centre.

Mais, comme le remarque Mordehai Milgrom, pour modéliser la forme précise de chaque galaxies, forme qui diffère profondément d'une galaxie à l'autre, il faudrait imaginer que chaque galaxie bénéficie d'une quantité spécifique de matière noire, elle-même distribuée de façon spécifique. On serait loin de la belle harmonie imaginée par Newton.

Selon la MOND au contraire, il faudrait imaginer que les galaxies obéissent à des lois gravitationnelles différentes de celles résultant de la gravitation de Newton. Point ne serait besoin alors de faire appel à une hypothétique matière noire pour expliquer les différences de forme entre les galaxies spirales. La vitesse « excessive » des étoiles situées à la périphérie d'une galaxie pourrait être due soit à une nouvelle loi de gravité qui s'exercerait plus fortement que prévue dans ces régions, soit au fait qu'une loi encore à découvrir y réduirait l'inertie des étoiles intéressées, diminuant ainsi leur tendance à s'éloigner du centre.

Cette gravité modifiée s'exercerait, selon les équations de la MOND, lorsque l'accélération des étoiles tomberait au dessous d'un cent milliardième de g, la force de gravité observé sur la Terre. Ce phénomène se produirait à différentes distance du centre selon les différences de forme de galaxies. Un cent milliardième de g paraitra très petit, mais il faut se rappeler que dans le « vide » interstellaire, où les distances sont énormes, beaucoup de physiciens postulent que ne s'exerce aucune force de gravité.

Ainsi, avec un seul paramètre, la MOND pourrait prévoir les courbe de rotation de n'importe quelle galaxie, sans faire appel à la matière noire. Les expérimentations récentes semblent confirmer de telles prévisions. Grâce notamment à l'effet dit de lentille galactique, selon lequel les rayons lumineux venant de galaxies lointaines sont déformés au voisinage d'une galaxie plus proche, il est possible d'estimer le champ gravitationnel de millions de galaxies, qu'elles soient ou non spirales. Or ces estimations sont dans l'ensemble conformes à ce que prévoit la MOND.

Concernant la galaxie d'Andromède, la plus proche de notre galaxie, la vitesse de galaxies satellites orbitant autour d'Andromède s'est révélée à l'observation conforme aux prédictions de la MOND, sans qu'il ait été nécessaire de faire appel à la matière noire. 2)

Face à la MOND, la tentation de la facilitée?

On peut trouver à ce phénomène plusieurs explications. Les unes sont de type scientifique. Les équations permettant de calculer la MOND, ou les observations permettant de la mettre à l'épreuve, peuvent encore être discutées. Mais d'autres sont quasi-philosophiques. Comment expliquer que des phénomènes aussi généraux que ceux de la gravitation puissent prendre des formes différentes d'une galaxie à l'autre. La loi de Newton était plus rassurante pour les esprits qui, comme ceux du Moyen-Age, souhaitent encore voir l'univers respecter une belle et commune ordonnance.

Mais dans ce cas, comment comprendre que les mêmes scientifiques intuitivement attachés à une telle ordonnance puissent faire intervenir une hypothétique matière noire. Celle-ce n'a jamais, comme nous l'avons rappelé, été identifiée à ce jour dans les accélérateurs de particules et autres observatoires. D'autre part, il faudrait lui donner des distributions différentes, galaxie par galaxie. Ceci serait bien contraire à l'harmonie générale postulée.

On peut penser qu'en fait, ce fut, avec l'hypothèse de la matière noire, une solution de facilité qui a été retenue. La matière noire, s'y comporte comme le Bon Dieu dans les sciences pré rationnelles. Elle interdit toute vérification expérimentale, puisque décrétée noire par principe. Elle offre une solution facile à toutes les questions que l'on peut se poser, sans obliger à perfectionner les hypothèses et les expériences. De plus, avec ce qualificatif de « noire », elle fait appel à une imagination proche de la science fiction ou de l'art. L'hypothèse dispense les cosmologistes du travail qui serait aujourd'hui nécessaire: critiquer les lois « fondamentales » d'où découlent les dynamiques newtoniennes et einsténiennes.

Faudrait-il refuser de la même façon l'hypothèse de l'énergie noire, présentée désormais comme parole d'évangile dans presque tous les articles et ouvrages de cosmologie? L'avenir le dira. Il n'est pas exclu de penser que dans quelques temps, on ne parlera plus dans les manuels d'énergie noire, mais d'une Energie Modifiée, calculable et observable.

Notes

1) Mordehai Milgrom http://fr.wikipedia.org/wiki/Mordehai_Milgrom

2) Astrophysical Journal 775, 2 Andromeda Dwarfs in Light of MOND. II. Testing Prior Predictions
http://iopscience.iop.org/0004-637X/775/2/139/article;jsessionid=92BD29D2831A78338EC93217A9700EE7.c1

Pour en savoir plus
* Matière noire
* Mond

Partager cet article

7 mai 2014 3 07 /05 /mai /2014 17:49

Mémétique et réseaux sociaux

07 mai 2014 | Par Jean-Paul Baquiast

La Société francophone de mémétique compte organiser à Cerisy en 2016 (date à confirmer) un séminaire pour faire le point des développements actuels de cette méthodologie scientifique. Sans attendre, nous pouvons ici réfléchir à un thème apparemment incontournable, les conséquences à tirer par la mémétique de l'explosion mondiale des réseaux dits sociaux.

Le chef de Boko Aram "J'ai enlevé vos filles" 05/05/2014

Rappel du concept de réseau social

L'on nomme généralement réseaux sociaux les espaces de communication et de discussion offerts à tous depuis quelques années par les « géants » de l'Internet, Google, Facebook, Youtube, etc. Ces entreprises se sont dotées de centres informatiques et de systèmes de communication d'une puissance considérable, leur permettant de recueillir, analyser et rediffuser éventuellement tout ce qui se publie sur le web, écrits, images et même sons. Abondamment utilisés par les entreprises afin de faire connaître les produits et services qu'elles s'efforcent de vendre, les réseaux sociaux n'ont pas manqué d'attirer aussi les institutions et structures politiques, souhaitant étendre leur influence parmi les populations.

Mais le point important, qui leur donne leur nom, est que les individus, dès lors qu'ils sont dotés d'un ordinateur ou même d'un simple téléphone portable perfectionné, sur le mode dit iPhone, peuvent eux aussi y poster des messages, ceci sans autre dépense que celles découlant de leur abonnement aux services des opérateurs de télécommunications. Ces messages, dit contenus, peuvent prendre différentes formes. Ils peuvent être exprimés par des auteurs se comportant souvent en véritables journalistes. Il s'agit de personnes ne trouvant pas dans les médias traditionnels un accueil suffisamment ouvert. Les blogs sont dorénavant des milliers, dans chacun des pays disposant d'une liberté d'expression suffisante. Au niveau mondial, ils ne sont pas dénombrés, mais on peut penser qu'ils se comptent en dizaines, voire centaines de milliers. Liés à la presse officielle, il faut de plus en plus par ailleurs tenir compte des centaines de réactions de lecteurs qui peuvent être envoyées aux journaux pour chacun des articles publiés. Inutile d'indiquer que ces différents textes s'influencent souvent les uns les autres, permettant ainsi aux mèmes de naître et de se propager.

Mais le coeur des réseaux sociaux se trouve ailleurs. Il se trouve dans les centaines de millions de messages que s'échangent chaque jour les individus. Il s'agit d'abord des échanges téléphoniques,dont le caractère protégé est de plus en plus illusoire. Mais il s'agit aussi des messages prenant le support des messageries accessibles dorénavant, pour des dépenses infimes, à partir de tous les outils connectés, ordinateurs, tablettes et bientôt « objets intelligents » pouvant communiquer entre eux sans nécessairement l'accord de leurs utilisateurs.

Les géants de l'Internet évoqués ci-dessus encouragent leurs publics à utiliser ces réseaux à titre inter-personnel. On constate en effet que les particuliers n'hésitent pas à publier des profils très complets de leurs activités et d'eux-mêmes. Ces données fournissent une mine de renseignements pouvant présenter un grand intérêt commercial. Ils sont revendus ensuite à des entreprises visant à mieux cibler leurs efforts de publicité. Les « traces. » que les particuliers laissent ainsi sur le web, volontairement ou involontairement, sont si nombreuses qu'elles ont reçu le nom de Big data ou données en masse. Elles représentent une telle valeur commerciale que les services de marketing des entreprises n'hésitent pas à verser aux géants du Web des sommes suffisamment importantes pour permettre à ceux-ci de s'équiper en centres de calcul et en logiciels d'interprétation dont les potentialités de type « intelligent » ne cessent de se développer - et que leur envieraient bien des laboratoires de recherche scientifique.

Différents semeurs d'alerte, tel Edward Snowden récemment, ont révélé que les services de renseignement et d'espionnage des Etats s'appuient par ailleurs systématiquement aujourd'hui sur l'exploitation de ces données. Les plus puissants de ces services sont américains, notamment la NSA et la CIA. Comme les géants du web sont également américains, il s'est établi une complicité très forte entre eux. Les particuliers, hommes, femmes et même enfants, qui n'hésitent pas aujourd'hui à utiliser en toutes circonstances les réseaux sociaux, contribuent donc sans toujours s'en rendre compte à l'efficacité des services d'espionnage et des agences commerciales.

Bien évidemment, dans d'autres zones géographiques et d'autres aires linguistiques, des réseaux sociaux sont apparus. Ils contribuent à la bataille pour le soft power que se livrent dorénavant les grandes puissances. Pour ce qui intéresse l'Europe, il s'agit en priorité du monde arabe, de la Russie et de la Chine. On notera cependant que, puisque l'anglais est bien plus pratiqué que l'arabe, le russe et le chinois, les internautes anglophones, d'où qu'ils proviennent, disposent d'un espace de communication quasiment mondial, ce qui n'est pas le cas des autres.

La liberté (relative) d'expression régnant sur le web a dès les origines été combattue par les Etats autoritaires, ou par des religions qui ne le sont pas moins. Mais jusqu'à présent, ces Etatsou religions n'ont jamais réussi à éliminer les propos qui ne leur conviennent pas. Tout au plus, les auteurs sont contraints à une certaine auto-censure, ne fut-ce que pour des raisons de sécurité personnelle.

Mèmes et réseaux sociaux

Les mèmes sont présentés par la mémétique comme des entités spécifiques, principalement informationnelles, proliférant sur les espaces de communication dont se sont toujours dotées les sociétés, animales et humaines. Ils sont donc très liés aux langages, langages parlés ou prenant la forme de gestes et mimiques, reliant entre eux les membres d'un même groupe social. Les capacités de création des cerveaux dans le domaine de la communication symbolique sont une condition indispensable à l'apparition des mèmes. Là où il n'y a pas de cerveaux, comme en ce qui concerne les réseaux de bactéries, il n'existe pas de mèmes eu sens propre du terme, mais seulement des échanges de messages protéiniques.

Les mèmes se distinguent des simples communications langagière, correspondant par exemple aux instructions données par un chef à des exécutants, du fait qu'ils échappent très vite aux conditions qui ont permis leur apparition. Ils se répandent, comme des virus le font entre des cellules jusqu'alors non contaminées. Ce faisant, comme des virus d'ailleurs, mais à plus grande échelle, vu leur diversité et celle des réseaux qui utilisent, ils évoluent sur le mode darwinien, entrant en concurrence ou en symbiose, mutant sans cesse et exploitant par conséquent toutes les créneaux du milieu qui leur sont favorables. C'est cette caractéristique qu'avait dès les origines de la mémétique, mis en évidence Richard Dawkins, inventeur du concept (photo).

Le mème est un mutant

Le propre du mème, qui permet de le comparer à un organisme vivant, n'est pas seulement de se reproduire ou de se grouper en ensembles de plus en plus importants, tels les « rumeurs » souvent étudiées par les sociologues. Il est de muter. Ces mutations se produisent bien plus facilement que les mutations biologiques au sein des génomes. Elles peuvent donc envahir très rapidement les « niches » disponibles. De plus, elles ne nécessitent pas une intervention dite volontaire ou consciente de celui qui propage le mème. D'une façon identique, le virus ou le microbe peut muter indépendamment d'une intervention volontaire de son porteur. Cette propriété confirme le diagnostic selon lequel les mèmes peuvent générer des propos ou comportements éventuellement nuisibles socialement , en dehors de tout effort de rationalisation collective.

En quoi les réseaux sociaux, tels que présentés plus haut, interviennent-ils pour modifier les conditions de production et de diffusion des mèmes. Jusqu'à ces dernières années, les mèmes s'étaient échangés et développés en utilisant les multiples réseaux d'échange existant au sein des sociétés traditionnelles. Ces réseaux sont certes nombreux, mais leur débit et leur capacités d'interconnexion sont limités. L'apparition de la radio et de la télévision au 20e siècle, en pénétrant très largement les cerveaux et les mentalités des auditeurs-spectateurs, a élargi ce que l'on peut appeler les écosystèmes des mèmes. Mais les processus de diffusion, faisant largement appel à des comportements humains relativement bien étudiés et contrôlable, n'avaient pas été fondamentalement modifiés. Ils reposaient encore largement sur ce que l'on peut appeler le bouche-à-oreille ou, dans le cas des discours d'Adolf Hitler, sur une sorte d'empathie fréquente chez les foules. Au niveau des circuits neuronaux impliqués dans l'imitation, que l'on range généralement dans la catégorie des neurones-miroirs, les processus n'étaient pas très différents

Des systèmes autonomes

On peut au contraire penser que l'expansion de ce que nous avons désigné comme les Big data offre aux mèmes des opportunités de mutation bien supérieures. Des études actuellement menées à propos de l'apparition au sein des réseaux numériques d'ensembles informationnels pouvant se comporter en véritables cerveaux autonomes mobilisent depuis quelques temps l'attention des chercheurs en intelligence et conscience artificielle. On lira par exemple les livres d'Alain Cardon : "Modélisation constructiviste pour l'autonomie des systèmes" , 24 mai 2012 et " Vers le système de contrôle total", 20 octobre 2011. Certains prédisent l'apparition prochaine de véritables cerveaux globaux numériques, pouvant prendre en mains l'évolution de la Terre. Ces travaux donnent une ampleur jamais atteinte jusqu'ici à l'impression depuis longtemps ressentie par le bon sens populaire, selon laquelle des « bruits » naissent sans que l'on puisse identifier leur provenance, sans aussi qu'il soit possible de les combattre s'ils sont nuisibles. .

Toutes les croyances nées au sein des réseaux sociaux ne sont pas nécessairement dangereuses. Certaines pourraient même être bénéfiques au regard de certains objectifs que se fixent collectivement les sociétés. Il en est ainsi des informations, dont on ne peut identifier la provenance exacte, qui dénoncent au regard des préventions devant être adoptées face au changement climatique, le caractère accélérateur de tel ou tel comportement, alors qu'une étude un peu scientifique montre que ces comportements n'ont pas d'influence sensible sur les évolutions climatologiques. Les mèmes qui incitent à proscrire ces comportements peuvent entrainer, par contagion mémétique, le refus d'autres comportements qui, eux, sont dangereux.

Il a souvent cependant été constaté que les réseaux sociaux, ou plus exactement les mèmes qui y prolifèrent, peuvent provoquer des comportements de masse non seulement irrationnels mais violents. Dans un article précédent « Les réseaux dits sociaux génèrent-ils le simplisme et la violence ? » , 01/02/2014, nous avions
abordé la question. Beaucoup de lecteurs nous avaient reproché une approche élitiste de la communication, selon laquelle les canaux d'expression sur Internet devraient être réservées aux classes dominantes ou aux intellectuels. Ils nous avaient évidemment mal compris. Aujourdhui, nous n'aurions pas grand chose à ajouter ou retirer à cet article, sauf à rappeler qu'en mémétique, comme en virologie ou en bactériologie, il faut évidemment tenir compte du terrain. Un mème n'est créé et ne mute que s'il rencontre des terrains favorables, que ces terrains soient des personnes individuelles ou des groupes sociaux.

Les mèmes violents, comme ceux diffusés quotidiennement par les sectes islamiques, telles que Boko Haram au Nigéri (image introductive), n'atteignent évidemment pas tous les musulmans, mais seulement les quelques extrémistes engagés dans des "guerres saintes". A l'inverse, on pourrait observer que les mèmes correspondants trouvent un terrain favorable chez la grande majorité des citoyens déjà effrayés par le développement de violences islamiques. Ce sont les cerveaux de ceux-ci, et les médias utilisés par eux, qui leur donnent la plus grande répercussion – ceci avec des conséquences dont personne aujourd'hui ne peut prévoir les suites.

Pour en savoir plus
* Voir notre recension du livre de Pascal Jouxtel, fondateur de la Société Francophone de mémétique "Quand les systèmes pondent"

Partager cet article

3 avril 2014 4 03 /04 /avril /2014 18:37

Consciousness and the Brain: Deciphering How the Brain Codes Our Thoughts.

Viking Adult, 2014
par Stanislas Dehae
ne

présentation par Jean-Paul Baquiast 31/03/2014

On pourrait penser, à voir l'abondante littérature consacrée dans le monde entier aux sciences du cerveau, y compris à la conscience de soi (le Hard problem selon le philosophe Chalmers), que la France tient une faible part dans ces recherches. Ce serait une erreur, comme le montre la lecture du dernier livre du neuroscientifique français Stanislas Dehaene, consacré à ce sujet.

Non seulement celui-ci, dans la ligne de pensée initialisée par Jean-Pierre Changeux, est un expérientateur et un théoricien remarquable, mais il dirige, au sein d'une équipe principalement localisée au centre Neurospin de Neuroimagerie cognitive à Saclay, les recherches les plus avancées sur ce vaste thème.

Son livre, malheureusement à ce jour encore seulement disponible en anglais, Consciousness and the Brain: Deciphering How the Brain Codes Our Thoughts , examine les réponses possibles aux questions fondamentales, comment notre cerveau génére-t-il une pensée consciente? Pourquoi l'essentiel de notre expérience du monde demeure-t-il inconscient? Comment notre cerveau évoluera-t-il dans un proche avenir?

Ces questions, qui ont fait de tout temps l'objet des réflexions des philosophes, ont donné lieu depuis une cinquantaine d'années à de nombreuses expériences cliniques visant à identifier les centres nerveux impliqués dans les démarches cognitives, quand ils étaient détruits ou amoindris par des accidents. Des expériences plus ou moins destructives sur les animaux avaient aussi été menées depuis longtemps. Mais, comme le montre clairement l'auteur, c'est depuis 20 ans, voire même depuis 10 ans, que les progrès de la neuroimagerie ont permis de faire progresser les recherches d'une façon décisive. Ces progrès se poursuivent tous les jours et obligent à mettre à jour ou modifier les conclusions acquises.

Le livre

Consciousness and the Brain: Deciphering How the Brain Codes Our Thoughts nous convie à un voyage passionnant, depuis le cerveau inconscient jusqu'aux formes les plus élaborées de ce que l'on nomme la conscience humaine. La lecture demande un minimum de connaissance de l'anatomie et du fonctionnement du cerveau. De même il faut déjà sommairement connaître ce que sont les neurones et les formes qu'ils ont adopté, au cours d'une évolution qui a commencé dès l'apparition des premiers vertébrés. Il faut aussi savoir se repérer dans les différentes techniques de neuro-imagerie, ceci jusqu'aux plus récentes d'entre elles. Mais pour le reste l'auteur fait montre d'une telle aptitude pédagogique que chacun en le lisant pourra s'imaginer devenir un tant soit peu psychologue cognitif.

L'ouvrage comporte 7 chapitres , respectivement consacrés à la conscience telle que vue par les laboratoires, à l'inconscient, à l'utilité de la conscience, notamment dans une perspective évolutionnaire, aux « signatures » par lesquelles ont reconnaît un processus conscient afin de les différencier des processus inconscients, aux modes d'analyse de la conscience en termes théoriques, aux moyens d'en identifier la présence chez les personnes frappées d'attaques cérébrales et d'accidents corporels, à l'avenir enfin des travaux sur la conscience, notamment dans la perspective des cerveaux artificiels.

Les recherches de Stanislas Dehaene ont été inspirées par celles de Francis Crick (dans la 2e partie de sa vie) et de Cristof Koch. Celles-ci portaient sur « les corrélations neurales de la conscience », autrement dit sur les parties du cerveau qui s'activent chez une personne quand celle-ci devient consciente de quelque chose. Pour distinguer les phases durant lesquelles la conscience de cette chose apparaît, des phases les précédant, pendant lesquelles la chose demeure inconsciente, Stanislas Dehaene et son équipe ont abondamment utilisé ou mis au point divers stimulus visuels ou sonores conçus pour se situer au seuil précis (quelques millisecondes) à partir duquel l'information sensorielle recueillie devient consciente.

L'une des méthode employées consiste à « flasher » très rapidement une image ou un son correspondant à un stimulus identifiable par le sujet, stimulus pris en sandwich entre une paire d'images ou de sons non significatifs. Si la durée du stimulus est convenablement ajustée, celui-ci pénétrera la conscience du sujet, qui pourra faire un geste le signalant. Sinon il ne réagira pas. Pendant ce temps, différentes méthodes d'imagerie cérébrale observeront le cerveau de l'intéressé et réagiront aux signaux électriques émis par les différentes zones du cerveau s'activant lors de l'expérience.

La première conclusion de ces expériences est qu'un très grand nombre de stimulus demeurent inconscients, bien que perçus. Ceci même lorsque ces stimulus entraînent une réaction de l'organisme. Cette réaction à son tour demeure généralement inconsciente. On peut en conclure que l'essentiel des informations recueillies par nos sens sur nous-mêmes ou sur le monde ne franchissent pas le seuil de la conscience, tout en orientant plus ou moins profondément nos comportements. Il ne s'agit pas de « l'inconscient » théorisé par Freud, et que Lacan avait prétendu être « structuré comme un langage ». Il s'agit cependant d'un monde extrêmement riche de représentations et de symboles, au sein duquel nous nous mouvons sans le savoir, que ce soit durant la veille ou durant le sommeil.

Cependant, lorsque le seuil de la conscience est franchi, il se produit ce que Stanislas Dehaene appelle une « avalanche » ou un tsunami dans le cerveau. L'activité électrique dans les neurones des aires sensorielles du cortex supérieur se répand massivement dans les régions du cortex pariétal et préfrontal considérées comme responsables de la « prise de conscience », au sein desquelles l'information sensorielle primaire ne pénètre jamais. Des aires de plus en plus larges du cortex se trouvent affectées, des parties du cerveau de plus en plus éloignées sont activées. L'EEG révèle alors des ondes caractéristiques dites P3 correspondant à cette « avalanche ». Des neurones dits « réentrants » selon le terme d'Edelman, dotés de longs axones, envoie des messages vers les zones éloignées du cerveau, dans le sens descendant ou le sens montant.

Il faut bien voir, pour mesurer la complexité des faits de conscience, que le cortex cérébral comporte selon Dehaene 18 milliards de neurones, et qu'il traite en temps presque réel des dizaines voire centaines de stimulus. Cependant, de ces traitements en parallèle, seules n'émergent à la conscience que des informations dont l'une à la fois devient perceptible. Elles peuvent cependant se succéder très rapidement. Les unes sont évanescentes. D'autres peuvent être mémorisées plus ou moins longuement. Tout dépend de l'attention, autre propriété de la conscience, que le cerveau leur porte.

Stanislas Dehaene a baptisé espace de travail global l'espèce de web qui se construit dans la totalité du cortex, voire au delà, à l'occasion des échanges à courtes et longue distances qui s'établissent ainsi. Le terme a été emprunté, mais considérablement précisé, des travaux du neuropsychologue américain Bernard Baars. Ce dernier avait cherché à comprendre comment des contenus neuronaux très différents pouvaient se rencontrer et s'harmoniser. On avait reprochée à Bernard Baars une conception un peu réductrice du cerveau, pouvant l'assimiler à un ordinateur fonctionnant en parallèle, et incapable de faire percevoir les valeurs subjectives (la sensation de bleu ou de rouge qu'éprouve en son for intérieur tel individu). Mais pour Stanislas Dehaene l'objection ne tient pas, si l'on considère les millions de représentations du monde créées à tout moment par le cerveau inconscient.

La conscience, comme indiqué ci-dessus, sélectionne à tous moments l'une d'elles et la répercute (broadcast) au sein du cerveau tout entier, vers les systèmes de décision globaux. Ce sont ces réseaux d'échanges, plus ou moins temporaires, ou au contraire plus ou moins permanents, qui définissent l'espace de travail global. On peut identifier dans le cerveau ce qu'il appelle de vastes « hubs » de dendrites auxquels se connectent des milliers voir des millions d'autres cellules. Ceci permet d'envisager le terme d' « intelligence collective ». Chaque neurone individuel peut s'y trouver impliqué, de même qu'à une toute autre échelle chaque abeille est impliquée dans l'intelligence collective de la ruche. Ajoutons que tout neurone individuel, accédant par ses dendrites à des milliers ou centaines de milliers de synapses, peut lui-même être considéré comme doté à lui seul d'une intelligence collective.

Nous renvoyons le lecteur au livre pour découvrir les quatre principales « signatures » de la conscience identifiées par Dehaene et révélant à l'observation l'existence et le fonctionnement de celle-ci. De même, il faudra se reporter au livre pour l'analyse des différentes fonctions de la conscience, ainsi que leur rôle dans l'adaptation des espèces vivantes au contraintes de l'évolution. La conscience, qui est présente sous des formes plus rudimentaires, selon Dehaene, chez toutes les espèces dotées d'un cerveau, voire d'un système nerveux central, s'est développée chez les hominiens du fait de l'utilisation des premiers outils et par l' émergence consécutive des premiers langages symboliques, eux-mêmes organisés en concepts transmissibles et en phrases.

Un chapitre, un peu long pour qui n'est pas médecin, examine les différentes formes d'incapacité ou de coma, affectant les cerveaux. L'accident de ski survenu récemment au coureur automobile Michael Schumacher, ayant entrainé un coma dont il n'est pas à ce jour sorti, montre cependant à tous l'utilité de ces recherches

Ajoutons que, dans le chapitre final, Stanislas Dehaene fait preuve d'une très grande ouverture aux perspectives de la construction de cerveaux artificiels. Il en a lui-même, avec des collègues, établit des modèles réduits. Bien que de taille limitée, ces modèles informatiques simulent avec une grande fidélité ce qui se passe au sein de certains réseaux de neurones. Il n'a pas précisé cependant les techniques utilisées. S'agit-il de neurones formels?

Observations

Nous aurions quelque soit la richesse du livre, quelques questions supplémentaires à formuler à l'attention de l'auteur. En voici quelques unes:

* Le livre mentionne en une phrase les travaux du projet européen Human Brain Project (HBP). L'auteur dit leur attacher une grande importance. L'évolution de ce projet, où s'est impliquée massivement l'Ecole Polytechique Fédérale de Lausane, sous la direction du Pr. Henry Markram et avec un support massif d'IBM, tient-elle ses promesses? Le projet réussit-il en pratique à entrainer la collaboration effective, comme envisagée, de milliers de chercheurs au sein de dizaines de disciplines?

* De la même façon, des rapprochements utiles se produisent-ils entre ce projet et les projets américains BRAIN et Human connectome project? (cf liens ci-dessous)

* Ces projets, et notamment l'HBP, bénéficient-ils de retombées provenant des milliards de dollars consacrés par la Darpa américaine à la réalisation de cerveaux militaires intelligents? On peut en douter. L'expérience a montré que, dans de nombreux cas, si échanges d'informations il y a, ils se réalisent dans un seul sens, du civil vers le militaire.

* Ne faut-il pas, de la même façon, s'inquiéter des investissements considérables mais encore silencieux de Google pour se doter de cerveaux artificiels globaux, associés à des champs robotisés aux ambitions considérables? Rappelons que Ray Kurzweil est devenu l'un des responsables de ces recherches. Il y a apporté ses compétences étendues et la capacité de faire collaborer des chercheurs provenant de disciplines différentes, ce qui est pratiquement hors de portée des laboratoires universitaires. Nous pensons pour notre part que si dans 10 à 30 ans, un cerveau artificiel propre à dominer le monde voyait le jour, il serait aux mains de Google et des agences de renseignement américaines qui appuient massivement les « géants du web » dont cette société offre la référence la plus significative.

* Comment se fait il que Stanislas Dehaene ne fasse pas allusion, dans l'abondante bibliographie qu'il fournit, aux travaux réalisés par Alain Cardon dans le domaine de la conscience artificielle? Est-ce parce que ce dernier est un professeur d'informatique et comme tel, ignoré des neuroscientifiques travaillant sur la matière vivante? Nous pensons pour notre part que beaucoup des modèles de processus établis par Alain Cardon seraient très utiles pour simuler ce qui se passe au coeur des réseaux neuronaux, encore inobservables par l'imagerie cérébrale ou méthodes analogues. Y compris si l'on voulait mieux comprendre le fonctionnement interne du neurone isolé, qu'il faudrait sans doute, comme nous l'avons indiqué, considérer comme constituant à lui seul un système d'intelligence collective associant ses diverses composantes, quasiment au niveau moléculaire.

De plus, selon Alain Cardon, les observateurs du fonctionnement du cerveau n'ont pas élucidé certains points caractéristiques de la pensée consciente, par exemple comment un système qui génère des formes de pensées peut-il les éprouver? Que signifie précisément alors « éprouver ? » . Traiter un tel problème ne se fait pas par de l'observation mais par une modélisation constructiviste fine. Celle-ci suggère des hypothèses que l'on vérifie ensuite.

De même un autre point doit être défini par le modèle (sinon il n'y aurait pas de modèle) : quel est l'élément minimal constituant telle pensée que l'on éprouve, par exemple à la vue d'une certaine chose que l'on reconnaît et apprécie? Il ne s'agit pas seulement d'un groupe de neurones actifs à un certain endroit ? Là encore il faut modéliser le système avec des objets informatiques et mathématiques construisant une forme complexe, dont l'on vérifie ensuite la pertinence par l'observation du cerveau.

* Sur un point précis, mais qui n'est pas de simple détail, nous pensons que Stanislas Dehaene balaye un peu vite les apports de la physique quantique à la compréhension des mécanismes neuronaux. Selon des publications récentes, des qu-bits interviennent dans la fonction chlorophyllienne, le fonctionnement des organes sensoriels de certaines espèces et, pourquoi pas, celui des neurones.

Cela ne signifierait pas que des processus aléatoires pourraient expliquer, à une tout autre échelle, le mécanisme dit du libre arbitre. Chacun aujourd'hui, à l'exception des spiritualistes, conviendra que les choix dits volontaires procèdent de mécanismes déterministes certes complexes mais qui pourraient être analysables avec des outils appropriés.

NB. L'auteur m'a indiqué qu'il préparait une version française de son livre, qui sera éditée par Odile Jacob.

Pour en savoir plus

* Human Brain Project https://www.humanbrainproject.eu/fr
* US BRAIN Initiative http://www.nih.gov/science/brain/
* Human connectome project http://www.humanconnectomeproject.org/

Publications de Automates Intelligents
* Nous avons précédemment ici interrogé Stanislas Dehaene sur ces questions (voir interview 16 janvier 2008).
* Nous avons par ailleurs présenté deux ouvrages remarquables de Lionel Naccache, « Le nouvel inconscient » (janvier 2007) et « Perdons nous connaissance » (Janvier 2010) . Le professeur de médecine Lionel Naccache, dans la ligne de Jean Pierre Changeux et Stanislas Dehaene, poursuit à La Pitié Salpêtrière des recherches sur ces sujets, en les éclairants d'observations cliniques.
* Par ailleurs, nous avions examiné deux ouvrages de Jean-Pierre Changeux, « L'homme de vérité (2002) et « Du vrai du beau et du bien (2008)

Parallèlement, nous avons recensé quelques uns des ouvrages anglais ou américains consacrés au cerveau et à la conscience. NB: ce document nécessite d'être mis à jour. (Voir notre dossier de 2008 « Le cerveau et les neurosciences » )

En ce qui concerne le cerveau artificiel et la conscience artificielle, nous avons ici même édité plusieurs ouvrages du Professeur Alain Cardon
* "Modélisation constructiviste pour l'autonomie des systèmes"
24 mai 2012
* " Vers le système de contrôle total"
20 octobre 2011
* Un modèle constructible de système psychique"
Préface du Dr Pierre Marchais
25 janvier 2011

* Nous avons par ailleurs discuté plusieurs fois les travaux de Ray Kurzweil sur ces sujets, dans la perspective de la Singularité, notamment « How to create a mind » 2012.. Nous avons par ailleurs signalé la collaboration toute récente de Ray Kurzweil avec Google, que nous évoquons dans le présent article (voir Can Google save Death ? )
Nous renvoyons le lecteur à tous ces articles, s'il le souhaite, ne pouvant les reprendre ici, même sommairement.

Partager cet article

Articles Récents

Liens

Partager cette page Facebook Twitter Google+ Pinterest
Suivre ce blog