Overblog Suivre ce blog
Administration Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

29 janvier 2013 2 29 /01 /janvier /2013 22:08

 



Présentation et commentaires par Jean-Paul Baquiast 20/01/2012

 

 

George Church est professeur de génétique à la Harvard Medical School, Directeur de PersonalGenomes.org, qui rassemble des personnes volontaires pour mettre en libre accès, à des fins de recherche, les données provenant d'une analyse approfondie de leurs génomes. Son PhD obtenu à Harvard en 1984 comportait les premières méthodes permettant de séquencer directement les génomes. Il en est résulté une initiative visant à commercialiser le génome d'un pathogène (le Helicobacter pylori) en 1994 .

Ses innovations portant sur ce que l'on nomme la seconde génération d'analyse et de synthèse des génomes et des cellules et tissus correspondants ont conduit à la création de 12 compagnies commerciales offrant des services dans la génomique médicale ( Knome, Alacris, AbVitro, GoodStart, Pathogenica ) et la biologie synthétique ( LS9, Joule , Gen9, Warp Drive ). Il participe à la définition de politiques publiques nouvelles en matière de protection de la vie privée, bioprotection et biosécurité.

Il est directeur du National Institutes of Health Center for Excellence in Genomic Science http://ccv.med.harvard.edu/ qui étudie les meilleures méthodes permettant d'intervenir à des fins thérapeutiques sur le génome humain


Pour en savoir plus

* Page personnelle http://arep.med.harvard.edu/gmc/
* Wikipedia http://en.wikipedia.org/wiki/George_Church

 

iGEM 200 à Harvard, avec l'auteur. Voir l'article et le lien
http://openwetware.org/wiki/IGEM:Harvard/2010

La thèse développé par les auteurs, comment réinventer la nature et l'homme lui-même, est devenue courante aux Etats-Unis, au moins chez les scientifiques, beaucoup moins en Europe. Elle y heurte, outre le retard technologique encore trop fréquent, d'innombrables préjugés d'ordre religieux et même politiques. Il suffit de laisser entendre que l'on aborde la question des organismes génétiquement modifiés (OGM) pour se faire accuser de parler au nom des semenciers industriels, tels Monsanto, lesquels s'efforcent d'imposer leurs produits à l'ensemble du monde agricole.

Nous retrouverons dans le cadre de cet article la question très importante largement abordée dans le livre: comment commercialiser les produits de la recherche génétique sans mettre en péril les droits des individus et plus généralement le libre accès aux ressources scientifiques. Disons que George Church a durant toute sa carrière voulu – selon nous avec succès - concilier ces deux exigences. Si effectivement il convient de lutter contre les entreprises (et dans certains pays les gouvernements) qui voudront monopoliser le domaine de l'ingénierie génétique au service de leurs stratégies, il convient bien plus encore de prendre conscience de la véritable révolution scientifique et sociétale qui est en cours sous ce nom, afin d'encourager les acteurs qui s'y investissent.

Regenesis, le livre dont George Church est le principal auteur, constitue à cet égard un véritable révélateur, y compris d'ailleurs aux Etats-Unis où les milieux conservateurs, principalement religieux, lui opposent une vive résistance. En France, nous pouvons avancer sans risque que sa lecture (à supposer qu'il soit rapidement traduit) constituera une véritable découverte. Même à ceux qui, comme nous, pensent que deux révolutions majeures se produisent actuellement en science, la robotique autonome et la biologie synthétique, le livre apporte un grand nombre de références et de sujets de réflexion sur ce dernier sujet qui n'étaient pas disponibles avant lui, au moins sous une forme aussi synthétique et – disons le – agréable à lire. Sur ce dernier plan, la culture scientifique de l'auteur est considérable mais il sait aussi rendre attrayants les sujets les plus complexes. Même sans traduction, hors les passages techniques, le livre est tout à fait lisible, sans exiger une anglophonie poussée.

La grande idée qui inspire l'ouvrage est relativement simple. Elle est en voie de démonstration dans un nombre de plus en plus grand de pays. Elle est d'ailleurs de plus en plus discutée, sans que cela soit nécessairement à bon escient, le cas de Monsanto obligeant. Résumons là en une phrase: il est désormais possible, non seulement d'analyser les gènes (ADN) d'un nombre exponentiel d'espèces, allant du virus à l'humain, mais aussi de modifier ces gènes afin d'obtenir de nouveaux organismes. Ce processus est devenu courant dans les laboratoires spécialisés. Appliqué aux bactéries, il commence à produire des retombées intéressantes, en termes commerciaux mais aussi de santé publique. Des protéines susceptibles d'usages médicaux ou industriels peuvent être produites, à des échelles devenant suffisantes pour être exploitables.

La première difficulté à résoudre consistait à analyser l'ADN et son partenaire dans la vie cellulaire, l'ARN. Quant on sait qu'il s'agit de chaines de composés chimiques, les nucléotides 1), présents par milliers à l'état moléculaire, c'est-à-dire à l'échelle de l'atome, au sein d'organismes microscopiques, les cellules et même les virus 1) on mesure l'exploit correspondant. Ce travail a été entrepris et réussi dans les années 1980 grâce aux travaux sur l' Arabidopsis thaliana. Cette plante présente un petit génome de cinq chromosomes, dont l'ADN a été entièrement analysé en 2000. L'arabidopsis est devenue un organisme modèle utilisé dans la communauté scientifique pour les études génétiques et de biologie moléculaire.

Depuis lors, les génomes d'un nombre considérables d'organismes ont été séquencés, avec des méthodes de plus en plus industrielles. Le mouvement a pris une grande importance avec la démarche que nous avons ici commentée dans plusieurs articles, le Human Genome Project. George Church s'est beaucoup impliqué personnellement dans le développement de ce grand projet multinational. Il a pris dans ce cas des positions beaucoup plus ouvertes et moins « propriétaires » que celles défendues par Craig Venter. Ce dernier, au moins en France, est beaucoup plus connu que George Church, mais cela tient selon nous au bruit médiatique que Venter sait organiser autour de lui.

Bien évidemment, mettre en évidence et répertorier de grandes catégories de séquences de nucléotides ne constitue qu'un premier pas. Pour comprendre à quoi correspondent ces éléments, il faut les analyser un par un, ce qui représente un énorme travail – même si une grande partie de ces éléments dits junk ou poubelle, ne semblent plus en usage dans les organismes d'aujourd'hui. Autrement dit, il faut interpréter les génomes, montrer à quoi correspondent leurs éléments, notamment concernant la synthèse des protéines intervenant dans la reproduction et le fonctionnement, d'abord de la cellule, ensuite de l'organisme. Ceci n'avait avant les années 2000 été entrepris qu'à très petite échelle, dans la perspective d'analyser en priorité les anomalies génétiques facilement identifiables produisant des conséquences pathologiques. Là encore cependant l' « industrialisation » des démarches permet aujourd'hui de constituer des bases de données génétiques recensant les éléments progressivement découverts, afin de faciliter de nouvelles recherches. Le rythme de développement serait selon les experts égal à celui défini par la Loi de Moore concernant les capacités des semi-conducteurs électroniques.

Des mutants

Mais que faire de tout ceci? Là se pose la grande question, sur laquelle George Church s'étend longuement. L'objectif a d'abord été de modifier l'ordre des composants de l'ADN d'un organisme, afin d'obtenir de véritables mutants. Cette démarche est désormais entreprise à grande échelle, concernant des bactéries telles qu' escherichia coli ou autres analogues, se reproduisant facilement et peu exigeantes en nutriment. Une grande partie de ce que l'on nomme désormais le filon des biotechnologies consiste à produire de nouveaux composés ayant un valeur thérapeutique ou économique à partir de telles bactéries dont le génome a été modifié en ce sens. La recherche s'intéresse ainsi de plus en plus aux bactéries et microorganismes utilisant la lumière solaire pour synthétiser des produits organiques à partir du CO2 et de l'eau. L'objectif est, entre autres, d'obtenir des biocarburants n'obligeant pas à mobiliser des terrains agricoles.

Dans un second temps, l'objectif est devenu plus ambitieux: créer des organismes multicellulaires complexes, dotés d'un génome entièrement construit, soit à partir d'éléments prélevés dans des ADN biologiques et assemblés autrement, soit à partir de composants élaborés sur le mode de l'ADN mais provenant de la chimie organique. Le vocabulaire n'est pas encore fixé complètement. On parle cependant dans le premier cas de biologie artificielle et dans le second cas de biologie synthétique.

Pour que dans tous ces cas les procédures proposées puissent être menées à l'échelle industrielle, c'est-à-dire traiter des millions ou centaines de millions de nucléotides, il faut mettre au point des machines économiquement abordables et éliminant le maximum d'erreurs susceptibles de rendre les produits finaux inutilisables. Il semble à le lire que George Church ait joué un rôle très important dans la conception et le développement de telles machines. L'industrialisation n'en est encore cependant qu'à ses débuts, un peu comme l'était la machine à vapeur de James Watt au début de l'ère industrielle.

Mais pour quoi faire? Les objectifs peuvent être très divers. Résumons les principaux:

– obtenir des chimères végétales ou animales dotées de caractères facilitant leur adaptation à des changements de l'environnement (par exemple le changement climatique ou l'épuisement de certaines ressources) ou bien créer des espèces dotées de caractères nouveaux leur permettant d'aborder avec succès de nouveaux biotopes.

- inventer de nouvelles espèces totalement inconnues à ce jour, en favorisant systématiquement les mutations au hasard susceptibles de faire apparaître des mutants dotés de propriétés inattendues et possiblement très favorables. Dans les deux cas, c'est ce qu'a réalisé tout au long des millénaires le phénomène darwinien de la mutation-sélection naturelle. La biologie synthétique vise à obtenir ces résultats dans des délais infiniment plus courts et le cas échéant à plus grande échelle.

- redonner vie à des espèces disparues dont une partie de l'ADN a pu être récupérée. Le mammouth laineux de Sibérie suscite beaucoup d'espoir. On a parlé aussi de ressusciter le néanderthal. George Church lui-même, intentionnellement ou non, a créé ces derniers jours un malentendu. Certains média avait laissé entendre qu'il cherchait une homo sapiens aventureuse pour porter l'embryon d'un homo aussi proche que possible d'un néanderthalien. L'objectif n'est sans doute pas hors de portée, mais pour le moment il est loin d'être envisageable. Church n'avais jamais rien prétendu de tel.

- modifier enfin, de façon plus ou moins étendue, le génome reproductif de ce que l'on nomme encore l'espèce humaine. Ceci se fait déjà à petite échelle, lorsque par exemple les humains sélectionnent leurs conjoints à partir de certains traits génétiquement déterminés, ou lorsque l'examen pré-implantatoire des embryons vise à éliminer ceux dotés de gènes transmissibles porteurs de maladies héréditaires. La médecine, notamment aux Etats-Unis, recommande par ailleurs d' « humaniser » des gènes de rats ou souris afin de les rendre utilisables sans rejets dans des greffes thérapeutiques chez l'homme.

Mais a priori rien n'interdit d'aller plus loin et de construire artificiellement des parties de génomes ou génomes humains porteurs de caractères que pour des raisons diverses, leurs géniteurs, ou la société, voudraient voir se répandre. Ces modifications s'accumulant pourraient donner naissance à des individus très différents physiquement et neurologiquement des hommes actuels. On parlera de « trans-humains » ou « post-humains ». Rien n'obligera cependant à ce qu'ils soient conçus comme incapables de se reproduire avec les hommes actuels, ce qui marquerait en effet alors l'apparition d'une nouvelle espèce.

George Church fait preuve d'un certain courage en affichant publiquement que pour lui, de telles actions, visant à modifier et si possible améliorer l'espèce humaine, devront être entreprises dès qu'elles seront envisageables sans dommages collatéraux. Tout évidemment ne sera pas possible par la voie génétique. Il faudra aussi modifier l'environnement social et culturels des phénotypes et génotypes, compte tenu des contraintes de mieux en mieux étudiées aujourd'hui imposées par l'épigénétique, c'est-à-dire l'interaction des sujets avec leur milieu.

A cet égard le développement concomitant, dans le cadre de la révolution scientifique en cours, de la robotique autonome fera apparaître des systèmes artificiels plus ou moins proches de l'humain. Ceux-ci pourront entrer en symbiose avec les humains génétiquement modifés, au sein de systèmes que nous avons qualifié d'anthropotechniques. Robotique autonome et biologie synthétique apparaissent ainsi comme les deux volets qui, bien utilisées, pourraient assurer la survie de nos civilisations dans le monde de demain – y compris éventuellement sur d'autres planètes.


L'iGEM

Nous partageons pour notre part l'optimisme et le désir de découverte qui anime George Church. C'est une des raisons pour laquelle nous recommandons vivement la lecture et la discussion de son livre. Mais il est bien d'autres raisons de s'en inspirer, notamment parce qu'il fournit un grand nombre de précisions techniques que pourront utiliser les chercheurs et les entreprises visant de ce point de vue à développer les méthodes encore un peu artisanales de l'ingénierie génétique.

Dans ce domaine, comme nous l'indiquons dans un article présentant un projet européen visant à utiliser l'ADN de synthèse comme une mémoire de masse bien plus efficace que les composants électroniques (http://www.admiroutes.asso.fr/larevue/2013/133/adn.htm), le système scientifico-économique américain a fait merveille. Provenant notamment du MIT, dont George Church est issu, un véritable milieu écologique darwinien d'entreprises associant des chercheurs et des industriels a vu le jour. Les échecs sont nombreux, mais l'ensemble continue à prospérer.

Une véritable révolution culturelle se dessine ainsi, associant chercheurs, promoteurs de produits nouveaux, étudiants et même collégiens. Les Européens s'efforcent cependant d'entrer dans la bataille. Régulièrement, des publications annoncent des développements prometteurs. Si les Etats européens à la recherche de croissance s'y intéressaient vraiment, ils trouveraient là des occasions nouvelles pour créer des compétences et finalement de l'emploi en Europe même.

D'ores et déjà existent aux Etats-Unis depuis plusieurs années des concours inter-universitaires et inter-entreprises visant à sélectionner et financer des projets innovants dans le domaine de la biologie artificielle et synthétique. Le plus important et le plus couru est dit iGEM, pour Intercollegiate genetically engineered machines, inauguré en 2004 3). De nombreux établissements d'enseignement y présentent des projets. George Church signale que le gagnant d'un des dernier challenges était une équipe provenant de la Slovénie. La liste qu'il donne des nombreux sujets abordés, que l'on retrouvera à partir du site web de l'iGEN, est impressionnante. Même si tous les projets entrepris n'aboutissent pas, la démarche montre que cette discipline est dorénavant du domaine des réalités dont les décideurs devront tenir compte.

Il serait facile de terminer cette présentation trop courte d'un ouvrage remarquable par des considérations politico-philosophiques oiseuses sur les risques que courent nos sociétés en s'engageant dans les directions décrites. Ces risques ne sont pas plus grands que tous ceux découlant des progrès technologiques et scientifiques en général.

Disons qu'en matière de biologie synthétique comme en d'autres domaines sensibles, pour éviter les abus pouvant provenir d'entreprises capitalistes à la recherche de profits faciles, ou à l'opposé d'une monopolisation des recherches par des agences finançant la défense, en dehors de tout contrôle démocratique, la vigilance citoyenne s'impose, guidé par le sens de l'intérêt collectif. Mais celle-ci repose en premier lieu sur une bonne information, d'où l'intérêt de ce livre.

 

Notes
1) Nucléotides. Wikipedia http://fr.wikipedia.org/wiki/Nucl%C3%A9otide
2) Le virus ne possède qu'un seul type d'acide nucléique (ADN ou ARN). Il ne peut se répliquer qu'en pénétrant dans une cellule
3) iGen http://openwetware.org/wiki/IGEM

Voir aussi :
* Regenesis. Le premier livre encodé en ADN. Article du Time http://newsfeed.time.com/2012/08/20/the-first-book-to-be-encoded-in-dna/
* Franck Delaplace: un point de vue sur la biologie synthétique. Franck Delaplace est directeur adjoint du laboratoire IBISC (Université d'Evry / ENSIIE / Genopole). http://www.pourlascience.fr/ewb_pages/a/audio-franck-delaplace-la-biologie-synthetique-30829.php


Repost 0
17 décembre 2012 1 17 /12 /décembre /2012 16:11


Jean-Paul Baquiast 17/12/2012

Chacun croit savoir ce qu'est la science: on désigne généralement par ce terme le produit de l'activité des cerveaux humains en société qui permettent de s'accorder sur un certain nombre de représentations communes du monde, provenant de l'expérience des sens et des instruments d'observation qui les prolongent. L'ensemble de ces données et de leurs relations considérées d'un commun accord comme les plus conformes possibles à l'expérience constitue le savoir scientifique. Celui-ci est par définition susceptible de modifications à la suite de nouvelles expérimentations. Cependant, et du fait de cette évolutivité même, il est perçu comme l'outil le plus utile possible à l'humanité dans sa lutte pour s'adapter à l'évolution du monde.

La science se distingue donc des différents produits de l'imaginaire. Ceux-ci résultent également de l'activité des cerveaux humains, mais ils diffèrent des produits de la science par le fait, d'une part qu'ils ne recherchent pas systématiquement la vérification de l'expérience, et d'autre part qu'ils n'ont jamais réussi à susciter comme la science des consensus universels.

Forte de cette ambition à l'objectivité et à l'universalité, la science, à travers ses différentes formes, est devenue depuis le siècle des Lumières, le symbole de l'activité industrieuse et transformatrice des humains, sous ses aspects les plus ambitieux et les plus nobles. On lui doit un monde progressivement débarrassé de divers maux naturels contre lesquels sans elle l'humanité était désarmée. On lui doit aussi un horizon des possibles qui ne cesse de s'élargir, que ce soit sur la Terre ou dans l'espace.

Nouvelles formes de contestation

Depuis quelques décennies cependant, la science a cessé d'être, y compris au sein des sociétés qu'elle a profondément transformées, un objet incontesté de respect et d'émulation. D'une part les religions qui se sont toujours opposées à elle se font de plus en plus entendre. Elles y voient, plus que jamais et à juste titre, la seule parole susceptible de remettre en cause avec succès les « vérités » prétendument révélées dont elles font commerce. Mais d'autre part la discussion est venue du sein même des sociétés dites scientifiques.

Avec la généralisation des armes savantes, depuis deux siècles, la science était apparue comme l'instrument des guerres de conquête et de destruction. Aujourd'hui, même en ce qui concerne ses activités les plus désintéressées, il est devenu courant de dénoncer les menaces qu'elle fait courir à l'humanité et à l'environnement, dans un monde dont les ressources sont de plus en plus rares, les équilibres de plus en plus fragilisés. Les applications scientifiques les mieux intentionnées peuvent ainsi apparaître comme générant des risques inacceptables. Ainsi on évoque de plus en plus désormais les contreparties négatives des progrès de la médecine. La diminution de la mortalité en résultant, bien que souhaitable en elle-même, peut induire des tensions démographiques génératrices de conflits et guerres. Il n'y a plus aujourd'hui de domaines de la science qui, en dépit de leurs aspects constructeurs, ne fassent l'objet de critiques de plus en plus vives provenant de censeurs et d'activistes variés.

Qu'en conclure concernant la question qui nous préoccupe dans ce livre, l'avenir de la science dans les prochaines décennies? Perdra-t-elle du terrain face à des oppositions de plus en plus militantes, s'ajoutant aux offensives jamais désarmées des différents irrationalismes. Sera-t-elle considérée au mieux comme une arme à double tranchant, une sorte de Janus bi-frons dont il faudra accepter les effets potentiellement destructeurs au regard de ses effets bénéfiques?

Des systèmes anthroposcientifiques

Pour notre part, nous croyons indispensable de jeter sur la science un regard nouveau. Il faudrait cesser de la considérer en elle-même, comme une activité relativement indépendante des sociétés humaines où elle émerge et des moyens technologiques qu'elle conduit à déployer. Nous avons proposé dans un travail précédent le concept de système anthropotechnique. (J.P.Baquiast. Le paradoxe du Sapiens, éditions J.P. Bayol, 2000).

On considère généralement que les hominiens se sont différenciés des autres primates lorsqu'ils ont acquis, dans le cadre d'une « mutation » réussie, la capacité d'utiliser des outils. Avec l'utilisation des outils s'est mise en place une véritable révolution jamais vue auparavant dans l'histoire de la biologie. Des êtres nouveaux hybrides sont apparus, sous la forme de super-organismes associant en symbiose des composants biologiques et anthropologiques, d'une part, des composants technologiques, d'autre part. Dès leur apparition, ces systèmes anthropotechniques sont entrés en compétition darwinienne pour la conquête des ressources et du pouvoir, éliminant ce faisant une partie des autres systèmes vivants

En application de cette hypothèse, qui s'est révélée fructueuse dans de nombreux domaines, nous voudrions suggérer ici de considérer les nombreux super-organismes associant des humains enrichis de savoirs scientifiques et des technologies provenant elles-mêmes de la recherche scientifique comme des systèmes anthropotechniques. Pour les distinguer des autres, on les nommera des systèmes anthroposcientifiques.

Dans cette optique, la science ne serait pas simplement une arme qu'utiliseraient les systèmes anthropotechniques dans leurs compétitions pour la maitrise du monde. Elle serait le produit global d'un ensemble très diversifié de systèmes de type anthroposcientifique , résultant de la symbiose permanente entre les humains qui la produisent ou l'utilisent, et les technologies qui se développent de plus en plus spontanément à cette occasion.

Les deux catégories d'acteurs impliqués dans le développement des systèmes anthroposcientifiques, humains et technologies scientifiques, ont évolué au cours de l'histoire selon des modalités et à des rythmes comparables. Aujourd'hui cependant, et sans doute pour le futur, il semblerait que les technologies scientifiques aient acquis une aptitude à la prolifération tous azimuts qui font d 'elles un moteur désormais dominant de l'évolution plus globale de la planète. Elles maîtrisent de plus en plus les humains, dont les capacités à les rationaliser et les mettre en oeuvre n'évoluent pas suffisamment vite.

Ces technologies, produits de la science, transforment aussi profondément la science elle-même, dans ses moteurs et ses fondements comme dans ses applications. Elles répandent notamment, partout dans le monde, à un rythme de plus en plus soutenu, des instruments nouveaux d'observation de démonstration et de calcul dont les résultats s'imposent désormais aux humains, laboratoires et chercheurs, d'abord, décideurs politiques ensuite et finalement citoyens.

Pour approfondir le concept de système anthroposcientifique, il faut l'examiner d'abord au plan théorique, afin de le préciser. Ceci permettra d'apprendre à percevoir  parmi nous la présence d'agents en grande partie invisibles dont nous sommes des produits inconscients.

A cette lumière, il sera possible d'évoquer pour mieux les comprendre les trois grandes révolutions que prépare le développement convergent et accéléré (selon les termes de Ray Kurzweil) des systèmes anthroposcientifiques: de nouvelles formes de vie et d'intelligence, de nouveaux équilibres géopolitiques et, peut-être, de nouvelles visions du cosmos, cet infra-cosmos que le physicien quantique David Deutsch a nommé « l 'étoffe de la réalité ».

 

Repost 0
8 novembre 2012 4 08 /11 /novembre /2012 08:33


Jean-Paul Baquiast 05/11/2012

Pourquoi cette question qui paraîtra tout à fait hors de propos? Parce qu'un article récent d'un lieutenant-colonel de l'US Air Force, Peter Garretson l'a posée récemment sur le site du futurologue américain Ray Kurzweil. Il n'est pas le seul à le faire aux Etats-Unis. Il s'agit d'un thème récurrent, comme le montrent les quelques références reprises ci-dessous, et les vifs débats, généralement approbatifs, suscités parmi les lecteurs de ces articles.

Peter Garretson est un officier quelque peu original. Il affirme ne pas représenter de points de vue officiels quand il traite de cette question. Certains le soupçonneront d'être un agent officieux du lobby militaro-industriel américain, désireux de relancer l'intérêt du public pour de grands programmes de défense. La chose est possible mais le succès rencontré par le thème incite à un regard plus approfondi.

Peter Garretson défend l'idée que, si l'avenir des civilisations intelligentes terrestres est effectivement menacé, ne fut-ce qu'à long terme ou très long terme, la démarche réellement intelligente pour échapper à ces risques consisterait dès maintenant à mettre en place tous les moyens technologiques et organisationnels disponibles permettant d'y échapper. Aujourd'hui, ces moyens paraissent effectivement dérisoires, mais si les civilisations intelligentes y travaillaient avec continuité, rien n'interdit de penser que progressivement des solutions à leur portée ne pourraient se préciser.

Garretson recense les principaux risques et les directions de recherche permettant, dans un proche ou lointain avenir, d'améliorer les chances de survie, tant de l'humanité que plus généralement de la vie terrestre. Il ne serait guère scientifique de refuser d'entrer dans ce débat, en arguant de son irréalisme. L'histoire de la science montre que ce qui est irréaliste aujourd'hui devient plus ou moins rapidement matière à des actions capables de modifier profondément et de façon imprévisible l'histoire de la Terre..

Nous pensons pour notre part qu'il convient ici d'engager la discussion. Avant cependant de renvoyer nos lecteurs aux articles cités en référence, quelques considérations générales nous paraissent devoir s'imposer.

Un avenir sans issues évidentes

Ceux des humains qui s'intéressent aux prévisions de l'astrophysique ne peuvent pas échapper à une certaine dépression. Selon cette science, notre soleil, dans trois ou quatre milliards d'années, sinon plus tôt, aura entrepris sa transformation en géante rouge, n'ayant plus assez d'hydrogène pour maintenir stable son état actuel. Alors, son diamètre et sa température augmenteront considérablement, rendant dans un premier temps impossible la vie sur Terre, avant de littéralement carboniser notre planète. L'évènement est inévitable, comme le démontrent les nombreuses observations de phénomènes de cette nature se produisant dans l'univers. Après le stade de géante rouge, un grand nombre d'étoiles s'effondrent gravitationnellement et deviennent des naines blanches. Ce sera sans doute le sort de notre soleil et de ce qui restera du système solaire dans son ensemble.

Comment dans ces conditions espérer que, convaincus de cela, les humains (au moins ceux qui ne se réfugient pas dans une croyance rassurante en une autre vie) ne ressentiraient pas un profond sentiment de malaise? On répond généralement à ce sentiment de malaise que quelques milliards d'années représentent une très longue durée dans l'histoire de la vie. Celle-ci ne serait apparue sur Terre que voici seulement 3,5 milliards d'années environ. Elle n'aurait pris la forme des organismes multicellulaires dont nous sommes issus que vers – 650 millions d'années. L'homo sapiens date d'environ 100.000 ans et notre civilisation technologique de 100 ans. Aujourd'hui, beaucoup de prévisionnistes se demandent si, au rythme avec lequel l'humanité épuise les ressources terrestres, cette civilisation ne s'écroulera pas avant la fin du 21e siècle. On conçoit donc que se préoccuper de l'état du monde, et de celui de la vie dite intelligente, à l'échéance du milliard d'années, relève de la pure spéculation philosophique. Les esprits inquiets qui en ressentiraient de l'angoisse nécessiteraient un traitement psychologique.

Au plan scientifique, on fait aussi à juste titre observer que les modèles cosmologiques relatifs à l'évolution de l'univers traduisent l'état des connaissances au moment de leur élaboration. Ces connaissances peuvent changer, non seulement dans le grand futur mais assez vite. Nous avons ici même rappelé, dans des articles précédents, qu'aujourd'hui les conceptions relatives à l'espace-temps einsténien se heurtent à des représentations très différentes, inspirés de la mécanique quantique. Les unes comme les autres, bien qu'incompatibles entre elles, sont compatibles avec les instruments développés par la science et la technologie moderne. On peut donc légitimement espérer que ces deux approches trouveront une synthèse dans les prochaines années ou décennies. Alors des concepts comme le voyage dans le temps ou l'exploration des trous noirs paraîtront plus accessibles à une pratique expérimentale. Si les théories changeaient, modifiant de ce fait nos représentations du cosmos et la façon dont nous pourrions y intervenir, ne serait-il pas plus sage d'attendre de tels changements, plutôt qu'élaborer des maintenant à grand frais des stratégies de survie qui devraient sans doute alors être entièrement repensée? Nous ne le pensons pas.

Les bénéfices immédiats de stratégies de survie à longue échéance

Tout laisse penser que réfléchir à ce que pourraient être des stratégies de survie à très longue échéance, voire en vue des quelques centainesde siècles futurs, et préparer des maintenant de telles stratégies, aurait pour nos sociétés des effets immédiatement bénéfique. Plusieurs raisons pourraient justifier une telle politique. En voici quelques unes:

* Il est très probable que la Terre et notre civilisation avec elle, affronteront dans un délai indéterminé, éventuellement très rapidement, des risques ou dangers de grande ampleur, d'origine terrestre ou cosmologique, autrement dit qui ne relèveraient pas de notre responsabilité. Se préparer à y faire face, ou à survivre si la catastrophe ne pouvait être évitée, relève de la simple prudence. Si les animaux ne peuvent pas grand chose pour pallier de telles catastrophes, une civilisation intelligente comme la nôtre serait inexcusable de ne pas s'y préparer. On cite généralement la rencontre avec un astéroïde, mais d'autres phénomènes peuvent atteindre la Terre, par exemple une éruption de la couronne solaire dirigée dans notre direction. La liste en est longue. Il faut l'avoir en esprit et il serait raisonnable de ne pas attendre la concrétisation de ces menaces pour tenter de réagir.

* Plus généralement, les précautions que l'on pourrait prendre pour faire face à des risques futurs hypothétiques pourraient dès maintenant suggérer des mesures de défense permettant d'affronter des risques actuels qui eux, n'ont rien d'hypothétique. L'on voit ainsi que l'impréparation de nos sociétés face à des phénomènes liés au réchauffement climatique (montée des eaux océaniques conjuguée avec des tempêtes, par exemple) devrait imposer dès maintenant des mesures de sauvegarde plus ou moins coûteuses, de grande ampleur, qu'il faudra décider de mettre en place sans attendre. Ces mesures seraient un bon entrainement dans la perspective d'évènements naturels d'une bien plus grande ampleur.

* Un troisième argument, différent, justifie la préparation de stratégies et de moyens de survie intéressant le grand avenir. Ces moyens feront pour l'essentiel appel à des technologies et sciences qui sont déjà en usage, mais qui ne bénéficient aujourd'hui que d'investissements limités, notamment en période d'augmentation des demandes de consommation et de diminution des ressources disponibles. On citera en particulier tout ce qui concerne le domaine des activités spatiales et du développement de systèmes d'intelligence artificielle et de robotique dite autonome. Il en est de même concernant le vaste domaine de la vie artificielle.

Or les programmes correspondants, menés ou prévus aujourd'hui, n'entraînent que des dépenses marginales, par comparaison avec toutes les ressources que gaspillent les sociétés actuelles, riches ou pauvres, par incompétence, incapacité de coopérer et recours à des opérations militaires aux conséquences généralement néfastes. La conséquence en est que l'humanité ne sait pas tirer partie des innombrables perspectives de croissance qui résulteraient d'un recours beaucoup plus importants aux investissements dans les sciences émergentes et dans les connaissances associées. Le physicien David Deutsch a bien montré, dans son dernier ouvrage, l'importance des opportunités qui sont ainsi perdues (David Deutsch. The beginning of infinity) Lire notre chronique à ce sujet. On pourrait donc espérer que la peur d'une disparition, fut-elle lointaine, pousserait les sociétés actuelles à investir beaucoup plus massivement dans des programmes de survie, qui apporteraient aussi dans l'immédiat de nombreuses retombées positives, économiques et sociales.

* Ajoutons un 4e argument. Il concerne le fait que la survie face aux catastrophes proches ou lointaines ne surviendra pas spontanément, mais nécessitera, comme on vient de le rappeler, de grands efforts d'investissements. Le mouvement dit de la Singularité (voir le Singularity Institute http://singularity.org/), principalement répandu aux Etats-Unis, peut conduire à croire que le développement spontané, convergent et accéléré, des sciences et des techniques, apportera ses bénéfices à tous dans des délais relativement bref, peut-être durant le présent demi-siècle. Alors des problèmes paraissant apparemment sans solutions en trouveront spontanément. On peut évoquer à titre d'exemple la question de la lutte qui s'imposera à tous contre le relèvement du niveau des mers. Des solutions classiques, comme la construction de digues et barrages, coûteront très cher et ne seront donc pas généralisables. Mais certains experts, dès maintenant, réfléchissant à la protection d'une ville comme New York face à de nouveaux ouragans, proposent des mesures de renforcement des défenses littorales faisant appel à de nouvelles technologies paraissant (à tort) encore futuristes. Si ce point de vue était adopté, il s'agirait des bénéfices anticipés d'un mouvement comme la Singularité.

Cependant nous sommes de ceux qui pensent qu'aucune solution ne survient sans efforts. Pour que les sociétés économisent et investissent afin d' accélérer le développement des sciences et des techniques, hâtant ainsi la survenue de la Singularité, il faut de puissantes incitations. La perspective de contribuer à la survie sera l'une d'elles, fut-elle lointaine. Beaucoup d'humains sont suffisamment idéalistes et visionnaires pour adhérer à de tels projets, même si les bénéfices qu'ils en tireraient à court terme restaient faibles. D'où l'intérêt d'une démarche comme celle proposée par Peter Garetson et d'ailleurs chaudement soutenues par le Singularity Institute.

Sauvetages sélectifs ou étendus à tous?

Un autre aspect important des bénéfices résultant de l'élaboration de stratégies de survie à moyen et long terme est que celles-ci posent clairement la question de l'unité des humains face aux risques, actuels ou futurs. Il est évident qu'aujourd'hui, cette unité n'existe pas. On retrouve là l'inégalité profonde qui sépare au sein de l'humanité la petite minorité des riches et puissants et l'écrasante majorité de ceux qui ne le sont pas. Cette inégalité se manifeste d'un Etat à l'autre (pays développés versus pays émergents ou sous développés) mais aussi ou à l'intérieur de tous les Etats eux-mêmes. D'une part les politiques de protection et les investissements de secours sont sauf exception principalement réservés de facto aux riches et puissants. Mais d'autre part ceux-ci ne cachent plus désormais leur volonté d'utiliser à la défense de leurs privilèges les moyens de sécurité et de défense que permettent les technologies et sciences émergentes.

Cette constatation découle dans l'immédiat d'une simple observation. Même si les budgets et les actions de sécurité et de défense sont de plus en plus couverts par le secret, il apparaît cependant que l'essentiel des programmes spatiaux ou relatifs à l'utilisation des sciences et technologies nouvelles sont décidés à l'intérieur des agences de recherche ou des laboratoires militaires. Ceci principalement aux Etats-Unis, mais aussi en Chine, sans mentionner les vieux acteurs du domaine comme la Russie. La Chine, dans le cadre de décisions ne s'embarrassant pas de recueillir le consensus des populations, conduit dans ces domaines, à pas forcés, de véritables politiques de conquête, à l'assaut de la forteresse américaine – qui ne demeure pas en reste, au demeurant.

Ceci était apparu depuis longtemps au sein des milieux de futurologistes princapalement américians qui visaient à préparer la survie. Citons en particulier la Lifeboat Foundation http://lifeboat.com/ Celle-ci ne s'est jamais cachée de préparer des solutions de survie (éventuellement à bord de vaisseaux spatiaux ou d'astéroïdes) intéressant une minorité de quelques dizaines de milliers de personne au mieux. En aucun cas n'est envisagée la possibilité de secourir la population entière de la Terre.

Or cette position égoïste, généralement condamnée par les critiques, ne tient pas compte du fait que la survie de l'humanité se jouera à l'échelle de la planète entière, en engageant chacun. Il n'y aura pas un canot de sauvetage privilégié, qui pourrait prendre la mer en se désintéressant du reste de l'équipage. D'ores et déjà, les responsables en sont conscients. Ainsi la lutte contre le réchauffement climatique doit se faire avec la coopération de tous les peuples. Sinon elle échouera. Pareillement des installations lunaires ou martiennes ne réussiront que si leurs promoteurs réussissent à s'entendre à l'échelle internationale. A plus forte raison en sera-t-il ainsi dans le lointain avenir évoqué par les futurologues de la Singularité.

Les solutions de survie nécessiteront de tels moyens qu'elles ne pourront être mises en oeuvre sans la coopération de tous, en vue du bénéfice de tous. Tous ne seront peut-être pas sauvés, mais tous devront s'unir dans la recherche du but global. L'objectif est peut-être utopique. Peut-être verra-t-on se perpétuer dans l'espace cosmique les guerres entre Terriens, avec le risque d'une auto-destruction. Mais l'alliance de tous devra impérativement être recherchée au départ, et encouragée de toutes les façons possibles.

Les domaines de survie envisagés par l'article du colonel Garretson s'organisent autour de deux grandes options, qu'il faudra envisager successivement: établir des colonies spatiales en maîtrisant l'énergie du soleil à l'échelle du système tout entier - aller au delà du système solaire, notamment pour faire face à la transformation ultérieure du soleil en géante rouge. Dans les deux cas, les moyens à déployer seraient tels, dans l'état des connaissances actuelles, que l'objectif pourrait être considéré comme utopique, même à l'échelle du million d'années. Mais le message des promoteurs de ces idées est très sain. Organisons nous dès maintenant en vue de planifier sa réalisation. Unissons nos compétences et nos moyens pour y parvenir. Peut-être n'y réussirons- nous pas. Mais peut-être aussi surviendront des circonstances inattendues favorables que nous pourrions exploiter, à condition précisément de s'être organisés pour le faire.

Aucun scientifique, aucun homme politique un peu ambitieux ne pourrait refuser ce message.

Mais que sauver exactement?

Au delà de la question de la survie de l'humanité sous sa forme actuelle, la planification de la survie envisagée ici pose une question essentielle: celle des valeurs, entendues au sens large, que cette démarche aboutirait à préserver et le cas échéant à propager dans l'univers. S'agirait-il de la vie en général, sous sa forme unicellulaire? Mais on suppose aujourd'hui que celle-ci serait déjà présente très abondamment dans de nombreuses planètes. Inutile de se donner beaucoup de mal pour la sauver. S'agirait-il de la capacité de la vie à donner naissance, dans le cadre d'une évolution de type darwinien, à un nombre illimité d'espèces imprévisibles au départ? Là nous sommes en présence d'un processus beaucoup plus intéressant – étant entendu qu'en ce cas, il ne faudrait pas se limiter au sauvetage de la vie biologique telle que nous la connaissons, mais à celui de toutes formes de structures réplicatives, physiques, chimiques ou informationnelles, existantes ou potentielles ?

S'agirait-il enfin de sauvegarder l'esprit ou si l'on préfère, l'intelligence, sous la forme que nous connaissons au sein de l'humanité, ou sous des formes à définir ultérieurement, existant d'ailleurs déjà peut-être dans l'univers? Là devrait être, dira-t-on généralement, le véritable objectif à atteindre.

Pour la plupart de ceux qui réfléchissent à ces questions, l'humanité sous sa forme actuelle, prédatrice et destructrice, ne mériterait guère d'être étendue à d'autres planètes. Mais qui aujourd'hui sur Terre serait habilité à définir puis répandre des formes d'organisation biologique et sociale plus intelligentes, c'est-à-dire plus « amicales » à l'égard du cosmos? On pourrait craindre que de nouveaux pouvoir, aussi injustes et dangereux que celles dominant la Terre aujourd'hui, ne s'expriment à cette occasion. Les auteurs de science-fiction ne s'y trompent pas. Les civilisations extraterrestres qu'ils imaginent, à tort ou à raison, ne sont guère plus recommandables que les nôtres.

Par ailleurs, il convient de ne pas s'illusionner sur les capacités d'un volontarisme humain à contribuer à la création de nouvelles organisations améliorées, par rapport à celles que nous connaissons. La science moderne croit de moins en moins au volontarisme. Elle s'efforce seulement de prendre au mieux conscience de processus matériels, biologiques ou cognitifs apparaissant spontanément, sur le mode chaotique, au sein de l'évolution globale caractérisant l'histoire de la Terre.
Cette dernière réflexion peut conduire à se demander si le cosmos tout entier ne serait pas engagé, au moins depuis la fin de la période dite de la reionisation, estimée à 700 millions d'années après le Big Bang, dans un processus de génération de structures atomiques et moléculaires obéissant à des contraintes de type darwinien, sur le mode dit Hasard et Nécessité. Dans ce cadre, l'évolution du cosmos pourrait faire émerger, au sein des nuages de gaz, d'étoiles, de galaxies voire de trous noirs, des structures ou organismes capables d' « intelligence ».

On pourrait définir celle-ci comme la capacité pour certains organismes de construire des modèles ou cartographies de leur environnement, de se représenter eux-même au sein de ces modèles et de générer des actions visant à leur survie et à leur développement. On nomme généralement ceci la conscience. Les humains sont dorénavant très proches de pouvoir mettre en place des organismes conscients artificiels de ce type, pouvant éventuellement les remplacer dans certaines circonstances, notamment l'exploration spatiale. Ces actions mettront en oeuvre les ressources actuellement disponibles au sein du cosmos (énergie et matière) afin de créer à terme des formes de vie et de consciences plus efficaces, plus durables et finalement plus exportables que celles existant sur Terre.

Mais dans cette optique, les humains ne seraient pas pour grand chose dans ce que l'on pourrait appeler une « conscientisation » de tout ou partie de l'univers. Il s'agirait d'un processus quasiment obligé au sein sinon de l'univers tout entier, du moins de l'univers tel que nous les connaissons. Les spécialistes de la cosmologie du multivers pourront alors supposer que ce processus de conscientisation serait, pour l'univers dans lequel nous nous trouvons, une formule lui permettant de s'imposer à d'autres dans un cosmos élargi au multivers.


Références

* Article de Peter Garretson http://www.kurzweilai.net/what-our-civilization-needs-is-a-billion-year-plan?utm_source=KurzweilAI+Weekly+Newsletter&utm_campaign=8dd204854e-UA-946742-1&utm_medium=email
* Autre article. Robert Blum Let the AIs, not us, formulate a billion-year plan!

http://www.kurzweilai.net/let-the-ais-not-us-formulate-a-billion-year-plan

Repost 0
19 octobre 2012 5 19 /10 /octobre /2012 21:29


Reality, A Very Short Introduction

par Jan Westerhoff

Oxford University Press 2011

Présentation et discussion par Jean-Paul Baquiast
17/10/2012

 

 

Jan Westerhoff enseigne la philosophie des sciences et des religions orientales à l'université de Durham et à la School of Oriental and African Studies de l'Université de Londres

Pour en savoir plus

voir http://en.wikipedia.org/wiki/Jan_Westerhoff

 

La collection A Very Short Introduction de l'OUP est un peu comme notre Que sais-je. Elle comporte des centaines de textes abordant sous des signatures reconnues tous les domaines de la science et de la philosophie. Sous un court volume (110 pages), le travail présenté ici offre une synthèse des questions posées aux scientifiques matérialistes par le concept de Réalité, le plus employé et aussi le plus mystérieux de tous ceux qu'utilise la pensée rationaliste, ceci depuis ses origines jusqu'aux problématiques récentes nées de la physique quantique.

Nous allons dans un première partie résumer le texte de l'auteur. Ceci ne nous paraît pas inutile, car ce dernier, bien que s'appuyant sur un grand nombre de références précises, utilise un vocabulaire un peu personnel, qui ne contribue pas selon nous à éclairer le sujet. Dans une seconde partie, nous présenterons nos propres hypothèses.

1. La Réalité à travers les principales approches de la science contemporaine, selon Jan Westerhoff

La Réalité est pour la science matérialiste aussi difficile à définir que le concept de Dieu pour les théologiens. Tout le monde est persuadé de son existence (étant entendu que peu de scientifique nient complètement celle-ci), mais personne ne peut en donner une définition précise et univoque. Les théologiens répondent à la question de Dieu en expliquant qu'il s'agit d'un Mystère que le croyant doit accepter sans chercher à le comprendre. Les scientifiques ne renoncent pas à proposer des définitions aussi précises que possible de la Réalité. Mais ils conviennent eux-mêmes que ces définitions n'épuisent pas les questions qui se posent. Une grande part d'inconnu, sinon d'inconnaissable, demeure, comme nous l'avons montré dans un article précédent (Qu'est-ce que la Réalité? Jean-Paul Baquiast 08/10/2012 ).

Dans cet article, nous rappelions, en commentant un article du NewScientist consacré à ce thème, où intervient d'ailleurs le même Jan Westerhoff, que le concept de Réalité (que nous ne distinguerons pas ici de celui de Réel) convient parfaitement pour désigner des faits d'expérience quotidienne. Il s'agit de ceux auxquels se référait le Dr Johnson en discutant de l'immatérialisme ou solipsisme défendu par l'évêque Georges Berkeley (1685-1753): « le Réel est comme ce rocher qui me blesse si je lui donne un coup de pied un peu violent ». Mais aux deux extrêmes de ce même réel, le microscopique et le macroscopique, on trouve deux réalités d'expérience, qui se rejoignent d'ailleurs peut-être, et dont la science ne peut pas encore donner de définitions précises. Appelons-les le vide quantique et le vide cosmologique. Il n'empêche que les physiciens les utilisent en permanence. Ils appliquant la consigne « calcule et tais-toi » dont le caractère théologal n'échappe à personne.

Le livre de Jan Westerhoff est, pour l'essentiel, consacré à une présentation des différents acceptions données au terme de Réalité par les grandes disciplines scientifiques. Il s'agit nécessairement d'une introduction sommaire. Mais elle est néanmoins très éclairante. Dans un premier chapitre, il examine les hypothèses, assez en vogue aujourd'hui, selon lesquelles la Réalité dont nous croyons constater l'existence serait le résultat de rêves ou de simulations dont nous serions des agents involontaires. Nous ne pensons pas utile de discuter ici ces hypothèses. Les progrès permanents de la réalité virtuelle encouragent leur diffusion, mais le thème nous paraît cependant relever davantage encore de la science fiction que de la science. Trois autres chapitres plus substantiels sont consacrés à la Réalité, celle de la matière, celle du Moi (ou de la personne) et celle du Temps. Nous allons en dire quelques mots

La réalité de la matière.

L'auteur propose 4 définitions du Réel matériel. Dans son vocabulaire un peu particulier, il nomme la première Matrix definition. Il s'agit de ce qui apparaît à nos sens. La définition n'est évidemment pas suffisante car elle inclut le produit de toutes les illusions des sens ou de l'imaginaire. C'est néanmoins sur elle que nous nous appuyons dans la vie ordinaire. Il nomme la seconde 1984 definition, en allusion à l'ouvrage de Georges Orwell « 1984 ». Il s'agit de tout ce qui fait l'objet de convictions partagées au sein d'une communauté donnée. Ce concept est utilisé couramment dans les travaux scientifiques. Si le chercheur ne peut se prévaloir en général d'une objectivité indiscutable, il s'efforce d'être conforme à une subjectivité qu'il partage avec ses collègues, autrement dit une intersubjectivité.

L'inconvénient de ces deux définitions est qu'elles évacuent d'emblée la prise en considération d'une Réalité qui existerait indépendamment d'humains pour en traiter. Mais après tout, dira-t-on, qu'est-ce qui nous autorise à supposer qu'il existe dans des mondes dépourvus d'humains pour l'observer une réalité comparable à celle que nous observons? . Nous reviendrons plus bas sur ce point capital

.La troisième définition de la Réalité proposé par Westerhoff est nommée par lui Johnson's definition, en allusion à la réfutation du solipsisme proposée par le Dr Johnson, à laquelle nous avons fait allusion ci-dessus. La réalité est alors ce qui nous résiste. Elle peut contredire nos hypothèses, démentir nos expériences, et demeurer indépendamment de nous si nous ne sommes pas là pour la mettre à l'épreuve. Mais alors qu'en est-il des rêves, qui nous résistent même si nous ne leur reconnaissons pas de caractère réel? Et qu'en est-il des marchés boursiers? Sont-ils réels? Non, car ils ne résisteraient pas au fait que nous cessions de croire en eux?

On retrouve cependant l'objection précédente. C'est le regard de l'humain qui constate les résistances de la réalité. Ces résistances proviennent le plus souvent de postulats ou préalables posés par l'humain. Si le Dr Johnson avait connu la mécanique quantique, il aurait pu supposer que son pied, réduit à la dimension de quelques atomes, aurait pu traverser sans obstacles les atomes du rocher. Il reste que la sanction de l'expérimentation, c'est-à-dire la mise en évidence d'éventuelles résistances de la nature à telle ou telle hypothèse, est inséparable de l'élaboration des théories scientifiques, tout au moins dans le domaine des sciences expérimentales.

La quatrième définition proposée est dite Apocalyptic definition. Ce terme bizarre désigne le monde tel qu'il est supposé exister, qu'il y ait ou non des humains pour l'observer et des consciences humaines pour l'interpréter. Elle élimine tout ce que nous nommons des réalités sociales, mais elle permet d'inclure l'ensemble du monde, observable, non encore observé ou inobservable. C'est selon Westerhoff la définition la plus convenable pour la recherche scientifique. Encore faudrait-il que la science sache s'arrêter à la frontière de l'affabulation (qui peut prendre en ce cas le visage de théories non susceptibles de vérifications expérimentales). Sous cette réserve, cette définition est indispensable pour l'élaboration d'hypothèses concernant le monde momentanément ou même définitivement hors de portée de l'homme, par exemple en cosmologie.

Plus bizarre encore est la cinquième définition proposée par le livre, dite Turtle definition . En clair il s'agit de désigner le point au delà duquel ceux qui cherchent à décrire le réel se refusent à aller, parce que les éléments pertinents leur manquent alors. On se borne à postuler qu'il existe quelque chose, une sorte de cause première, pouvant expliquer l'existence des réalités perceptibles. Mais on s'en tient là. Le terme fait allusion à la tortue mythique sur laquelle le monde était censée reposer, et que l'on renonce à décrire, sauf à faire allusion à une chaine infinie de tortues analogues. Le réel serait ainsi ce qui se trouve « en dessous » ou au delà de toutes les descriptions scientifiques, un facteur dont la science confesse le caractère au moins temporairement inconnaissable.

On pourrait aussi parler d'un point au delà duquel cessent les spéculations et les paris, faute de pouvoir aller plus loin (Real is where the buck stops, selon la devise inspirée du poker et inscrite sur le bureau du président Truman « The Buck stops here »). Cette définition pourrait convenir à ce que nous disions du vide quantique et du vide cosmologique, concepts qui marquent la limite actuelle des spéculations scientifiques vers l'infiniment petit et l'infiniment grand, et qui désigne cependant ce que les physiciens n'ont pas renoncer à nommer une réalité.

Westerhoff termine ce chapitre consacré à la réalité de la matière en rappelant les problématiques bien connues soulevées par les interprétations de la mécanique quantique, le rôle supposé de l'observation dans la décohérence d'un objet quantique et celui supposé de la conscience humaine dans cette observation. Nous n'y reviendrons pas ici. Le lecteur en trouvera un résumé, fait par l'auteur lui-même, sur le site du NewScientist

La réalité du Moi ou de la Personne

Le postulat du Moi, c'est-à-dire la croyance à la réalité d'une entité répondant à cette définition, est incontournable dans les cultures occidentales, qu'elles soient d'ailleurs scientifiques ou religieuses. Mais il s'agit sans doute d'une création relativement récente. Des cultures plus primitives s'intéressaient plus au Moi collectif qu'au moi individuel. Le concept de Moi pourrait être confondu avec celui de Moi conscient, et plus généralement avec celui de conscience, qu'elle soit dite « primitive » (courante chez la plupart des animaux) ou « supérieure ». Mais l'auteur n'entre pas dans ces distinctions. Rappelons que nous avons précédemment consacré de nombreux développements à la question du Moi et à celle de la conscience, qui implique aussi le concept éminemment controversé du Moi ou conscience volontaire, éventuellement doté de libre-arbitre.

Dans ce 3e chapitre, l'auteur mentionne un certain nombre d'expériences, cliniques ou relevant des neurosciences, permettant de mieux comprendre comment le cerveau, associé au corps, construit le Moi. Il rappelle aussi les facteurs, certains apparemment insignifiants, pouvant perturber cette construction, nous rendant plus ou moins inaptes à la vie sociale ou intellectuelle. Il évoque à cette occasion les expériences déjà anciennes de Benjamin Libet, montrant un décalage entre le début de l'exécution d'un acte et la prise de conscience de cette action. A propos du rôle de la réduction de la fonction d'onde par la conscience, il évoque très superficiellement l'hypothèse des univers multiples, dite aussi en ce cas des « multi-minds », selon laquelle le Moi procédant à un choix se duplique entre deux branches d'univers, l'une comportant le Moi ayant fait tel choix et l'autre le Moi ayant fait le choix contraire. On peut évidemment se demander que devient alors le Moi initial. Nous pensons avec Westerhoff que ces supputations n'ont guère d'intérêt pratique.

Le Moi peut légitimement être considéré comme un facteur d'unification des multiples états neuronaux intéressant le cerveau en interaction avec le corps et son environnement. On parle aussi d'un centre de contrôle global. Mais on sait que la localisation précise de cette fonction importante n'apparait pas. Elle semble résulter de la coopération d'un grand nombre d'aires cérébrales. Elle est aussi, comme nous l'avons rappelé, à la merci du moindre accident neurologique. Signalons à ce sujet la sortie du dernier livre du neurologue Oliver Sacks, « Hallucinations » qui explore un certain nombre d'états de conscience donnant du monde extérieur des représentations déformées, considérées comme anormales, sauf en ce qui concerne la création artistique. Ce chapitre évoque aussi en quelques mots les hypothèses de la mémétique, elles-aussi bien connues de nos lecteurs. On dira en simplifiant que pour les méméticiens se sont des mêmes en compétition pour la survie qui construisent les contenus mentaux les plus favorables à leur reproduction. Ceci avait été dit précédemment d'une façon plus simples: ce sont nos idées et nos préjugés qui nous façonnent, et non l'opposé. Le chapitre conclue comme l'on pouvait s'y attendre, au terme de cette trop sommaire exploration, que le Soi, impossible à mettre en doute, est également indéfinissable. Il s'agit d'un autre exemple de la « Turtle definition » évoquée précédemment à propos des « réalités » du monde de la physique.

La réalité du temps.

De nombreuse légendes traditionnelles ont exprimé l'idée que le temps n'était pas une réalité immuable, malgré la conviction bien implantée chez les individus psychiquement normaux qu'il existe une flèche du temps s'écoulant du passé vers le futur, en passant par un point, indéfinissable en termes précis, qui est le présent. Cette question du temps, depuis les propositions de la relativité restreinte d'Einstein, est devenue inséparable de tous les modèles d'univers. Elle est généralement liée à celle d'espace.

Si cependant l'espace-temps, où si l'on préfère un temps sans réalité objective, peut très bien se concevoir en termes mathématiques, il ne correspond à aucune de nos expériences pratiques. Peut-on alors considérer comme « réel » le seul passé, étant entendu que le futur est encore à naître. Là encore, si différentes sciences peuvent parler du passé en termes relativement objectifs, la mécanique quantique nous a appris qu'il n'en était rien. Dans les expériences inspirées des fentes de Young, l'observation d'une particule ayant déjà interagi avec une autre pour construire une frange d'interférence peut rétroactivement détruire cette frange.

Quant au présent, une autre série d'expériences dues elles aussi à Benjamin Libet, et citées dans le livre, montrent qu'il existe un décalage de 500 millisecondes entre la perception par le sujet d'une stimulation produite directement dans son cerveau par l'intermédiaire d'une électrode, et la prise de conscience de l'effet de cette stimulation. Ces décalages sont aujourd'hui exploités couramment par le cinéma pour créer, grâce à des images se succédant à un rythme trop rapide pour être détecté consciemment, des effets de conscience dont le sujet ne perçoit pas l'origine. La sensation de « présent » ne peut donc pas être considérée comme correspondant à une réalité objective.

Il en sera de même des prévisions relatives au futur. Le paradoxe d'Andromède, que nous ne développerons pas ici, présenté par Roger Penrose, montre que deux personnes peuvent avoir d'un même phénomène se produisant à distance, des visions différentes selon que l'une sera immobile et l'autre en mouvement () . Là encore, le futur sera relatif aux conditions de l'observation et au statut de l'observateur.

Le lecteur objectera que toutes ces considérations sont intuitivement admises par les humains. Ils n'attribuent que des valeurs relatives à ce qu'ils nomment le passé, le présent et le futur. Il reste que parallèlement, ils se refusent à dénier toute réalité objective à ces concepts. On se retrouve là, comme dans les cas précédemment évoqués, confronté à une réalité indescriptible sur laquelle s'appuient les pyramides de nos croyances à la réalité.

Six catégories de théories

Dans un chapitre conclusif, l'auteur propose de classer les croyances en la réalité en 6 grandes catégories. Selon la première, qu'il nomme « universalisme », tout est réel, les électrons, les esprits, les nombres. Selon la seconde, le solipsisme, les choses n'ont de réalité que dans nos esprits. Selon la troisième, qu'il nomme anti-solipsisme, tout est réel, sauf le sujet pensant. Pour une 4e conception, qu'il nomme le réalisme sélectif, un certain nombre de choses sont réelles, mais d'autres ne le sont pas. Les théories scientifiques peuvent faire des choix entre elles. Ainsi, pour certains mathématiciens, les nombres existent dans un monde réel, distinct du monde de la réalité matérielle. On parle d'une réalité platonicienne. Pour d'autres, les nombres sont des créations de l'esprit ou, plus précisément du cerveau.

Enfin, à l'intérieur du réalisme sélectif, il propose de distinguer deux catégories de théories. Les premières élimineraient le concept d'esprit. Rien de ce dont nous sommes conscients ne serait réel. Il s'agirait dans tous les cas de diverses formes d'illusions. A l'opposé, on distinguerait les théories pour qui n'ont de réalité que les choses dont nous sommes conscients, autrement dit celles ayant une réalité dans notre cerveau. Mais ces deux classes soulèvent leur propres difficultés. Dans la première, comment expliquer que la conscience puisse surgir dans un monde sans esprit. Dans la seconde, comment expliquer que la matière puisse surgir en dehors de cerveaux lui ayant donné sa réalité?

2. Nos propres hypothèses relatives à la réalité de la réalité

Jan Westerhoff a la sagesse de ne pas proposer de solutions qui lui soient propres, dans le labyrinthe de choix qu'il nous a décrit. Nous voudrions pour notre part, abandonnant toute sagesse, formuler nos propres hypothèses relatives à la réalité de la réalité. Ceci d'autant plus qu'elles pourraient s'insérer dans une approche, ressortissant de ce que certains nomment le constructivisme, qu'il n'a pas développée.

La création de la réalité par des robots

Imaginons un groupe de robots présentant les caractères les plus évolués de ceux que proposent la robotique et l'intelligence artificielle actuelle. Il ne s'agit pas de science fiction car de tels robots sont mis au point et étudiés, soit dans des laboratoires travaillant pour la défense (mais il est difficile d'en parler compte tenu des restrictions de communication imposées dans ces domaines) soit par des firmes civiles telles que Sony ou Aldebaran Robotics (image, robots Nao), au moins si celles-ci disposent de crédits de recherche en quantité suffisante. Nous y avons consacré plusieurs articles il y a quelques années. (voir par exemple un entretien avec Fredéric Kaplan ).. On mentionnera aussi les modèles de conscience artificielle établis par Alain Cardon, mais ceux-ci, faute de crédits, sont restés pour l'essentiel théoriques.

Chacun de ces robots peut être considéré comme un système cognitif, autrement dit capable de se donner des représentations du monde lui permettant d'optimiser son comportement dans ce monde. Il dispose en cela (comme les animaux et les humains) d'organes sensoriels (dits d'entrée) et d'organes effecteurs (dits de sortie). Il possède par ailleurs, un système coordinateur d'ensemble (système nerveux), dont la mémoire centrale gère ces représentations. Autrement dit, à partir de ces dispositifs, il peut générer des hypothèses relative au monde, sur un mode éventuellement aléatoire, qu'il soumet à l'expérience par l'intermédiaire de ses organes d'entrée-sortie. Il ne conserve que celles de ces hypothèses qui sont vérifiées par l'expérience. Il les agrège alors à sa mémoire afin de s'en servir comme d'une base permettant de qualifier de nouvelles perceptions et suggérer de nouvelles hypothèses. On parlera de système cognitif artificiel pour marquer qu'en principe le robot ainsi décrit n'a pas besoin de faire appel à la collaboration de systèmes cognitifs biologiques.

Un tel système cognitif, aussi perfectionné qu'il soit, serait cependant sans moteur, autrement dit sans impulsion à découvrir, s'il n'était pas soumis à une compétition darwinienne pour l'accès aux ressources et par conséquent pour survivre. Cette compétition peut provenir d'autres entités non robotiques, par exemple des animaux lui disputant l'espace et l'énergie. Mais dans un premier temps elle proviendra de robots analogues (ou très voisins) travaillant en groupe avec lui. On parle parfois d'essaim ou de meute. Le groupe ainsi formé générera de la compétition entre ses membres, pour l'accès, là aussi, à l'espace et aux ressources. Cette compétition n'exclura pas la coopération, surtout si le groupe tout entier est soumis à d'autres compétiteurs extérieurs menaçant sa survie.

Les expériences menées en ce domaine montrent que les robots individuels acquièrent par essais et erreurs, à partir de leurs organes d'entrée/sortie, la capacité d'élaborer des proto-langages reposant eux-mêmes sur des concepts et des syntaxes. Les "concepts" s'étant révélés les plus pertinents pour décrire le monde extérieur et y agir efficacement sont alors mémorisées dans des bases de données dont chaque robot peut détenir une version, en l'absence de mémoires externes sur le modèle de nos bibliothèques. Avant même la production de concepts abstraits, le groupe élabore des répertoires de comportements modèles qui sont les premiers éléments de ces langages. Ces comportements, dont la signification est particulièrement facile à saisir, sont les premiers éléments des langages collectifs ainsi produits. Là encore, ils sont générés par essais et erreurs. Ils ne sont conservés qu'en cas de succès, à la lumière de l'expérience acquise par le groupe.

On conçoit que l'aptitude de tels groupes de robots cognitifs à produire des représentations pertinentes du monde leur sera précieuse quand ces robots auront été déposés par des humains sur des planètes mal connues, suffisamment lointaines pour ne pas permettre une communication à court temps de réponse avec le centre de contrôle terrestre. Ils devront alors « cartographier » cet environnement, qualifier les objets ou phénomènes qu'ils y rencontrent et utiliser leurs ressources afin d'y survivre le plus efficacement possible. Ils pourront à cette occasion élaborer de nouveaux comportements ou de nouveaux langages leur permettant de s'adapter spécifiquement à ce qu'ils découvriront (ci-contre la lune de Mars Phobos, susceptible de devenir un prochain objectif d'exploration robotique sur le modèle décrit ici)

Une découverte efficace de ces nouveaux mondes supposera que de tels meutes de robots soient capables de jeter des regards originaux sur ces mondes, sans se référer à ce qu'ils auraient pu apprendre auparavant, y compris sur Terre. Ils devront donc être capables d'ouverture, d'imagination et finalement d'invention – ceci toujours sur un mode essais et erreurs adapté à leurs capacités technologiques et cognitives. Si ces fonctions sont bien exécutées, ces robots pourront créer un « monde nouveau », n'existant jusqu'alors ni sur la Terre ni sur la planète explorée. On pourrait ainsi envisager que, combinant au hasard certaines molécules rencontrés sur cette planète, ils produisent des structures matérielles originales, éventuellement réplicatives.

Systèmes cognitifs artificiels et réalité

Tout ceci est sans doute encore peu à la portée des générations actuelles de robots, d'autant plus que les financements actuels visent surtout à développer leurs capacités de se comporter en systèmes d'armes autonomes, pour détruire et non pour construire. Mais la compétition des grandes puissances dans la découverte de l'espace, et l'incapacité d'envoyer partout des humains, en feront rapidement des « pseudopodes » des terriens, à condition que ceux-ci ne se soient pas anéantis réciproquement dans l'intervalle.

Que seront les « réalités » de ces robots? Reprenons pour en juger les grandes catégories proposées par Jan Westerhoff. Concernant la matière (celle de l'environnement physique) celle-ci sera définie par l'interaction entre les organes du robot et le monde extérieur. Elle ne sera « observée » que dans les limites des capacités instrumentales du robot. Elle ne sera « qualifiée » ou « nommée »  que dans les limites de leurs capacités langagières. Toute autre production conceptuelle ne serait que divagation, vite éliminée. Nous avons vu cependant que les robots, poussés par leur compétition pour la survie, suggéreront sans cesse de façon aléatoire un grand nombre d'hypothèses « théoriques ». Rien n'exclut que certaines de ces hypothèses, mises à l'épreuve systématiquement, loin de disparaître du fait de leur adéquation, se révèlent fructueuses, donnant naissance à de nouvelles formes matérielles.

Dans ce cas, elles élargiront le mécanisme de découverte de la « réalité » auquel se livrent les robots. Ceux-ci pourront dans leur langage parler d'un processus constructif de la réalité, non pas d'une réalité objective ou en soi, mais d'une réalité « relative ». Elle sera relative à l'observateur-acteur, à ses instruments et aux concepts symboliques qu'il a acquis pour les nommer. Ce ne sera donc pas une réalité indépendante de l'observateur mais pas davantage une réalité liée à celui-ci et indépendante du monde extérieur. La réalité, encore une fois relative, à prendre en considération pourra être définie comme le résultat de la superposition de ces deux illusions de réalité.

Le fait cependant que l'environnement extérieur non qualifié puisse comme nous l'avons vu répondre dans tel ou tel sens à telle ou telle des hypothèses générées par les robots devrait logiquement faire émerger au sein de leurs bases de données conceptuelles l'hypothèse d'un « extérieur » indéfinissable a priori mais constituant une réalité ultime. Il s'agira de la tortue décrite par la turtle definition   de Jan Westerhof. Rien n'interdirait évidemment de chercher à repousser les frontières de l'indéfinissable, par la construction à partir des processus évoqués plus haut de nouveaux éléments pouvant prétendre à s'intégrer dans les réalités matérielles, mais la frontière de l'indéfinissable sera reculée d'autant, sans que celui-ci disparaisse. Autrement dit, si ces robots réussissaient à décrire une première tortue jusqu'alors considérée par eux comme indescriptible, ils découvriraient une colonne d'autres tortues sur les carapaces desquelles la première était juchée.

Il n'est pas nécessaire de développer ici d'autres considérations, concernant la réalité du Moi et du Temps aux yeux des robots évolutionnaires que nous avons décrits. Ce seront comme en ce qui concerne la matière le produit d'interaction entre le monde extérieur a priori inconnaissable et leurs dispositifs d'acquisition de connaissance. La conscience de soi, dite aussi conscience primaire chez les animaux, est le premier produit du fonctionnement de tout robot, ne fut-il doté que de capacités limitées. Elle lui sert de référence permanente pour qualifier le résultat de ses activités exploratoires. Mais où elle-elle située? Certainement au sein du système nerveux central, mais aussi répartie dans les différents organes du robot, à l'occasion de la production des activités du système global. En fait, il s'agit là, comme précédemment, d'une « réalité » relative. Elle est en cours de construction, et donc de définition, permanente.

Concernant le Temps, enfin, il est lui aussi le produit du fonctionnement de tout robot, même élémentaire. Son passé s'inscrit dans les couches de mémoires successives résultant de son activité. Quant à son futur, il le postule implicitement en procédant à des hypothèses sur le monde qu'il met à l'épreuve de ses expérimentations. Le présent du robot, enfin, c'est ce qu'est ce robot au temps t zéro des équations qu'il pourrait utiliser s'il s'agissait d'un robot doté de symbolique mathématique.

On remarquera que tout ce que nous venons de résumer concernant la représentation de la réalité par des groupes de robots cognitifs est très voisin, sinon comparable, à la façon dont le physicien quantique décrit la réalité quand il se hasarde à le faire en prenant un recul épistémologique avec les formalismes mathématiques qu'il utilise. La Méthode de Conceptualisation Relativisée (MCR) présentée par Mme Mugur-Schächter, souvent référencée sur ce site, en donne une description excellente. (Voir notamment Mioara Mugur-Schächter " L'infra-mécanique quantique " .

Nous avons pour notre part proposé d'étendre cette méthode à l'ensemble des sciences macroscopique, y compris les sciences dites molles. Il n'y a pas de raison, à la lumière des acquis de la physique quantique, de bâtir de frontières épistémologiques dans le domaine des connaissances.

Repost 0
8 octobre 2012 1 08 /10 /octobre /2012 20:56

 


Jean-Paul Baquiast 08/10/2012

newscientist.jpgAu fur et à mesure que progresse la physique, les scientifiques, et le grand public avec eux, sont conduits à se reposer cette question vieille comme la philosophie. C'est précisément ce que vient de faire la revue NewScientist, réputée pour son sérieux. Elle consacre un numéro spécial, en date du 29 septembre, à l'exposé du problème. http://www.newscientist.com/special/reality

Nos lecteurs ne manqueront pas de se référer aux articles proposés par ce numéro. La rédaction y présente diverses hypothèses concernant la « réalité » de l'univers, au delà des considérations classiques concernant les interprétations de la physique quantique et le rôle de la conscience humaine pour réduire les fonctions d'ondes. Les questions suivantes sont abordées: un univers fait de de nombres; un univers fait d'informations, un univers holographique... Que pourrait-on ici ajouter à ces articles ?

Rappelons peut-être que la physique des particules, comme la cosmologie, débouchent aujourd'hui sur un vaste point d'interrogation concernant non seulement la nature de la réalité, mais son existence même. La physique des particules repose sur ce que l'on pourrait appeler une approche réductionniste: rechercher les constituants les plus petits possibles de la matière. Or aujourd'hui, au delà des quarks, des gluons et des électrons, la mécanique quantique, qui prend le relais à ces échelles, évoque un univers d'énergie, non descriptible en termes de temps et d'espace, nommé quelquefois le vide quantique. Provenant des instabilités du vide quantique peuvent à tous moments surgir des formes de matière conformes au modèle standard des particules. Mais rien n'interdit de penser que d'autres formes de matière, susceptibles de composer des univers différents de ceux que nous observons actuellement, ne puissent pas aussi en surgir. Pourrions-nous jamais les connaitre? Plus fondamentalement, comment qualifier cette « réalité » ultime, mère possible de toutes les réalités, correspondant à ce concept de vide quantique.

La cosmologie pour sa part conduit, à l'échelle de l'infiniment grand, à une interrogation analogue. Les hypothèses relatives à l'histoire de l'univers évoquent un point zéro, de densité et d'énergie quasi infinies, qui aurait été à l'origine du Big Bang. On parle de Singularité pour exprimer qu'à ces échelles, aucune loi reconnue par la physique actuelle ne pourrait s'appliquer. Beaucoup de physiciens admettent que la « réalité » correspondant à l'existence de cette singularité pourrait donner naissance à des univers très différents du nôtre, où notamment ce que nous nommons les lois fondamentales seraient profondément différentes.

A une échelle plus réduite, celle des trous noirs, on retrouve ce concept de singularité. Les trous noirs, comme l'a rappelé récemment Caleb Scharf, sont considérés comme participant activement au « tissu de la réalité ». Ils donneraient ainsi naissance, dans notre univers, à la physique des particules et à toutes les constructions atomiques en découlant. Mais d'où provient la matière qu'ils éjectent? Et, plus crucialement, où va la matière qu'ils absorbent. Là encore, on pourrait évoquer le concept de Singularité. De plus, il y aurait dans l'univers observable des trillions de trous noirs, chacun porteur de sa propre singularité. Ces singularités seraient-elles, si l'on peut dire, toute de la même essence, ou renverrait-elles à des « réalités potentielles » différentes? Si les trous noirs s'évaporent, peut-on admettre l'hypothèse formulée par Leonard Susskind et Gerard 't Hooft , reprise par Craig Hogan, selon laquelle l'information sur l'univers qu'ils contiennent pourrait se retrouver à l'horizon de l'univers entier sous forme d'une projection holographique? Nous rencontrons à nouveau la question précédente: comment qualifier cette « réalité » ultime, mère possible de toutes les réalités, correspondant à ce concept de singularité, qui serait très comparable à celui de vide quantique.

Au dela de ces questions s'en pose une autre, rarement évoquée: peut-on faire confiance à notre cerveau (ou notre esprit) qui nous suggère ces diverses hypothèses, sans généralement proposer des expérimentations permettant de les mettre à l'épreuve. Quelques chercheurs répondent pas la négative. Pour eux, nous devrions admettre que notre cerveau, formé par des millénaires d'évolution imposant de résoudre des questions pratiques; liées à la matière quotidienne, devrait reconnaître franchement son incapacité à aller au delà. Si le « réalisme des essences » est une illusion comme le suggère la Méthode de conceptualisation relativisée proposée par Miora Mugur-Sächter, il serait tout à fait légitime de penser que la conjonction de nos cerveaux et de nos instruments puisse rencontrer des obstacles « matériels » insurmontables dans l'effort pour conceptualiser de nouvelles formes d'univers.

Ne pas renoncer

En ce cas, des réponses originales aux questions précédentes ne pourraient provenir que de mutations neuronales ou de progrès inattendus des systèmes cognitifs artificiels que nous produisons par ailleurs,. On pourrait envisager aussi une rencontre, plus qu'hypothétique, avec des extraterrestres plus avancés que nous ayant depuis longtemps résolus les problèmes qui nous arrêtent.

Mais faut-il prématurément renoncer à voir nos cerveaux, ou plus précisément le système évolutionnaire que constituent ceux-ci et nos connaissances scientifiques en réseau, faire émerger de façon aléatoire, un prochain jour, des solutions aux questions sur la réalité évoquées ici. Ces solutions nous paraîtraient alors évidentes. T

Des mutations inattendus dans nos cerveaux et dans les connaissances qu'ils produisent, qu'elles soient théoriques ou pratiques, sont peut-être déjà en train de s'amorcer, sans que nul, aveuglé par le discours académique dominant, ne s'en rende compte. Rappelons d'abord que quelques chercheurs n'ont pas renoncé à mettre en évidence des « variables cachées non locales » qui permettraient de décrire une réalité que la physique quantique persiste à refuser d'aborder autrement qu'en termes de fonctions d'onde. Mais il y a plus. Il est surprenant de voir l'incroyable ébullition qui agite les cerveaux de myriades de physiciens. Des sites comme http://vixra.org/ ou
http://fqxi.org/community/forum/category/31418 en donnent la preuve. Nous sommes évidemment bien incapables de juger de la pertinence de telles approches. On peut même se risquer à penser que nul, aussi savant soit-il, ne prend la peine de les évaluer et de chercher à les prolonger.

souplex.jpgD'où l'hypothèse sans doute un peu optimiste que nous formulons ici: de tout ce magma (certains parleront à tort de fatras), ne surgira-t-il pas un jour un éclairage non seulement fécond mais révolutionnaire sur ce que serait la réalité, celle de l univers et la nôtre? Alors tels Raymond Souplex, nous pourrions nous écrier en nous frappant le front « Mais c'est bien sûr.Que n'y avions nous pensé? » 


Repost 0
17 septembre 2012 1 17 /09 /septembre /2012 20:49

calebbook.jpg


Farrar, Straus and Giroux 2012

Présentation par Jean-Paul Baquiast 17/09/2012

 

calebpicture.jpgCaleb Scharf dirige le centre d'astrobiologie de l'université de Columbia. Il s'agit d'un astrophysicien dont les recherches concernant, notamment, l'interprétation satellitaire des émissions radio attribuées aux trous noirs font autorité. De plus, c'est un formateur et vulgarisateur aussi passionné que passionnant. Il fait découvrir à un large public les problématiques les plus récentes de sa discipline, malgré leurs aspects apparemment les plus ésotériques.

Grâce au livre qu'il vient de publier, « Gravity's Engines », le lecteur apprend à jeter sur la physique de l'espace-temps, et sur les trous noirs qui en sont la manifestation la plus extrême, un regard renouvelé. Là où l'on voyait généralement des phénomènes exotiques, voire des constructions hypothétiques, il montre que les trous noirs de toutes tailles qui peuplent notre univers n'ont pas le rôle un peu négatif qui leur est généralement attribué.

Il ne s'agit pas seulement de puits gravitationnels dans lesquels s'engouffreraient pour ne plus en ressortir tant la matière visible que la matière noire. Ce sont aussi, comme l'indique le titre, des machines ayant construit les structures du cosmos, sous forme notamment d'émission de matière-énergie extrêmement puissantes. Celles-ci ont influencé la formation d'amas galactiques, de galaxies et de systèmes analogues à notre système solaire. Leur activité a perdu de sa force au fur et à mesure que vieillissait l'univers primitif ayant résulté du Big Bang. Mais elle demeure encore très présente de nos jours.

L'auteur n'hésite pas à faire l'hypothèse que le trou noir super-géant dont la présence est dorénavant admise au coeur de la Voie Lactée a pu jouer et joue encore un rôle essentiel pour participer à l'apparition de systèmes stellaires ressemblant au nôtre, présentant un certain nombre de conditions favorables à la présence de planètes habitables.

Un tel trou noir permettrait en effet que les nuages de gaz et de poussières émis en « sous-produit » de la matière qu'il absorbe par accrétion comportent des molécules nécessaires à l'apparition de la vie. Ainsi la synthèse des premières briques de la chimie organique n'aurait pas eu besoin d'attendre pour trouver des conditions favorables le long processus, se comptant en milliards d'années, par lequel les étoiles en fin de vie rejettent dans le milieu les produits de leurs nucléosynthèses. Pourquoi la vie terrestre, comme d'autres formes de vie susceptibles de se trouver dans l'un quelconque des cent milliards de systèmes solaires de la galaxie, n'aurait-elle pas bénéficié du rôle accélérateur joué par le trou noir central, ou par d'autres trous noirs plus petits, se trouvant également dans la Voie Lactée.

Aussi intéressante que soit cette hypothèse, nous devons dire qu'elle n'apparait qu'en fin du livre, sous forme si l'on peut dire de cerise sur le gâteau. L'essentiel de l'ouvrage présente nous l'avons dit les hypothèses relatives à l'existence des trous noirs, en application des principes de la gravitation newtonienne entièrement refondue par les modèles de l'espace-temps einsténien.

4c41_comp.jpg
A gauche, la radio-galaxie 4C41.17 que l'auteur a contribué à découvrir. On estime qu'un trou noir massif en rotation dans le coeur de cette galaxie lointaine est responsable des deux jets de particules à la source des émissions radio.

Caleb Scharf ne se borne pas à des présentations mathématiques. Il relate par le détail les acquis apportés par les récentes observations, orbitales et terrestre, portant sur les émissions en micro-ondes et en rayons X permises par les instruments que la Nasa et dans une moindre mesure l'Esa ont mis ces dernières années à la disposition des astrophysiciens. Les résultats ainsi obtenus par les jeunes générations de chercheurs paraissent aller de soi. Mais l'auteur, sans d'ailleurs trop y insister, montre les énormes problèmes, tant pratiques que théoriques, qui ont du être résolus pour tirer des conclusions utiles de la jungle d'émissions les plus diverses, des plus anciennes au plus récentes, dont la Terre est constamment bombardée.

1% d'inconnu

Nous ne pouvons pas résumer ici ce livre, qui est trop riche pour l'être en quelques paragraphes. Il faut le lire en détail, avec sous la main la masse considérables d'informations complémentaires apportées sur le sujet par les différentes entrées de Wikipedia. Autrement dit, il y a là plusieurs journées de travail pour un esprit curieux souhaitant commencer à se doter d'idées pertinentes concernant la physique des trous noirs et toutes les conséquences pouvant en découler, non seulement sur la cosmologie mais aussi sur la physique quantique.

Ce seraient évidemment de bien plus longues heures qui seraient nécessaires pour tenter de prendre un peu de recul sur ces connaissances, dont Caleb Scharf dit qu'elles sont fiables à 99% mais qu'elles laissent un « immense » 1% d'inconnu, au sein duquel pourraient se trouver de futures observations et hypothèses susceptibles de bouleverser une fois de plus la physique du 21e siècle.

Les points qui demeurent encore en discussion sont, comme on le devine, relatifs à ce que suggéreront les recherches intéressant la gravitation quantique, dont on annonce régulièrement les prochaines découvertes, sans que rien de décisif n'ait encore été produit. Ce sera sans doute dans cette direction que l'on pourra répondre à des questions apparemment simples comme celles concernant le devenir de la matière absorbée par les trous noirs, ou l'origine de la matière en provenant: autrement dit quelle réalité peut-on attribuer au concept de singularité, dont l'étude du cosmos primordial et cette des trous noirs a montré l'efficacité?

Mais il faudra ne pas oublier l'observation. L'auteur décrit les nouveaux instruments qui seraient nécessaires pour résoudre, à peu de frais peut-on dire, d'immenses problèmes encore pendants. Or nos sociétés prétendent ne plus avoir d'argent pour de telles dépenses. Elles ne se privent pas cependant de gaspiller leurs ressources dans des directions autrement moins productives.

Caleb Scharf admire à juste titre que l'esprit scientifique moderne ait pu forger des hypothèses s'étant révélées opératoires à propos de concepts aussi diffus. Mais peut-être devrait-il insister sur une question encore plus fondamentale. Il s'agit des limites temporaires voire permanentes empêchant nos cerveaux et les instruments conçus par eux d'envisager des perspectives se situant radicalement en dehors de l'acquis des connaissances actuelles. Des intelligences artificielles du futur le pourront-elles demain?
________________________________________

Remarquons en conclusion que des milliards d'humains se battent encore aujourd'hui pour s'imposer les uns aux autres des conceptions du monde héritées du Moyen-Age, qu'ils considèrent comme sacrées, c'est-à-dire immunisées contre toute critique. On peut penser avec un rien d'optimisme que s'ils avaient les connaissances linguistiques et scientifiques minimum permettant de comprendre un livre tel que celui de Caleb Scharf, les moins excités d'entre eux pourraient revenir à la raison et s'intéresser sérieusement à l'avenir de notre planète. La science nous montre que celle-ci, comme l'ensemble du système solaire, voit dorénavant ses espérances de vie et de découvertes inexorablement limitées. Il serait temps d'en profiter avant de mourir idiot.


Pour en savoir plus

* Le blog de l'auteur http://lifeunbounded.blogspot.fr/
* Caleb Scharf par lui-même http://blogs.scientificamerican.com/network-central/2012/01/31/introducing-sciamblogs-bloggers-caleb-scharf/
* Black Hole http://en.wikipedia.org/wiki/Black_hole
* Animation The Hubble Site http://hubblesite.org/explore_astronomy/black_holes/
* Interview de l'auteur par The Economist http://www.economist.com/blogs/babbage/2012/08/qa-caleb-scharf

 

Repost 0
12 septembre 2012 3 12 /09 /septembre /2012 14:46

 


Pantheon Books, 2012

Commentaires par Jean-Paul Baquiast et Alain Cardon

11/09/2012

 

 

 

Giulio Tononi est professeur de psychiatrie et neuropsychiatre. Il détient les chaires David White de médecine du sommeil et de Science de la conscience à l'université du Wisconsin. Il a publié de nombreux article et est co-auteur, avec Gerald Edelman, de « A Universe of Consciousness ».

Récemment il a développé la Théorie de l'Information Intégrée (ITT), selon laquelle c'est la quantité d'information intégrée à laquelle peut accéder un système qui permet de mesurer le degré de conscience dont ce système peut disposer. Il s'agit non pas d'une étude biologique du système présumé conscient, mais d'une étude mathématique, dont il a proposé les bases dans un article fondateur du Biologique Bulletin (Biol. Bull. December 2008 vol. 215 no. 3 216-242)

Pour en savoir plus
* Article de Wikipédia http://en.wikipedia.org/wiki/Giulio_Tononi
* Consciousness as Integrated Information: a Provisional Manifesto
http://www.biolbull.org/content/215/3/216.full?view=long&pmid=19098144

IIT. Articles
* Wikipedia http://en.wikipedia.org/wiki/Integrated_Information_Theory_%28IIT%29
* Scientific American http://www.scientificamerican.com/article.cfm?id=a-theory-of-consciousness
* Concious entities http://www.consciousentities.com/?p=292

*Sur les qualia http://fr.wikipedia.org/wiki/Qualia

Voir aussi en rappel nos articles portant sur les ouvrages de Gerald Edelman et Giulio Tononi
* Gerald Edelman et Giulio Tononi « Comment la matière devient conscience. http://www.automatesintelligents.com/biblionet/2000/oct/G_edelman.html
* Gerald Edelman « Plus vaste que le ciel. Une nouvelle théorie générale du cerveau »
http://www.automatesintelligents.com/biblionet/2004/aout/edelman.html

* Sur Galilée (Galileo Galilei) http://fr.wikipedia.org/wiki/Galil%C3%A9e_%28savant%29


1. Présentation du livre.

La Théorie de l'Information Intégrée (ITT) élaborée par Giulio Tononi, vise à expliquer ce qu'est la conscience, comment elle peut être mesurée, comment elle est produite par le cerveau, comment elle disparaît lors du sommeil sans rêves et comment elle revient sous une forme différente lors du rêve. Elle a été testée par l'auteur grâce à l'imagerie cérébrale, la stimulation magnétique transcranienne et des modèles informatiques. Elle a été exposée en détail par Giulio Tononi dans son Manifeste Provisoire référencé ci-dessus. Ce document bien que comportant un certain nombre de renvois à des formules mathématiques, est à la portée de tous lecteurs s'intéressant à la conscience. Nous conseillons de le parcourir car il permet de comprendre la composition du livre Phi et les nombreuses références qui l'accompagne.

Dans Phi, A Voyage from the Brain to the Soul, (Un voyage du cerveau à l'esprit – ou à l'âme, selon les préférences du traducteur) qui vient d'être publié, Giulio Tononi s'est livré à une forme inhabituelle de vulgarisation. Plutôt que reprendre et commenter en termes techniques son Manifeste provisoire, il a préféré présenter dans ce livre , sans faire directement références à ses hypothèses, un voyage imaginaire, abondamment documenté à travers l'histoire des sciences et de l'art dont l'Europe latine fut principalement le siège à partir de la Renaissance et des Lumières.

Il a donc imaginé pour ce faire une traversée initiatique à laquelle se livrerait un Galilée qu'il a reconstruit pour les besoins de sa démonstration. Pourquoi Galilée? Parce que celui-ci, en dehors de son conflit avec l'inquisition concernant l'héliocentrisme, est légitimement considéré aujourd'hui comme le fondateur de la physique moderne et plus généralement d'une science matérialiste reposant sur l'observation. Ce voyage se décompose en trois parties, conduites chacune sous les auspices de guides disposant des compétences acquises par les théoriciens de la conscience dans le courant du 20e siècle.

Il en résulte une progression dans la réflexion sur la science, qui permet à l'auteur d'exposer ses principales hypothèses sur le rôle de l'intégration des informations dans la construction de la conscience, sans y faire directement allusion. On reconnait dans le premier de ces guides le britannique Francis Crick, qui dans la fin de sa vie s'était attaqué au « hard problem » que représente l'étude de la conscience. Le personnage incarnant Crick explique ainsi comment certaines parties du cerveau sont indispensables à la conscience, tandis que d'autres (tel le cervelet) toutes aussi importantes à d'autres titres, n'y contribuent pas.

Les très nombreuses observations cliniques et en imagerie cérébrale démontrant ce fait auraient pu surprendre le vrai Galilée, mais aujourd'hui, les rappeler dans le livre ne surprendra guère le lecteur. La vraie question, encore non résolue, concerne les bases neurales de l'intégration. Gérald Edelman évoque abondamment dans ses travaux ce qu'il nomme des neurones réentrants, qui transmettraient de l'information d'une aire spécialisée à d'autres. S'agit-il de ceux-ci ou d'autres mécanismes encore inconnus, relevant selon certaines hypothèses de la superposition d'état de particules quantiques au sein des neurones . Le pseudo Galilée ne pose pas la question de la liaison (binding). Le pseudo Crick, non plus qu'en arrière plan l'auteur Giulio Tononi, ne l'évoquent pas davantage. Le lecteur de Phi en est nécessairement frustré.

Dans la seconde partie du voyage initiatique de Galilée, un autre guide, où l'on reconnaît Alan Turing, montre comment les différents éléments d'observation décrits dans la première partie peuvent être assemblés et interprétés, à travers une théorie scientifique qui s'avère être celle de Giulio Tononi, la Théorie de l'Information Intégrée dite Phi mentionnée ci dessus. A ce stade, Galilée, comme le lecteur, doivent être convaincus du fait qu'effectivement la conscience émerge dans des systèmes capables d'intégrer (on ne sait comment), des informations provenant de différentes sources. Plus ces sources sont nombreuses, plus l'information est intégrée, plus élevé est le niveau de conscience atteint.

Là encore, sinon Galilée, du moins un lecteur moderne, au fait des développements de la société de l'information, ne sera pas surpris. Il ne s'agit pas d'une hypothèse très originale. On pourrait même parler d'une évidence. Le web en donne quotidiennement l'illustration. Il ne suffit pas qu'il comporte un nombre immense de sources, il faut aussi que des auteurs, à travers par exemple les pages Wikipedia, fassent l'effort d'en donner des synthèses critiques. Ce n'est sans doute pas le web qui en tire un plus grand degré de conscience, ni même sans doute Wikipedia. Ce sont par contre les utilisateurs de ces sources qui bénéficient d'une conscience du monde et d'eux mêmes bien supérieure à celle dont jouissaient les hommes du passé.

Enfin, dans la troisième partie de l'ouvrage, un homme barbu ressemblant à Charles Darwin explique comme les facultés conscientes sont apparues au cours de l'évolution des espèces, sous la forme d'une propriété évolutionnaire, constamment en développement et grâce à laquelle les humains peuvent se percevoir comme entités spécifiques dans la nature. Là encore, l'hypothèse n'a rien de révolutionnaire. Les biologistes ne pourraient pas expliquer le développement continu des organismes dotés de cerveau, observé depuis des dizaines de millions d'années, si ces cerveaux et les capacités préconscientes et conscientes de se représenter le monde en découlant n'avaient pas fourni à leurs détenteurs d'avantages compétitifs.

Observons que la présentation de la conscience faite par Giulio Tononi insiste sur ce que les auteurs anglo-américains présentent comme la caractéristique incontournable de la conscience, les Qualia ou propriétés subjectives ressenties à l'occasion des expériences perceptives et sensations corporelles ressenties par les sujet conscients. Elles ne sont pas communicables autrement que par des analogies et feraient de chacun d'entre nous un sujet conscient irréductible aux autres. Pourquoi pas? Disons seulement que l'arbre des qualia ne doit pas cacher la forêt de la conscience. Il ne s'agit en fait que de la forme la plus visible d'un phénomène autrement plus complexe.

Les quelques réserves que nous venons d'évoquer ne doivent pas faire passer sous silence les méritesdu livre. Il s'agit d'un ouvrage de très grande qualité. Il présente en s'appuyant sur une iconographie et des références inhabituelles dans un travail de vulgarisation scientifique une grande quantités d'informations relatives à l'évolution du concept de conscience à travers les quatre cents derniers siècles de l'histoire de la pensée scientifique européenne. Ces informations font appel à des sources peu connues du lecteur habituel des articles scientifiques, s'appuyant sur l'histoire des arts et des sciences. L'auteur y montre notamment une compétence enviable portant sur la civilisation italienne, que l'on ne trouve que dans les ouvrages spécialisées sur l'histoire de l'art.

Il ressort cependant de la lecture attentive des propos de l'auteur une sensation de malaise. Celui-ci donne l'impression d'utiliser les sources qu'il cite de façon un peu biaisée, principalement destinée à servir d'arguments à ses propres hypothèses. Il suffit de mentionner à cet égard la description qu'il donne de son principal personnage, Galilée. Comment et sur quelles bases prêter à celui-ci, face aux découvertes qu'il fait de la science moderne, des réactions ayant quelques cohérences avec les idées et les croyances du vrai Galilée, telles que l'histoire les a rapportées?

Il en est de même d'un certain nombre de personnages et situations présentées comme reposant sur des sources historiques, mais transformées par l'auteur en arguments pour ses hypothèses. Après avoir volontiers accepté de jouer le jeu, certains lecteurs finissent par s'en méfier. Ils préfèreraient certainement avoir affaire à un article scientifique, fut-il bien plus aride. Concernant les reproductions d'oeuvres, il semble que l'auteur n'ait pas hésité à les modifier quelque peu, ou modifié leur contexte, afin de les rendre plus démonstratives. Ceci peut gêner.

Sur le fond, affirmer qu'il est possible de mesurer mathématiquement le degré d'intégration obtenu pour la construction de tel ou tel type de connaissance, générant un état de conscience donné, nous parait une ambition tout à fait intéressante, qu'il faudrait approfondir et diversifier. Cependant la présentation qui en est faite aujourd'hui ne suffit pas à répondre auxinterrogations que le lecteur de Phi, moderne Galilée, se pose pour comprendre comment l'on passe du cerveau à la conscience. Il faudrait notamment véritablement comprendre comment s'établissent les connexions constitutives de ce que l'on nomme à la suite de Bernard Baars l'espace neural conscient.

Chacun sait que les neurosciences en sont encore pour le moment fort éloignées. Il ne suffira pas de présenter un modèle mathématique de la complexité dans l'intégration de l'information formelle pour que la question existentielle évoquée ici trouve des solutions. Nous pourrions la résumer ainsi: comment le cortex conscient, celui que l'on dit supérieur, est-il organisé architecturellement et biologiquement pour générer de la conscience?
Giulio Tononi, dans le livre, indique sans y insister suffisamment selon nous que ce problème est encore sans réponses précises. Nous aurions pour notre part aimé qu'il rappelle en quelques pages comment les neurosciences et plus généralement les sciences humaines se posent la question de la production de la conscience.

Nous allons ci-dessous évoquer quelques unes des approches généralement proposées, auxquellespour le moment ni le livre Phi ni la formulation scientifique de l'ITT dans le Biological Bulletin cité ne font nous semble-t-il d'allusions suffisantes. Alain Cardon, spécialiste de la conscience artificielle, présentera ensuite quelques unes des réflexions que lui suggère tant le livre que l'article de Giulio Tononi.

Le présent article, précisons le d'emblée, n'expose pas et ne conteste pas la méthode statistico-mathématique de Giulio Tononi. D'une part nous n'en aurions sans doute pas la compétence, mais d'autre part, nous pensons que le problème à traiter se situe très largement ailleurs. Il ne nous appartient pas de dire si l'extension de la méthode, qui vraisemblablement fait l'objet de recherches à notre connaissance non encore publiées, abordera les problématiques que nous évoquons.


 



Barbara Strozzi, cantatrice et peut-être courtisane
1619-1677
Une des nombreuses reproductions présentées dans le livre Phi.

2. Questions générales relatives à la conscience

Nous en proposons ici un recensement rapide. Il ne s'agit pas de prétendre mettre en difficulté la Théorie de l'information intégré. Son auteur, Giulio Tononi, est le premier à préciser que cette dernière, dans son développement actuel, ne vise pas à les aborder, moins encore à les résoudre. Il nous semble cependant que discuter du problème de la conscience sans rappeler les quelques considérations qui suivent pourrait conduire à de nombreux malentendus.

* La conscience n'est pas une réalité en soi

On sait que pour la physique quantique, il n'existe pas de réel en soi, indépendant de l'observateur. Ce qu'elle nomme le réel, par exemple telle particule, ne peut être décrit que de façon relative, en associant une observation, un instrument et un observateur. C'est le contenu cognitif du cerveau de ce dernier qui permet d'interpréter l'observation et lui donner un sens. La physicienne et épistémologue Mioara Mugur-Schachter a proposé pour faire comprendre ce processus la méthode de conceptualisation relativisée (MCR), plusieurs fois présentée sur ce site.

Nous avons nous-mêmes indiqué que cette méthode pourrait être étendue à l'ensemble des sciences, chaque fois qu'apparaissent des doutes sur le réalisme (c'est-à-dire la réalité) des objets qu'elles décrivent. Or concernant la conscience, bien que son observation relève de nombreuses sciences macroscopiques (neurosciences, psychologie, psychiatrie), il serait peu scientifique de postuler que les phénomènes correspondant à ce concept fassent partie des réalités de la science dure, pouvant être étudiés de façon aussi objective que possible. Il faut impérativement tenir compte des méthodes ou instruments avec lesquels ils sont observés, ainsi que des théories ou préjugés des observateurs. Cette précaution est encore plus nécessaire lorsque l'observateur, par l'introspection ou par des méthodes plus objectives, espère analyser sa propre conscience.

* Le sujet conscient peut-il s'observer lui-même.

La question est souvent posée, non seulement à propos de l'observation de la conscience, mais du cerveau qui en est le siège. Un scientifique peut-il observer l'organisation et le fonctionnement du cerveau conscient dont il est doté, alors que ce cerveau est à la fois juge et partie dans le processus d'observation. On retrouve sous une autre forme la question précédente, concernant les relations de l'observateur avec le réel. Pour résoudre cette difficulté, intéressant non pas la seule conscience, mais l'ensemble des sciences de l'homme, les scientifiques estiment généralement que ces sciences ne peuvent prétendre donner des descriptions objectives de leur objet, du fait que l'observateur est généralement impliqué dans la description. On se borne à rechercher des consensus dits intersubjectifs, qui ne s'imposent qu'aussi longtemps qu'ils ne sont pas contredits par de nouvelles observations et de nouvelles théories.

Ces préalables épistémologiques, tenant au fond même de la connaissance, devraient être rappelées lors de la présentation d'une méthode telle que que l'ITT visant à décrire objectivement, de façon mathématique, le processus de la conscience. Une telle démarche, pour rester crédible, ne peut qu'être relativisée.

* Les différentes définitions de la conscience.

Limitons-nous à celles qui intéressent les neurosciences, en excluant toute intrusion dans le domaine moral. Le rappel de ces définitions s'imposerait, en préalable à une hypothèse telle que l'ITT visant à mesurer le niveau de conscience présent chez les sujets observés. Rappelons les trois catégories généralement admises: la conscience primaire partagée par la plupart des animaux dotés d'un système nerveux central, la conscience de soi qui n'est identifiée que chez certains animaux supérieurs (et la très grande majorité des humains d'aujourd'hui), la conscience volontaire, ou conscience du moi dit aussi primo-décisionnaire, conception qui est encore discutée, selon laquelle le moi pourrait prendre de lui-même des décisions le concernant, certes en fonction de déterminismes internes mais sans être soumis à des facteurs extérieurs. Faute d'avoir précisé le type de conscience auquel l'ITT s'adresse, il est difficile de faire apprécier sa pertinence.

On distinguera par ailleurs la conscience individuelle et la conscience collective. Celle-ci s'exprime à l'occasion d'échanges entre les individus composant tel ou tel groupe social. Elle se traduit par des représentations spécifiques qui s'ajoutent aux représentations individuelles et souvent les modifient. Aux yeux de la mémétique, des véhicules tels que les mèmes transportent en les modifiant, au sein des réseaux sociaux, les plus dynamiques des contenus de conscience. Ce sont le plus souvent ces représentations collectives qui s'expriment à travers les différentes formes constituant les opinions publiques. Elles s'imposent généralement à l'expression des consciences individuelles.

* Les dérives de la conscience chez des individus au cerveau globalement sain par ailleurs

L'ITT rappelle que le bon état d'intégrité du cortex cérébral est indispensable à la conscience. La méthode proposée s'applique donc à des cerveaux au fonctionnement normal. Même dans ce cas cependant, des dérèglements passagers ou durables peuvent troubler la façon dont s'exprime la conscience d'un sujet donné. Il s'agit de troubles des mécanismes de la conscience, pouvant provenir d'un imaginaire surexcité voire d'un délire passager. Certains de ces troubles peuvent être analysés non pas comme résultant d'une diminution de la capacité d'intégration caractérisant la conscience selon l'ITT, mais au contraire d'une augmentation indue du nombre et de la qualité des informations intégrées. Le sujet intégrera dans la production de ses états de conscience des éléments qu'en période normale il aurait été conduit à rejeter.

Comment distinguer ces éléments pouvant être destructeurs d'une recherche normale d'informations externes enrichissantes. On retrouve là sous une autre forme la question des relations entre la conscience et un « réel extérieur ».

* Le rôle de l'inconscient et du préconscient dans la formation des états de conscience.


Sans reprendre nécessairement les hypothèses de la psychanalyse concernant le rôle de ces instances, il ne serait pas scientifique de ne pas tenir compte des nombreux processus individuels et collectifs non explicites intervenant dans l'expression des consciences explicites, individuelles et collectives. Ils sont sans doute infiniment plus nombreux et efficaces que ceux intéressant la conscience manifeste. Or on ne voit pas que l'ITT s'en préoccupe. Il est vrai que le faire imposerait de prendre en compte des champs nouveaux de complexité et d'intégration qui seraient pratiquement impossibles à étudier de façon utile. Mais à l'inverse ne pas le faire invaliderait une grande partie des conclusions que pourrait suggérer l'ITT.

* Les limites aux capacités d'intégration des informations caractérisant la conscience selon l'ITT

Quels que soient les supports neuraux que l'on estiment nécessaires au travail d'intégration propre à la conscience – neurone, minicolonne, aires corticales, cerveau et corps global, organisme collectif - il convient de poser la question des limites inhérentes à ce processus d'intégration tel qu'il se déroule à l'intérieur de ces supports.

L'information et son intégration sont les clefs de notre expérience. Cela paraît une évidence. Nous avons évoqué plus haut l'exemple d'une base d'information informatique. Plus elle est large et plus les informations sont intégrées, plus elle est utile. Mais que signifie l'intégration, dans la mesure où elle ne se confond pas avec une juxtaposition des références? Elle paraît potentiellement sans limites. Or en fait, comme il s'agit d'un mécanisme consommateur de ressources et de temps, elle se heurte très vite à des contraintes qui en réduisent considérablement la portée.

Ces contraintes n'apparaissent généralement pas, du fait de la superposition dans l'espace et le temps de l'activité des bases neurales et des processus producteurs de conscience. L'ensemble se renouvelle si vite qu'il laisse peu de place à la critique.Mais elles se traduisent par une constatation à laquelle aucune science, aucune politique scientifique, ne peuvent échapper et que l'ITT n'évoque pas: il est pratiquement impossible aux humains d'explorer un domaine suffisamment à fond pour en tirer des conclusions susceptibles d'entraîner des comportements « volontaires » efficaces. Certes, l'externalisaton des connaissances sur les supports de la mémorisation et de la communication collective fournit d'importants relais aux prises de conscience individuelles. Mais ces supports à leur tour deviennent vite trop nombreux et obsolètes pour pouvoir être efficacement intégrés.

Aujourd'hui, même si l'on considère à juste titre que l'intégration de l'information reste un important facteur de réduction des incertitudes, on doit nécessairement se placer à l'échelle du monde global. Les incertitudes, du fait d'ailleurs de la présence d'un nombre de mécanismes producteurs de conscience jamais rencontré à ce jour dans l'histoire, semblent croitre de façon exponentielle.

Pour conclure cette rapide mise en perspectives de l'ITT au regard des contraintes plus générales qu'impose l'étude des processus conscients au sein des systèmes biologiques et sociaux, nous pensons que les modèles de l'Intelligence Artificielle permettent d'élargir les points de vue et à terme de produire des solutions opérationnelles. Alain Cardon, spécialiste de la conscience artificielle, nous en dira quelques mots ci-dessous. Pour approfondir la question, la consultation de ses principales recherches, dont certaines sont publiées sur ce site, s'impose.

Voir notamment


"Modélisation constructiviste pour l'autonomie des systèmes"
Edition Automates Intelligents. 24 mai 2012
(publié sous Licence Creative Commons)
http://www.admiroutes.asso.fr/larevue/2012/127/Livrecardon3.pdf
_________________________________________________________________________________________________

 

Commentaires de Alain Cardon
Professeur des Universités, LITIS INSA de Rouen

Le long Manifesto, proposé par Giulio Tononi, qui est sous-jacent au livre Phi présenté dans cet article, est une approche du domaine des mathématiques-appliquées pour l’étude de la conscience. Cette approche tente de se démarquer de celle des biologistes, qui ne font pas de modèles mathématiques mais sont finement observateurs du fonctionnement du cerveau au niveau des molécules et des neurones.

L’article provient aussi de l’école classique des qualia, avec la volonté de considérer que si un problème n’est pas mathématisé, il n’est pas scientifique. Réciproquement, s'il comporte quelques équations, c’est de la science.

En posant que la conscience s’appréhende par l’Integrated Information Theory (IIF), on nomme un espace mais on ne dit finalement qu’une généralité : être conscient de quelque chose avec son cerveau provient , principalement de la manipulation complexe d’informations qui produit de la pensée. On ne trouve pas dans ce papier la prise en considération de l’architecture d’un système psychique qui produit intentionnellement des représentations ayant certaines qualités ou certains défauts et qui les apprécie ?

Où sont définis, dans ce papier, les concepts fondamentaux suivants :
* Production intentionnelle et intentionnalité
* Forme représentationnelle générée et ressentie
* Appréciation de formes informationnelles comme faits de conscience

L’approche de la conscience nécessite de poser d’abord le problème :

1 – Qu’est-ce, précisément, qui peut produire « de la conscience de quelque chose » (et pas de la conscience tout court, ce qui n’a pas de sens) cette production étant considérée comme une manifestation relativement autonome de son environnement immédiat et utilisant fortement un vécu constitué (qui est plus que de la mémoire) ?

En ne répondant pas précisément à cette question initiale, on parle sur l’ensemble vide hors de l’espace et hors du temps.

Si on répond à cette question en posant que la conscience est le fonctionnement d’un système manipulant et surtout contrôlant des formes informationnelles qui ont une organisation (et pas seulement une structure), qui a un intérieur avec une architecture très dynamique constituée d’instances jouant des rôles nécessaires, un bord et un environnement, on a fortement avancé. On est dans la théorie des systèmes. C’est ce que j’ai fait, et j’ai alors pu poser la seconde question :

2 – Quel est le niveau de l’élément de base significatif construisant des représentations qui seront appréciées par le système et où l’on pourra dire qu’elles sont conscientes ?

Ce n’est pas une question simple et l’auteur se fixe sur le neurone, puis de petits groupes de neurones qui font les qualia dans des espaces de grandes dimensions, mais le neurone n’est pas l’élément significatif minimal de la pensée, de la même façon que le bit n’est pas l’élément significatif des programmes informatiques qui se réécrivent en fonctionnant mais le support élémentaire des éléments codés. Il y a ici confusion entre le support et le système qui fait les pensées. En se trompant à ce niveau, il n’y a aucune raison pour ne pas aller plus bas et chercher l’élément minimal dans le quantique, ce que certains ont fait.

Non, en modélisation, en science, un système est une architecture précise sur des éléments significatifs minimaux et les modèles scientifiques s’emboîtent dans des hiérarchies précises. Ces éléments minimaux peuvent se décomposer, dans d’autres modèles, mais c’est alors changer de problématique.

J’ai défini, à mon sens, l’élément minimal significatif des représentations idéelles, et c’est longuement développé dans mes publications depuis 10 ans.

Ayant trouvé l’élément significatif minimal, on peut poser la troisième question :

3 - Que produit précisément ce système, sous quelles contraintes produit-il quelque chose ?

Là, il faut bien savoir ce que sont les formes informationnelles de base, comment elles se combinent pour procéder à des changements d’échelles et comment elles font émerger des formes qui auront la propriété d’être « perçues » par un sous-système majeur. C’est quoi ce sous-système si important qui apprécie des formes très dynamiques ? Ce ne serait pas lui le sous-système qui appréhende des représentations des choses et qui fait « le processus d’être conscient de quelque chose » ?

Une fois que l’on a répondu à cette question, on peut alors poser la quatrième question:

4 – Pourquoi ce système fonctionne-t-il et comment se contrôle-t-il de lui-même pour produire ses représentations ?

Là, on est arrivé, enfin, dans le vrai problème de la « conscience de quelque chose de produit par un système très autonome », on a posé la question centrale. Comprendre ce qu’est la conscience, c’est découvrir une nouvelle théorie du contrôle des systèmes autonomes, ce qui est aussi approcher une clé du vivant.

On peut donc poser la cinquième question, qui figure dans le dernier chapitre de mon dernier livre publié par Automates Intelligents (
"Modélisation constructiviste pour l'autonomie des systèmes") :

5 – Est-ce que les systèmes produisant des faits de conscience sont une évolution naturelle dans le vivant, exprimant un aspect fondamental de l’organisation qui a produit le vivant ?

Cette question est profonde, et totalement éludée par de très nombreuses personnes qui vivent actuellement et qui n’ont pas lu « L’avenir d’une illusion, de S. Freud », des personnes qui considèrent que l’être humain a été créé avec la Terre il y a moins de 10 000 ans, d’un coup, à partir de rien, par la volonté d’un Créateur qui à fait l’Homme et ce qu’il y a autour.

Donc, même si cet article ne m’apporte pas d'ouvertures particulières, je pense qu’il est important de faire des recherches dans ce domaine et de publier, la pensée scientifique sur ces sujets étant aujourd’hui encore, très aible dans le monde. Il est fondamental, pour l’avenir de la civilisation, de la diffuser.

Mes modèles détaillés sont présentés dans mes livres, avec une description précise de la constructibilité des systèmes générant des faits de conscience. Mais je pense que mes livres sont presque inconnus. C’est dommage, mais c’est la vie.

Repost 0
4 août 2012 6 04 /08 /août /2012 22:08

A la recherche d'une hypothétique « réalité » sous-jacente au monde quantique.
Jean-Paul Baquiast 04/08/2012

 



Marcus Chown, auteur de « Tweeting the universe » Faber and Faber, 2011, commente dans le NewScientist du 28 juillet 2012, p. 29 (1) une hypothèse qui pourrait se révéler révolutionnaire, et qui concerne la « réalité » de l'univers.

Nous avons ici rappelé, en présentant récemment le livre de Henry Stapp, Mindful Universe, que la fonction d'onde, dite psi, imaginée par Erwin Schrödinger en 1926 pour représenter les entités quantiques, demeurait en faveur chez la majorité des physiciens quantiques 2). Selon cette représentation, il n'est pas possible d'affirmer que les particules quantiques, des atomes aux électrons, aient une réalité indépendante de l'observateur, comme en possèdent en pratique, par exemple, les cailloux du chemin.

Par particules quantiques, on désigne des entités que les instruments scientifiques modernes permettent d'observer, soit en groupe (par ex. un courant électrique) soit individuellement (un électron isolé). On peut émettre des électrons un à un, et constater leur existence quand ils interfèrent avec une cible. Cependant, selon la physique quantique contemporaine, confirmée jusqu'à présent invariablement par des milliers d'expériences et d'applications, l'observation que nous faisons d'un électron n'épuise pas tout ce que nous pouvons en dire. Elle se borne à matérialiser un des multiples états possibles de cet électron, qui sont en fait répartis sous forme de probabilités dans un nuage entourant l'électron. Ainsi, dans certaines conditions, l'électron ne se comporte pas comme une particule, mais comme une onde.

L'électron dans cette perspective peut être représenté par l'équation psi proposée par Erwin Schrödinger (image). Celle-ci rassemble un certain nombre de paramètres qui, bien que réunis dans la fonction d'onde, ne peuvent en donner une définition déterministe . Ainsi, 90 ans plus tard, il n'est toujours pas possible de penser qu'il existerait une réalité matérielle objective derrière la fonction psi (ou derrière le concept d'électron). Ce n'est pas le cas quand il s'agit de fonctions représentant la position ou le mouvement d'un objet non quantique. On peut ainsi considérer que l'équation décrivant la chute d'une pomme et inspirée de la loi de gravitation universelle proposée par Newton décrit une réalité objective, qui est précisément ce phénomène « universel » qu'est la chute d'une pomme, dans un monde tel que la Terre où « existent » à nos yeux ces réalités pour nous que sont les pommiers et les pommes.

En physique quantique, lorsque l'observateur décrit la position ou le mouvement d'un électron particulier, il se borne à décrire une interaction parmi d'autres de l'entité observée interagissant avec un instrument de mesure parmi d'autres. Il ne peut affirmer qu'il existerait une réalité objective qui correspondrait à l'ensemble des positions et des mouvements de cet électron. La connaissance de l'état quantique de l'électron 3) ne permet de prévoir que les probabilités respectives des différents résultats qui peuvent être obtenus à la suite des différentes mesures portant sur cet électron. La fonction d'onde ne désigne qu'une distribution de probabilités de trouver ce qu'un grand nombre de mesures de l'électron permettrait de préciser. Cela suffit largement en pratique. Se demander si la fonction d'onde désignerait une réalité objective ultime est considéré comme une résurgence d'un vieux réalisme ou essentialisme métaphysique, qui ne peut recevoir de réponses aujourd'hui. Ce n'est pas le cas, répétons-le, en ce qui concerne la physique macroscopique. L'équation décrivant la chute de la pomme renvoie, selon les physiciens de monde macroscopique, à une réalité ultime, l'une de celle qui font partie de ce que les cosmologistes appellent les lois fondamentales de la nature.

Un article peut-être fondateur

Or trois physiciens britanniques viennent de publier un article dans Nature 4) selon lequel l'état quantique représenterait une réalité, et pas seulement le produit d'une distribution de probabilités. Nous ne pouvons résumer ici et moins encore critiquer le raisonnement qu'ils ont fait. Bornons nous à traduire le sommaire de leur article:

« Les états quantiques sont des objets mathématiques clefs pour la théorie quantique. Il est donc surprenant que les physiciens n'aient pas été jusqu'à présent capables de s'accorder sur ce qu'ils représentent en réalité. Il existe une possibilité qu'un pur état quantique corresponde directement à la réalité. Il a été admis cependant depuis les origines, qu'un état quantique (voire un état proprement dit, indépendant des paramètres observés JPB. ) ne représente que la connaissance ou l'information dont l'on dispose à propos de cette réalité. Ici nous montrons qu'un modèle dans lequel un état quantique ne représente qu'une information sur un état physique sous-jacent du système, et dans lesquel des systèmes qui sont préparés indépendamment ont des états physiques indépendants, doit produire des prédictions qui contredisent celles de la théorie quantique ». 5)

En d'autres termes, ceci signifierait que la théorie hypothétique qu'ils ont imaginé pourrait décrire complètement un objet quantique isolé tel qu'un atome, sans que l'on ait besoin de faire appel à une onde sous-jacente définissant ce que devrait faire cet atome. Que pourrait être la démonstration de cette hypothèse? Les auteurs imaginent une expérience de pensée impliquant deux atomes indépendants que l'on rapprocherait et sur lesquels on ferait une mesure particulière. Ils trouvent que leur hypothétique théorie, sans appel à la notion d'onde, donnerait des résultats différents de ceux prédits par la théorie quantique classique.

Ceci voudrait dire que la fonction d'onde caractérisant chacun de ces atomes ne serait pas seulement une abstraction purement mathématique, mais correspondrait à une réalité permettant de décrire l'univers sous-jacent, comme l'équation décrivant la chute d'un corps sous l'effet de la gravité correspond à une réalité caractérisant l'univers de la physique macroscopique. Elleserait tout autant réelle, pour prendre un autre exemple, que le champ magnétique identifiable autour d'une barre aimantée . Ainsi une mesure faite sur l'un de ces atomes, s'ils sont vraiment indépendants,, n'affectera pas l'autre.

l'hypothèse viendrait directement en contradiction avec les expériences répétées de nombreuses fois et démontrant la non-séparabilité de deux particules intriquées. Toutes les applications faisant appel à des bits quantiques devraient trouver d'autres explications. De plus, les difficultés théoriques impliquée par cette théorie hypothétique seront nombreuses. Ainsi, si à chaque particule est associée une réalité en 3 dimensions correspondant à sa fonction d'onde propre, il faudrait en déduire que la fonction d'onde, et la réalité sous-jacente, correspondant à deux particules associées, existe dans un espace abstrait à 6 dimensions, dans un espace de 9 dimensions pour 3 particules, etc. Pour que ces nouvelles hypothèses s'imposent, il faudrait en fait que l'on repense entièrement une grande partie des fondements de la physique.

On notera que le physicien Lucien Hardy, du Perimeter Institute, vient de publier un article sur le site Arxiv qui propose des conclusions voisines, sans pourtant reprendre les propositions de Pusey, Barrett et Rudolph. (6) Selon cet auteur, si l'on postule une théorie dans laquelle une réalité est décrite par des variables sous-jacentes, chacune des valeurs prises par ces variables décrit un état particulier de cette réalité, un état « ontologique », à partir duquel on peut déduire l'état quantique d'une particule donnée.

L'onde-pilote

Faudra-t-il redonner du crédit aux différentes hypothèses postulant l'existence d'une réalité sous-jacente compatible avec les observations de la mécanique quantique admises par tous aujourd'hui. Certains imaginent que l'on pourrait ainsi donner ue nouvelle autorité à l'hypothèse du multivers proposée par Hugh Everett en 1955, selon laquelle les différentes possibilités incluses dans la fonction d'onde correspondent à des réalités propres à des univers différents, l'observateur se bornant à faire apparaître un seul de ces univers. L'inconvénient de cette hypothèse, que l'on retrouve sous des formes différentes en cosmologie, est qu'elle n'a jamais pu jusqu'à présent recevoir le moindre début de preuve expérimentale – sauf dans les ouvrages des auteurs de science-fiction.

Nous pensons pour notre part que l'hypothèse de l'onde-pilote proposée par Louis de Broglie(image) et Bohm en 1927 et abandonnée depuis faute d'expérimentations concluantes serait bien plus pertinente. 7) Pour cette hypothèse, chaque particule est associée à une onde-pilote invisible qui détermine son comportement. Les phénomènes d'interférence manifestées dans l'expérience classique de Young (double-slit experiment) et ne pouvant pas relever d'une explication théorique de la part de la physique quantique en seraient une conséquence.
.
Quoiqu'il en soit, il sera intéressant de suivre les réactions que ne manquera pas de susciter dans les prochains mois l'article de Pusey, Barrett et Rudolph. Un prix Nobel en résultera-t-il.pour le trio?

Notes
1) Marcus Chown, Ghosts in the atom: Unmasking the quantum phantom . http://www.newscientist.com/article/mg21528752.000-ghosts-in-the-atom-unmasking-the-quantum-phantom.html?full=true
Lire aussi les commentaires des lecteurs.

2) L'équation de Schrödinger et la fonction d'onde http://fr.wikipedia.org/wiki/%C3%89quation_de_Schr%C3%B6dinger

3) L'état quantique Wikipedia http://fr.wikipedia.org/wiki/%C3%89tat_quantique
"L'état d'un système physique décrit tous les aspects de ce système, dans le but de prévoir les résultats des expériences que l'on peut réaliser. Le fait que la mécanique quantique soit non déterministe entraîne une différence fondamentale par rapport à la description faite en mécanique classique : alors qu'en physique classique, l'état du système détermine de manière absolue les résultats de mesure des grandeurs physiques, une telle chose est impossible en physique quantique et la connaissance de l'état permet seulement de prévoir, de façon toutefois parfaitement reproductible, les probabilités respectives des différents résultats qui peuvent être obtenus à la suite de la réduction du paquet d'onde lors de la mesure d'un système quantique. Pour cette raison, on a coutume de dire qu'un système quantique peut être dans plusieurs états à la fois. Il faut en réalité comprendre que le système est dans un état quantique unique, mais que les mesures peuvent donner plusieurs résultats différents, chaque résultat étant associé à sa probabilité d'apparaître lors de la mesure.
L'état doit donc être vu comme représentant toute l'information disponible sur le système : une description de l'histoire du système permettant de calculer les probabilités de mesure. Dans le débat philosophique concernant l'interprétation de la mécanique quantique, certaines approches telle que l'interprétation de Copenhague considèrent d'ailleurs que l'état quantique n'est pas un élément de réalité au sens qu'Einstein donnait à ce terme, mais simplement un intermédiaire de calcul utile pour prévoir les mesures ; d'autres approches font appel à la notion de décohérence quantique pour décrire le processus mis en œuvre lors d'une mesure quantique.
L'une des conséquences de la nature aléatoire des mesures quantiques est que l'état ne peut être assimilé à un ensemble de propriétés physiques qui évoluent au cours du temps. En mécanique quantique, l'état et les grandeurs physiques sont deux concepts séparés et sont représentés par deux objets mathématiques différents.
"

4) Matthew F. Pusey, Jonathan Barrett & Terry Rudolph . On the reality of the quantum state http://www.nature.com/nphys/journal/v8/n6/full/nphys2309.html

5)Texte anglais:  «  Quantum states are the key mathematical objects in quantum theory. It is therefore surprising that physicists have been unable to agree on what a quantum state truly represents. One possibility is that a pure quantum state corresponds directly to reality. However, there is a long history of suggestions that a quantum state (even a pure state) represents only knowledge or information about some aspect of reality. Here we show that any model in which a quantum state represents mere information about an underlying physical state of the system, and in which systems that are prepared independently have independent physical states, must make predictions that contradict those of quantum theory »

.6) Lucien Hardy Are quantum states reel ? 7 May 2012
http://arxiv.org/abs/1205.1439
" In this paper we consider theories in which reality is described by some underlying variables. Each value these variables can take represents an ontic state (a particular state of reality). The preparation of a quantum state corresponds to a distribution over the ontic states. If we make three basic assumptions, we can show that the distributions over ontic states corresponding to distinct pure states are non-overlapping. This means that we can deduce the quantum state from a knowledge of the ontic state. Hence, if these assumptions are correct, we can claim that the quantum state is a real thing (it is written into the underlying variables that describe reality). The key assumption we use in this proof is ontic indifference - that quantum transformations that do not affect a given pure quantum state can be implemented in such a way that they do not affect the ontic states in the support of that state. In fact this assumption is violated in the Spekkens toy model (which captures many aspects of quantum theory and in which different pure states of the model have overlapping distributions over ontic states). This paper proves that ontic indifference must be violated in any model reproducing quantum theory in which the quantum state is not a real thing. The argument presented in this paper is different from that given in a recent paper by Pusey, Barrett, and Rudolph. It uses a different key assumption and it pertains to a single copy of the system in question. "

7)Wikipedia. L'onde-pilote http://fr.wikipedia.org/wiki/Th%C3%A9orie_de_De_Broglie-Bohm

 

Repost 0
24 juillet 2012 2 24 /07 /juillet /2012 17:09


Jean-Paul Baquiast 24/07/2012

Source NewScientist

Nous présentons sur ce même blog  le livre de Henry Stapp, Mindful Universe, Quantum Mechanics and the Participating Observer. L'auteur y approfondit le mécanisme selon lequel le cerveau, quand il « observe » une entité quantique en état de superposition, réduit sa fonction d'onde et de ce fait la transforme en particule du monde matériel. Il s'appuie sur ce processus conforme à l'interprétation dite de Copenhague pour analyser les modalités selon lesquelles se manifeste la conscience humaine. Il s'interroge à cette occasion sur la possible intervention de phénomène quantiques dans le fonctionnement des neurones et la production d'états de conscience. Comme nous l'avons nous-mêmes remarqué, le point faible de ces hypothèses tient encore pour le moment à l'impossibilité d'observer sur un organisme vivant, à l'échelle de la cellule, d'éventuelles interactions avec des particules quantiques (qbits).

Encore faudrait-il, pour ce faire, avoir clairement identifié les types de neurones et leur organisation dans le tissu cérébral qui pourraient participer à la production d'une conscience de soi, fut-elle élémentaire, ainsi que des comportements pouvant témoigner de son apparition, émotions, empathie, capacité à se reconnaître dans un miroir. Or il était jusqu'à présent admis que cette recherche était pratiquement impossible, parce que la conscience (ou les états s'en rapprochant) n'avait pas été localisée dans une aire bien définie du cerveau, mais pouvait résulter d'une mobilisation éventuelle de l'ensemble du cortex supérieur.


Certains psychologues, tel Bernard Baars, envisagent cependant qu'il existe dans le cerveau un espace bien défini, que Baars nomme un espace de travail conscient, mais ils n'ont pas réussi clairement à identifier les aires neuronales qui pourraient en être le support. Des observations cliniques permettent de montrer que la destruction de zones bien précises entraine des pertes de conscience, mais l'observation est trop générale pour permettre d'identifier les neurones ou ensembles de neurones qui seraient responsables. Les anatomistes avaient détecté depuis longtemps la présence de neurones dits associatifs dotés d'axones développés leur permettant de relier des aires cérébrales différentes, mais rien ne permettait d'affirmer que ces neurones associatifs, présents dans l'ensemble du cortex du même nom, participaient effectivement à la production de la conscience de soi.

Or les conceptions semblent en train de changer, comme en témoigne un article de Caroline Williams que vient de publier la revue NewScientist. Des chercheurs de l'Université du Mont Sinaï à New York ont rassemblé des observations en imagerie fonctionnelle ou menées post mortem, portant sur des neurones très différents des autres, qui n'avaient jusqu'à présent pas été étudiés en profondeur. Il s'agit de neurones dits VENs, en honneur du neurologue Constantin von Economo qui les avaient décrits en 1926, intrigué par leur taille et leur forme, distinctes de celles de toutes les autres sortes de neurones. Mais les VENs, jusqu'à ces dernières années n'avaient pas été expertisés plus avant. Or il semblerait que de tels neurones, aussi bien d'ailleurs chez l'homme que dans un certain nombre d'espèces supérieures montrant des capacités à l'organisation sociale, pourraient être les supports des fonctions préconscientes et conscientes, notamment comme indiqué plus haut l'empathie (capacité d'observer les autres et de partager leurs émotions)

Les VENS sont en très petit nombre . Mais leur taille particulièrement grande, leur forme allongée avec peu de dendrites, et surtout leur localisation principalement observée dans le cortex cingulaire antérieur et le cortex frontal insulaire (1% de l'ensemble des neurones de ces deux aires) sont des indices de leur importance (voir image). Ces deux aires se montrent particulièrement actives quand les sujets sont engagés dans des relations sociales, partagent des émotions ou participent à la construction d'une conscience de veille rassemblant toutes les informations sensorielles provenant du corps et du milieu, susceptibles d'intéresser la construction du soi. De plus, elles s'activent quand un sujet identifie son image dans un miroir, signe élémentaire par lequel on reconnaît, chez le petit enfant humain et chez certains animaux, un sens indiscutable de conscience de soi.

L'article de Caroline Williams évoque les différentes observations contribuant à faire des VENs, chez l'homme et chez les animaux sociaux, un moteur, ou plutôt un support essentiel de la conscience. Nous ne les reprendrons pas ici. Un point important doit par contre être évoqué: comment de tels neurones sont-ils apparus au cours de l'évolution, et comment ont-ils été conduits à se rassembler dans les deux aires précitées. Il semble que les VENs soient présents dans les cerveaux de tous les mammifères, même si la plupart d'entre ceux-ci ne montrent pas de prédispositions sociales importantes. Ils permettraient d'associer les sensations de goût et d'odeurs, ce qui est important pour faire la différence, dans la nature, entre des aliments potentiels et des poisons. A cette occasion, l'empathie résultant du partage de la nourriture aurait pu se développer.

Mais on trouve des VENs répartis dans tout le cerveau d'animaux qui n'ont pas de vie sociale marquée. Ce type de neurone aurait donc pu avoir un autre avantage: piloter (monitorer), selon l'expression des chercheurs, le fonctionnement global du corps, afin que soient encouragées les conduites les plus économes en énergie. Répondre à la question implicite « comment je me porte (comment je me sens) en ce moment » permettrait d'abord de sélectionner des éléments permettant de « mieux se porter », et plus en profondeur, de contribuer à l'émergence du sentiment de soi, basée sur une représentation subjective que le sujet se donnerait de lui-même. On pourrait alors supposer que les VENs (et les états de conscience en résultant) auraient été le produit, comme tous les autres traits des organismes vivants, de mutations au hasard intéressant le système nerveux, conservées du fait de leur caractère favorable à la survie. Il va de soi que les chercheurs en conscience artificielle n'auraient pas besoin de concevoir des éléments tels que les VENs afin d'en doter les robots cognitifs qu'ils réalisent. Il s'agirait d'une démarche de la nature qui devrait en principe pouvoir être aisément court-circuitée.


Un autre thème mériterait d'être évoqué: il s'agit de l'origine et des modes de transmissions des mimiques faciales, lesquelles constituent des langages extrêmement utilisés, notamment chez les primates, pour signifier la peur, le dégoût, l'agressivité, etc. Ces mimiques sont elles le produit de l'hérédité, autrement dit de câblages neuronaux sous commande génétique, ou résultent-elles de créations culturelles, transmises par l'éducation. Un article du même numéro du NewScientist pose la question, « Not raving but frowning », de Courtney Humphries (21 juillet, p. 40). L'auteur indique que la plupart des scientifiques répondent prudemment que les deux causes se superposent très probablement, étant entendu que l'hérédité culturelle pouvant jouer dans la transmission de telles mimiques langagières est chez l'homme vieille sans doute de plusieurs milliers soit centaines de milliers d'années, ce qui a laissé le temps à des adaptations épigénétiques de s'installer et se transmettre dès la naissance.

Le problème qui pourrait nous retenir ici n'est pas celui-là, mais celui de savoir si des VENs tels que décrits plus haut peuvent ou non jouer un rôle dans l'apparition et la transmission de telles mimiques langagières. Pourquoi pas, puisque les mimiques, par définition, sont impliquées principalement dans les activités sociales, pour la genèse desquelles on a vu le rôle important des VENs? Dans la mesure où l'on pourrait vérifier cette hypothèse, l'on obtiendrait des arguments intéressants utilisables par les méméticiens qui, comme l'auteur du présent article, seraient intéressés par la mise en évidence de neuro-mèmes ou de bases neurales pour la transmission et les mutations intéressant ces éléments allusifs nommés des mèmes par les méméticiens. Ceci tant chez les animaux supérieurs que chez les humains.

Indiquons pour terminer que les chercheurs en conscience artificielle n'auraient pas besoin de concevoir des éléments tels que les VENs afin d'en doter les robots cognitifs qu'ils cherchent à réaliser. Il s'agirait d'une démarche de la nature qui devrait en principe pouvoir être aisément court-circuitée.

Post-Scriptum. On constatera en lisant les commentaires apportés par les lecteurs du NewScientist à l'article de Caroline Williams, qu'il est pratiquement impossible d'essayer d'évoquer tel ou tel caractère biologique susceptible d'être un précurseur de la conscience sans se faire accuser de réductionnisme sous-tendu par un matérialisme primaire refusant de s'avouer. Il en sera sans doute de même du présent texte.


Références

Caroline Williams. The conscious connection http://www.newscientist.com/article/mg21528741.600-are-these-the-brain-cells-that-give-us-consciousness.html?full=true

Cortex cingulaire antérieur http://fr.wikipedia.org/wiki/Cortex_cingulaire_ant%C3%A9rieur

Annals ot fhe NewYork Academy of Sciences. The von Economo neurons in the frontoinsular and anterior cingulate cortex
http://onlinelibrary.wiley.com/doi/10.1111/j.1749-
6632.2011.06011.x/abstract;jsessionid=7C10DF0FBBD54448D998E716B157C89B.d03t01

US National Library of Medicine. Functional anatomy of cortical areas characterized by Von Economo neurons. http://www.ncbi.nlm.nih.gov/pubmed/22286950

Bud Craig How do you feel — now? The anterior insula and human awareness Nature http://www.nature.com/nrn/journal/v10/n1/abs/nrn2555.html


Repost 0
18 juillet 2012 3 18 /07 /juillet /2012 15:42

 



A propos de Mindful Universe, Quantum Mechanics and the Participating Observer, de Henry Stapp (2e édition, Springer, 2011)

Jean-Paul Baquiast 17/07/2012

 

 

1. Position du problème

Nous avons plusieurs fois discuté sur ce site le thème de la conscience, à l'occasion de la présentation des nombreuses recherches scientifiques récentes qui lui ont été consacrées. D'une façon générale, nous en avions tiré la conclusion que la conscience, et les décisions conscientes en découlant, n'ont pas d'effets premiers. Elles n'ont que ce que l'on pourrait appeler des effets seconds ou induits. Il en est de même du libre-arbitre, souvent évoqué à propos de la conscience humaine. On dit parfois que la conscience n'est pas primo-décisionnaire, malgré ce que peut en penser le sujet conscient. Si je prends peur à la vue d'un danger, c'est en général l'ensemble de mon système cognitif inconscient, incluant ses entrées-sorties sensorielles et ses traitements cérébraux, qui génère un sentiment de danger puis de peur. C'est aussi lui qui peut prendre les décisions d'évitement me permettant de fuir le danger, ceci avant toute prise de conscience explicite.

Néanmoins cette prise de conscience peut survenir, si la peur est suffisante pour envahir l'espace neural conscient. Dans ce cas, la prise de conscience n'est pas un simple épiphénomène d'accompagnement, comme il avait été souvent suggéré par des behavioristes. La prise de conscience, par le sujet conscient, successivement, du danger ou risque possible, du sentiment de peur et des conduites d'évitement spontanées induites en lui, peut conduire ce sujet à prendre consciemment (il dira peut-être volontairement) des décisions qui ne sont pas déterminées de façon simplement linéaire par l'ordre de ces évènements. Ainsi il pourra décider de résister à la peur ou de mieux analyser le risque perçu et les façons d'y faire face.

S'organisera alors en lui une approche plus globale du problème, faisant appel au niveau de l'espace neural de travail conscient (Baars), à ses souvenirs également conscients, ou à des données d'expériences mémorisées au niveau du groupe et accessibles par le langage. On pourra dire alors que les décisions découlant de cette prise de conscience globale sont des décisions volontaires, produit du libre-arbitre du sujet. Mais cela ne voudra pas dire qu'elles sans cause, ou provenant d'une inspiration spirituelle qui ne serait pas concevable dans le cadre d'une analyse matérialiste. On ne pourra pas dire non plus qu'elles seraient aléatoires, comme si elles résultaient d'un tirage au sort. Elles seront déterminées au cours d'un processus complexe, mêlant le conscient et l'inconscient et nécessitant pour être explicité des analyses au cas par cas.

Plus concrètement, évoquer l'intervention de la conscience volontaire voudra signifier que le processus de décision finale ne sera pas déterminé de façon linéaire, mais par des aller-retours permettant la prise en compte de nombreux souvenirs et arguments qui auraient été négligés par une décision d'évitement de type réflexe. L'appel à cette conscience volontaire, ou conscience élargie, ne sera pas pour autant le résultat d'une libre-décision antérieure. Il pourra se produire spontanément, soit même ne pas se produire, pour des raisons extérieures au sujet, tenant par exemple à un fort effet de surprise. Mais d'une façon général, le sujet capable de prise de conscience ne pourra pas éviter de recourir à cette faculté. Selon l'expression courante, on ne peut pas s'empêcher de réfléchir. On voit immédiatement l'avantage sélectif d'un tel processus d'élargissement du cadre de référence décisionnelle, au profit des animaux humains en ayant acquis la capacité lors de l'évolution. Ils peuvent éviter les pièges de l'immédiateté dans lesquels tombent les animaux disposant de capacités de conscience plus réduites.

Ceci dit, les considérations précédentes n'ont rien d'original pour les cognitivistes matérialistes. Il ne serait pas utile de les rappeler ici si la question de l'intervention de la conscience dans les processus de la physique quantique n'avait pas été posée par les fondateurs de cette physique, dans les années 1930, et périodiquement rappelée depuis. D'intenses débats en avaient résulté, sans d'ailleurs recevoir de réponses précises. Le problème résumé par le paradoxe du chat de Schrödinger semblait insoluble en termes neurologiques ou philosophique: de quelle façon mon choix personnel (celui de ma conscience ou celui de mon cerveau) peut-il sauver ou tuer le malheureux chat? Plus exactement, selon les interprétations de la physique quantique, des réponses très différentes en termes épistémologiques pouvaient lui être apporté, entre lesquelles il n'est pas encore possible d'apporter des réponses expérimentales. Il semble évident que les liens possibles entre le fonctionnement « matériel » du cerveau de l'observateur et son influence sur le résultat des mesures en physique sont loin d'être élucidés, ceci plus particulièrement en ce qui concerne l'observation des entités du monde quantique, particules ou ondes.

Plus précisément, ni les physiciens ni les neurologues ne peuvent expliquer clairement (ou ne cherchent pas à expliquer) ce qui se produit dans la nature quand la conscience d'un observateur/expérimentateur résout l'indétermination d'un système quantique en l'observant, autrement dit en apportant une réponse particulière à l'infinité des solutions possibles décrites en termes statistiques par sa fonction d'onde, c'est-à-dire par le seul moyen mathématique disponible pour appréhender l'état de ce système. Que se passe-t-il dans le cerveau de l'observateur? Les neurones de celui-ci interagissent-ils et comment avec le système quantique? Que se passe-t-il simultanément au niveau du système qui se trouve ainsi « matérialisé » par réduction de sa fonction d'onde? Cette matérialisation permet certainement au système de s'agréger, par l'intermédiaire de sa matérialisation, à l'ensemble immense des constructions matérielles ayant résulté de l'interaction, depuis qu'ils existent, des cerveaux humains avec un hypothétique soubassement quantique indéterminé. Mais de quel façon exactement? La question est de temps en temps encore évoquée par certains physiciens ou neurologues, au grand intérêt on le comprend des philosophes et même des cogniticiens pour qui le phénomène de la conscience humaine n'est pas si simple qu'il pourrait être compris par la seule analyse déterministe des échanges entre neurones du cerveau.

Nous sommes de ceux qui pensent, conjointement avec la physicienne Mioara Mugur-Schächter, souvent citée sur ce site, que la façon dont les cerveaux conscients se représentent aujourd'hui la nature, à la suite des apports incontournables de la physique quantique dans le domaine de ce que l'on appelle pour simplifier le microscopique, pourrait être utilement étendue au domaine de l'univers macroscopique ordinaire, celui composé de la matière physique ou biologique de la vie quotidienne, comme au domaine de la cosmologie – où l'on retrouve d'ailleurs la physique quantique. Concrètement cette proposition signifie qu'existent aujourd'hui de bons arguments pour remettre en doute les postulats des scientifiques « réalistes » ou objectivistes qui considèrent, après Newton, que la bonne science ne peut se faire qu'en éliminant l'esprit de l'observateur, introductif de subjectivité. En ce sens, la science, pour les scientifiques « réalistes », se doit d'être objective et non subjective. A leurs yeux, les sciences macroscopiques étudient un « réel en soi » qu'elles doivent collectivement s'attacher à faire apparaître, en éliminant toutes références aux cerveaux et esprits des chercheurs, ainsi qu'aux valeurs et motivations personnelles portées par eux.

On peut montrer au contraire qu'un tel « réel en soi supposé » n'a rien de stable et d'objectif. C'est une construction constamment remise en cause et enrichie par les pratiques scientifiques, c'est-à-dire par les hypothèses, expérimentations et conclusions produites par les cerveau des chercheurs, en interaction avec l'univers. Il s'agit d'une construction subjective, ou plus exactement intersubjective, dans la mesure où la science tire sa puissance des discussions collectives s'établissant à l'occasion de la production de ses résultats. Les descriptions scientifiques du « réel », si l'on tient à conserver ce terme de réel pour désigner ce qui est extérieur à la science et qu'elle se donne pour mission de comprendre, ne font pas appel d'hypothétiques lois fondamentales régissant l'univers, qu'il suffirait d'appliquer. Elles résultent d'un questionnement permanent, produit du cerveau humain et s'adressant, à travers les sens et aujourd'hui à travers les instruments scientifiques, eux mêmes construits par la science, à un univers ayant "émergé" du monde quantique, lequel reste indescriptible dans son essence, à supposer même qu'il existât (qu'il y eut « quelque chose plutôt que rien »).

Ce ne sera pas une raison cependant pour refuser ces constructions de la science expérimentale, hypothèses, théories, observations, puisque ce sont les seules dont nous disposions, non seulement pour essayer de comprendre le monde, mais aussi essayer de nous comprendre nous-mêmes. Il faudra seulement ne pas y voir des fenêtres miraculeusement ouvertes sur la « réalité » d'un univers qui nous dépasserait. La démarche proposée par Mme Schächter, sous le nom de Méthode de conceptualisation relativisée (MCR), doit pouvoir permettre d'éliminer, y compris dans les sciences du macroscopique, les pièges d'un « réalisme » où chacun projetterait ses propres définitions du réel, celles servant finalement en priorité ses intérêts personnels ou ceux de son groupe d'appartenance.

Mais alors comment éviter le solipsisme, c'est-à-dire la tentation philosophique consistant à affirmer que les seules réalités qui comptent sont les constructions intellectuelles de notre cerveau, celles-ci incluant nos hypothèses et nos expérimentations ? On pourra le faire en réintroduisant dans la science macroscopique les interprétations de la physique quantique, selon lesquelles l'indétermination s'impose à toute description de la nature au niveau microscopique. L'indétermination, dans cette optique, sera comprise comme supposant que l'esprit humain, à travers notamment le fonctionnement de ses neurones, peut poser au monde quantique microscopique, comme au monde macroscopique des questions dont les solutions ne sont pas données d'avance. Elles résulteront des façons toujours nouvelles de spécifier tel entité (tel observable) et, en l'observant, c'est-à-dire en réduisant sa fonction d'onde, de l'intégrer à l'édifice du monde matériel déjà construit, autrement dit en enrichissant ou modifiant cet édifice, dont la vie et nous-mêmes sommes des formes particulières.

En poussant à l'extrême l'approche constructiviste, on pourrait être conduit à suggérer que les constructions du cerveau humain, se matérialisant en interagissant en permanence, au delà du monde matériel, avec le monde quantique, construirait sur la Terre un univers microscopique et macroscopique, le seul que nous puissions percevoir, se superposant ou se juxtaposant à d'autres processus constructivistes cosmologiques qui nous demeureraient inconnus. Il s'agirait alors d'une sorte de solipsisme érigé en solution cosmologique. Les seules réalités du monde qui compteraient pour nous seraient les constructions résultant de l'activité de nos organismes, cerveaux et corps inclus. une vaste construction générée par nos organismes et que nous habiterions.

L'humain n'aurait évidemment pas le monopole d'un tel pouvoir. Tous les organismes vivants, à leur échelle, feraient de même. Dans certains cas, ils procéderaient en symbiose avec nous, dans d'autres cas en nous ignorant ou en nous combattant. Par ailleurs l'extension de la cognition humaine à l'échelle du cosmos, proche ou lointain, grâce à l'enrichissement des technologies spatiales, élargirait les capacités constructivistes des sociétés anthropotechniques que nous formons en association avec des technosciences proliférantes.

Dans cette perspective, il serait important de montrer que les organismes biologiques peuvent interagir directement avec le monde quantique, en dehors de tout appel à des techniques scientifiques. Nous avons ici même évoqué le nombre de plus en plus grand d'études portant sur l'éventuelle intervention de particules ou entités quantiques dans un certain nombre de mécanismes fondamentaux intéressant le vivant 1) . Dans le domaine du cerveau, les scientifiques s'intéressant à cette perspective pensent pouvoir faire apparaître le rôle de l'attention renforcée, sur le mode dit « volontaire », pour rendre durables d'éventuelles constructions quantiques au sein du cerveau, à travers ce qui est nommé l'effet Zenon quantique (quantum Zeno effect) 2)

Ce terme introduit en 1977, désigne une situation (encore discutée) dans laquelle une particule instable (quantique) peut ne pas se détruire si elle est observée continuellement. Plus généralement il serait possible de geler l'évolution d'un système en le mesurant suffisamment fréquemment. Si l'on peut prouver que les neurones individuels ou des parties de ceux-ci, notamment les synapses, se comportent comme des entités quantiques, on pourrait admettre que l'observation de leurs constructions par d'autres éléments du cerveau ou du corps pourrait pérenniser ces constructions. Celles-ci entreraient alors dans le cycle de la construction par la conscience volontaire de nouveaux états du monde. JohnJoe Mac Fadden a fait appel au même mécanisme pour expliquer le rôle au service de la conservation de la vie des mutations adaptatives se produisant au sein de l'ADN, dont les composants de base, atomiques ou sub-atomiques, pourraient être assimilés à des particules quantiques. Nous conseillons vivement aux lecteurs de relire les articles que nous avions consacré à ce chercheur, notamment son interview, traduit en français 3).


2) L'apport de Henry Stapp

Un des théoriciens de ce réflexion sur la conscience à la lumière de la physique quantique, selon nous le plus actuel et le plus crédible, est le physicien américain Henry Stapp 4), qui vient de rééditer, avec plusieurs ajouts, sous le titre de Mindful Universe, Quantum Mechanics and the Participating Observer 2011, son ouvrage séminal de 2009, Mind, Matter and Quantum Mechanics, ouvrage résumant lui-même de nombreux articles antérieurs.

Henry Stapp se défend de toute inspiration spiritualiste, telle celle de J.C Eccles (auteur de How the Self controls its Brain 1994) ou de toute approche mystique ou New Age, comme l'avait été celle de nombreux physiciens américains dans les années 1970, par exemple Fritjof Capra (auteur du Tao de la Physique . 1975). Il refuse cependant le matérialisme neural du psychologue évolutionniste Michael Gazzaniga (auteur, entre autres de The Ethical Brain 2005 et de Human.The Science behind what makes us unique 2008 5) ou de Daniel Dennett (auteur, entre autres de Conciousness explained, 1991 6) pour qui la conscience humaine est un simple épiphénomène.

Parmi ceux qui se sont intéressé de près, comme lui, à d'éventuelles interactions des neurones avec le monde quantique sous-jacent, Henry Stapp ne retient pas les hypothèses de Roger Penrose (auteur, notamment de Shadows of the Mind 1994) ou même de David Chalmers (auteur de Explaining Consciousness, the Hard problem 1995). Curieusement, enfin, il ne cite pas les recherches sur la biologie quantique du généticien JohnJoe Mac Fadden, dont nous avions présenté ici l'ouvrage Quantum Evolution, The new science of life 2000 (voir aussi l'interview qu'il nous a accordé, précité 3) , très explicite, notamment en ce qui concerne l'effet Zénon et les pénomènes quantiques au sein des celules biologiques

Henry Stapp trouve son inspiration, non seulement dans les écrits des pères fondateurs de la mécanique quantique, notament Bohm, Bohr, Heinsenberg, Pauli, mais surtout dans ceux, un peu moins connus, du mathématicien J. Von Neumann (auteur de Mathematical Foundations of Quantum Mechanics, 1932, 1955). Au plan philosophique, il s'appuie notamment sur A.N Whitehead (auteur notamment de Process and Reality, 1929), peu lu en France mais qui semble avoir eu des idées pénétrantes sur la question, avant qu'elle n'ait été abordée par les physiciens.

Le point de départ de Henry Stapp consiste à montrer que les inventeurs de la mécanique quantique (MQ), notamment ceux regroupés au sein de l'école de Copenhague, ont par cette nouvelle science obligé à l'abandon des postulats de la science classique, c'est-à-dire l'existence d'un réel indépendant des observateurs et la nécessité pour comprendre ce réel de le détacher de toute subjectivité, c'est-à-dire toute référence à l'observateur et à son esprit (mind).

Il est certain que les applications de la MQ, faisant appel au formalisme mathématique de cette dernière, ont été et demeurent si nombreuses que plus personne ne discute la pertinence et l'applicabilité de ces approches théoriques. Par contre, les formulations que les philosophes croient pouvoir tirer de la MQ pour décrire le monde macroscopique dans les termes du langage courant (ses ontologies) restent très discutées, voire purement et simplement refusées. Selon Richard Feynmann, personne ne comprend la MQ, non pas en ce qui concerne les modes d'emploi de son formalisme mathématique, mais en ce qui concerne les descriptions philosophiques du monde, d'ailleurs très différentes les unes des autres, qu'elle peut proposer. Quant au formalisme, il ne faut pas chercher à le comprendre, mais simplement l'appliquer (« calcule et tais-toi »)

Le livre de Henry Stapp s'ouvre sur une citation de Antonio Damasio (N° spécial du Scientific American, The Hidden Mind, 2002) , selon laquelle la science d'aujourd'hui est encore incapable de répondre, par l'étude de l'activité du cerveau (brain), à la question de savoir comment se forme l'esprit (mind). Damasio constate que ceux qui voudraient apporter une réponse à cette question, au lieu de la rejeter purement et simplement comme sans solution ou sans raisons d'être, devront analyser les processus biologiques au niveau quantique.

Malheureusement, selon Henry Stapp, la science des deux derniers siècles était et est restée entièrement déterministe, comme elle le devint à l'époque des Lumières lorsqu'elle a réfuté, d'ailleurs avec succès, les conceptions mystiques du monde imposées par les religions durant deux millénaires. La science considérait, et considère encore le plus souvent, que l'on doive étudier le fonctionnement du cerveau comme on étudie celui d'une machine, au mieux celui d'un automate. Introduire un concept non clairement définissable comme l'esprit ou la conscience, ne peut que reconduire aux époques préscientifiques imbibées de préjugés mystiques.

Heureusement la MQ a remis, selon l'expression de Stapp, la science sur ses pieds, en se donnant comme objet d'étude les processus par lesquels les humains acquièrent des connaissance et les modalités selon lesquelles ces connaissances construisent les représentations que nous nous donnons de nous-mêmes et,de l'univers. Loin d'être incompréhensible, la MQ est beaucoup plus compréhensible que les physiques traditionnelles, dans la mesure où elle fait appel à une intuition forte que nous éprouvons et utilisons tous les jours, celle selon laquelle l'attention consciente que nous portons aux choses et aux évènements de notre monde nous est indispensable pour mieux les comprendre. La MQ nous a obligé, à partir de l'affirmation du principe d'indétermination de Heisenberg, à prendre en compte la façon dont nos choix conscients orientent nos conduites, faisant appel à un grand nombre de comportements différents possibles que la science déterministe classique se refuse à évoquer.

La MQ décrit ainsi non un univers de déterminismes matériels fermés sur eux-mêmes, mais un univers de potentialités entre lesquels nous pourrons choisir en fonction du degré des connaissances que nous avons acquises. C'est ce que Niels Bohr a dépeint comme la liberté de préparer les mesures instrumentales que nous souhaitons conduire, et la liberté de sélectionner les phénomènes auxquels nous souhaitons appliquer ces mesures - tout ce que Von Neumann pour sa part a nommé des « interventions ». Nous ne faisons pas ces choix au hasard, ce que pourrait sous-entendre le concept mal compris de liberté ou libre-arbitre. Ce sont nos valeurs, nos idées, nos sentiments, portés par notre esprit, qui nous recommandent ces choix.

Ce faisant la nouvelle science portée par la MQ nous permet de faire avancer la connaissance scientifique bien davantage que ne le ferait la physique déterministe traditionnelle, puisqu'elle réintroduit l'humain au coeur du processus de découverte. Mais il ne faudra pas oublier que les nouvelles connaissances comportent une double formulation, celle faisant appel au formalisme mathématique, inaccessible au non-spécialiste, et celle utilisant le langage ordinaire, accessible à tous. Cette double description doit, selon Von Neumann (image) souvent cité par Stapp, s'appliquer aussi au cerveau et, au delà de celui ci, à l'esprit. On décrira l'esprit et plus généralement le problème des relations entre l'esprit et la matière, aussi bien dans les termes des descriptions mathématiques de la MQ, elle-même une extension de l'interprétation de Copenhague, qu'en termes découlant des flux de conscience que ressent ou qu'observe l'observateur humain.

Se pose alors la question très importante, déjà évoquée dans l'interview de JohnJoe MacFadden précitée, de savoir si les cellules du cerveau, les neurones, peuvent être considérées comme dotées d'une façon ou d'une autre de la capacité de produire des particules quantiques qu'elles utiliseraient dans le cours de leur fonctionnement. Plus généralement, le cerveau, constitué de dizaines de milliards de neurones interagissant en permanence avec l'environnement, peut-il être considéré comme une sorte de mémoire électronique classique, ou faut-il le traiter comme une entité quantique relevant de règles qui ne seraient pas classiques? Enfin, à supposer qu'elles soient mises en évidence, comment ces propriétés quantiques pourraient elles contribuer à la formation d'une conscience volontaire dotée de propriétés psychophysiques? Ne serait-ce pas, sous une nouvelle forme, une résurgence du dualisme distinguant la matière et l'esprit ?

Henry Stapp donne à ces questions très importantes des réponses confirmant l'hypothèse qui est la sienne, selon laquelle une correcte utilisation des concepts de la MQ, notamment le théorème d'Heisenberg (principe d'incertitude), justifierait amplement le rôle psychomoteur qu'il entend donner à la conscience, conçue comme la propriété émergente d'un ensemble, le cerveau, massivement doté de propriétés quantiques. Cette hypothèse, il faut le constater, n'a reçu qu'un accueil dubitatif de la part des physiciens. Un premier contre-argument, toujours évoqué, est que les milieux biologiques, chauds et humides, provoquent la décohérence rapide des particules quantiques éventuellement émises. Par ailleurs, toutes les hypothèses relatives aux supposées propriétés quantiques des neurones individuels, d'une part, de leurs assemblées plus ou moins larges d'autre part, restent encore très difficilement testables avec les instruments de l'imagerie cérébrale ou de toutes autres techniques permettant d'observer convenablement le cerveau. Enfin les hypothèses de Stapp ont été récupérées et exploitées par les spiritualistes, d'une façon qui en a détourné les scientifiques ne voulant pas se référer à des concepts philosophiques, moraux ou religieux étrangers selon eux à la démarche scientifique

Face à ces diverses objections ou réserves, le livre de Henry Stapp présenté ici propose une argumentation qui devrait paraître très convaincante à un lecteur qui ne serait ni physicien quantique ni neurologue 7).. Nous n'allons pas ici tenter de résumer un tel travail, malgré répétons-le, le grand intérêt qu'il comporte pour mieux comprendre un sujet difficile mais qui sera de plus en plus pensons-nous d'actualité. Ce résumé nous prendrait trop de temps et d'espace. Pour bien faire, il serait nécessaire non seulement de traduire presque complètement le livre en français mais d'y ajouter nombre de commentaires que malheureusement on ne trouve pas encore sur Internet.

Bornons nous à proposer ici (en simplifiant à l'extrême) quelques points directement en relation avec la question de la conscience, telle qu'elle peut être interprétée, selon Henry Stapp, au regard de la MQ telle qu'il la comprend:

- Le neurone individuel et les relations qu'il entretient, via les synapses, avec ses voisins.

L'ensemble neurone+synapses peut être considéré, pour prendre une formulation qui n'est pas celle de Stapp, comme une machine à produire de l'incertitude. Quand il s'excite, le neurone envoie un signal électrique (potentiel d'action) à travers son axone, vers les dendrites jusqu'à son terminal. Si le signal atteint le bouton terminal, il ouvre de petits canaux, les canaux ioniques, qui transmettent (ou ne transmettent pas) des ions (atomes électriquement chargés) vers les micro-vésicules contenant les neurotransmetteurs. En arrivant à la membrane du bouton terminal, les ions déclenchent (ou ne déclenchent pas) l'ouverture des microvésicules contenant les neurotransmetteurs, lesquels diffusent dans la fente synaptique avant d'être captés – ou de n'être pas captés, par les récepteurs de la membrane postsynaptique du neurone voisin. Cette incertitude générale découle de mécanismes microscopiques ne fonctionnant pas de façon linéaire, mais discontinue (par saut). De plus il s'agit de systèmes biologiques qui n'ont pas la relative fiabilité des composants électroniques. Il s'ensuit que la probabilité de voir un potentiel d'action atteindre le neurone voisin et l'activer ne dépasse pas 50%. En conséquence, l'état du terminal nerveux devient une superposition d'états, ouvert ou fermé, selon que le transmetteur l'a atteint ou non. Chacune des trillions de terminaisons nerveuses dans le cerveau devient elle aussi une superposition d'états.Ces divers éléments devraient en principe être décrits, non de la façon classique utilisée pour analyser les réseaux électiques matériels, mais par des équations de Heisenberg (fonctions d'onde).

- Le cerveau global.

Celui-ci devient à son tour dans ces conditions un immense système de systèmes, massivement parallèles, mais aussi pouvant être générateurs d'actions en retour (feed-back) elles-mêmes massives. Ces systèmes peuvent individuellement, ou en groupes, être décrits, soit de façon classique, déterministe (statistique) , soit de façon quantique, intégrant l'incertitude et la possibilité de résoudre celle-ci par des choix conscients. Le cerveau est aussi un système hautement non-linéaire, constamment à la merci de millions d'évènements ou non- événements (un neurone s'excite ou ne s'excite pas...). Sauf dans des circonstances extrêmes pouvant susciter une réponse coordonnée et déterministe du cerveau, il apparaît lors des états mentaux courants des points de bifurcation dans lesquels une partie du nuage quantique des potentialités ou intentions que représente le cerveau va dans une direction, et une autre partie dans une autre. Aucune raison de fond ne s'opposerait alors à l'hypothèse selon laquelle le choix en faveur de telle ou telle potentialités découlerait de l'intervention des « réalités » constituant des auxiliaires de la conscience. Henri Stapp nomme ces réalités, auxiliaires de la conscience, des modèles pour l'action (templates for actions)

- Les modèles pour l'action et l'effet Zénon quantique.

Il s'agit d'ensembles organisés de neurones qui réagissent aux interactions du corps avec le milieu et qui sont utilisés par le cerveau comme guides pour des actions subséquentes susceptibles d'intervenir en réaction des stimulus d'entrée. Ils ont un rôle important pour la survie, offrant au cerveau des gammes de recettes utilisables dans les circonstances critiques. Ils doivent rester actifs pendant quelques 10 à 100 millisecondes avant d'enclencher l'action correspondante. Il s'agit d'états vibratoires qui demeurent stables sous forme d'oscillateurs harmoniques, au lieu de se dissoudre dans la masse chaotique du cerveau. Les réponses qu'ils commandent relèvent de la levée de l'indétermination quantique, en offrant à la conscience le choix entre Oui et Non. C'est seulement en ce choix que se manifeste le libre-arbitre du sujet.

Si cependant il se produit une rapide séquence soit de Oui répétés, soit de Non, l'effet Zénon quantique évoqué plus haut, conduit à la persistance des états correspondants, ce qui évite leur dissolution dans le bruit provoqué par des états plus passagers du cerveau. Selon Henry Stapp, ce résultat favorable pour le sujet conscient confronté à des forces mécaniques susceptibles de détruire les capacités de son cerveau à réagir aux menaces est le résultat d'une « volonté » d'attention manifestée par ce même sujet. Ainsi ce dernier peut-il, si l'on peut dire, « conserver ses esprits » dans des circonstances qui pourraient le conduire au contraire à les perdre.

Ces quelques exemples, auxquels nous nous limiterons, permettent de mieux préciser la nature de la conscience. Il ne s'agit pas d'une propriété évanescente, venue d'on ne sait où dans le cerveau, et qui pourrait provoquer toutes les sortes d'actions imaginables. Il ne s'agit pas non plus d'éléments neuronaux matériels, ayant leur place précise dans le cerveau. Il s'agit plutôt de faisceaux d'intentions, matérialisées par des assemblées de neurones, susceptibles de provoquer des actions. Leur mode d'intervention relèvent de la simple application de l'équation d'Heisenberg, en ce sens qu'ils lèvent les indéterminations ou incertitudes se produisant au sein des neurones et ensembles de neurones qui ne peuvent être décrits ou localisés de façon mécanique, mais qui sont seulement définis par des fonctions d'onde et réduits par l'observation. .


3. Commentaires

Revenons sur le concept de conscience. Pour le préciser, il faut rappeler que l'humain qui pose la question « qu'est-ce que la conscience » le fait « en conscience ». Autrement dit, d'une certaine façon, c'est le phénomène de la conscience qui est appelé à se juger lui-même. Pour échapper au risque de cercle vicieux, on peut aujourd'hui simuler la conscience sur un système informatique, comme le fait Alain Cardon. Il obtient une « conscience artificielle » à partir de laquelle on peut tenter de se représenter ce qui se passe au niveau de l'individu humain conscient.Sans construire une véritable conscience artificielle, aussi performante que celle d'un humain (ce qui supposerait d'importants budgets de développement) on peut utiliser les analogies suggérées par ce modèle pour évaluer les phénomènes cognitifs associés à la conscience humaine.

Que peut-on dire de la conscience et des éventuels processus inspirés des modèles de la physique quantique qu'elle utiliserait?

L'humain est doté d'un cerveau. Celui-ci construit systématiquement des représentations du monde dans lequel il opère, à partir des données sensorielles qu'il recueille. Certaines de ces représentations sont éphémères. D'autres, lorsqu'elles sont confirmées par plusieurs expériences concordantes, sont mémorisées dans le cerveau et peuvent être réutilisées pour valider de nouvelles entrées sensorielles. Ce processus qui est permanent se déroule le plus souvent de façon inconsciente. Il n'y a pas de raison de penser qu'il soit propre à l'homme. Tous les êtres vivants dotés d'un minimum de centralisation des informations recueillies lors de leur interaction avec leur environnement disposent de facultés de même nature, avec des propriétés et des performances différentes. C'est l'évolution qui a permis de sélectionner de telles propriétés, dans la mesure où elles contribuent à la survie.

Les informations sur le monde recueillies par les organes des sens et mémorisées puis réutilisées par le cerveau prennent la forme d'états spécifiques de celui-ci. Ce sont des neurones ou des assemblées de neurones qui expriment ces états et qui, dans la plupart des cas, les matérialisent au niveau du cerveau sous forme de relations durables (intersynaptiques ou chimiques) entre neurones. Il est donc important que le neurologue (ou si l'on préfère, son cerveau conscient), utilisant tous les moyens que lui permet la science, se représente de façon opérationnelle comment s'exerce cette fonction essentielle du cerveau.

L'organisme vivant ne cherche à se représenter le monde que dans la limite des outils naturels dont il dispose. Ainsi son cerveau ne conserve en mémoire que ce qu'il a expérimenté par ses sens et qui s'est révélé pertinent à l'usage. Les connaissances acquises sur le monde sont généralement floues. Un oiseau pêcheur sait globalement, par expérience, qu'il existe dans tel étang (qu'il ne nomme évidemment pas par ce nom) tels poissons (qu'il ne nomme évidemment pas par ce nom) dont il peut se nourrir. Son cerveau dispose cependant de processus rudimentaires lui permettant de ne pas explorer l'étang au hasard, c'est-à-dire de ne pas mourir de faim en cas d'erreurs répétées. Il sait faire des hypothèses approximatives lui permettant de situer le poisson dans les trois dimensions x,y,z et dans le temps t. Il peut également estimer la vitesse et la direction de son déplacement dans cet espace théorique. Mais ceci fait, et toujours pour ne pas mourir de faim, il procède à ce que l'on pourrait appeler un lever de doute. Il plonge là où il avait estimé que se trouvait le poisson. En cas de succès (on lira à cette occasion le petit livre toujours actuel de Sven Ortoli et Jean-Pierre Pharabod, le Cantique des Quantiques), le poisson cesse d'être une hypothèse nécessairement floue pour devenir une « réalité en dur » analogue à lui-même, et dont il peut se nourrir.

Pendant des millénaires, les humains ont, comme l'oiseau pécheur décrit ci-dessus, utilisé des représentations floues du monde, faute d'instruments et méthodes fiables pour préciser la localisation et le mouvement des entités qui les intéressaient. Beaucoup de ces représentations faisaient appel aux enseignements des religions, qui produisaient généralement plus de flous que les méthodes empiriques pré-scientifiques qu'ils utilisaient par ailleurs. La généralisation des sciences exactes a permis, à partir de l'ère des Lumières, dont on reconnaît généralement que Newton fut le père, d'utiliser des méthodes précises pour cartographier le monde. Tout permet de penser que les cerveaux de ces scientifiques disposent dorénavant, sous la forme de procédures inscrites dans les neurones, des outils mentaux leur permettant d'évaluer de cette façon objective, scientifique, aussi certaine que possible, une grande partie des entités perçues par leur sens. Dans le même temps d'ailleurs, ces cerveaux continuent à recourir aux anciennes approximations (souvent même lorsque leurs possesseurs pensent adopter une démarche scientifique).

Avec l'arrivée, au début du 20e siècle, de nouveaux instruments techniques, permettant de mieux étudier des phénomènes complexes, tels que les ondes radioélectriques ou lumineuses, les scientifiques ont découvert que les méthodes des sciences exactes dont se félicitait la nouvelle rationalité scientifique ne donnait pas toujours de bons résultat. En particulier quand il s'agissait d'étudier les entités microscopiques dont traitaient ces nouvelles sciences, atomes, électrons, photons. Tenter d'observer individuellement une de ces particules en utilisant les coordonnées de la physique conventionnelle, en lieu, temps et mouvement, pouvait dans certains cas donner de bons résultats, mais dans d'autres des résultats aberrants.

Ce fut le génie des premiers physiciens quantiques de proposer des méthodes de représentation susceptibles d'être, comme l'ont montré les progrès foudroyants de la physique par la suite, beaucoup plus systématiquement efficaces. On admet aujourd'hui qu'une particule individuelle ne peut être représentée que par l'équation de Heisenberg dite fonction d'onde, mentionnée plushaut. Celle-ci définit une aire d'incertitude au sein de laquelle il y a les plus grandes probabilités de trouver un phénomène se présentant aussi bien comme une onde que comme une particule. Mais lorsqu'une mesure instrumentale permet au cerveau d'un scientifique d'observer quelque chose qui ressemble à un objet matériel, il ne s'agit si l'on peut dire que de l'un des aspect de l'objet microscopique qui se matérialise, sous la forme soit d'une onde soit d'une particule.

Pour que l'oiseau pêcheur, en attrapant le poisson, lève l'incertitude concernant l'état de celui-ci, jusqu'alors localisé par lui dans tout le volume de l'étang, son cerveau a mis en oeuvre des procédures mémorisées par des assemblées de neurones. Ces procédure devraient en bonne logique être très semblables à celles mises en oeuvre par le cerveau d'un scientifique qui résout la fonction d'onde d'une particule en l'observant. L'oiseau n'a pas semble-t-il de conscience évoluée semblable à celle de l'homme. Mais s'il disposait de quelques fonctions comparables, il ne se poserait sans doute pas de question philosophique sur le processus cérébral l'ayant conduit à décider de plonger dans un lieu et à moment qui offraient les plus grandes probabilités de trouver un poisson. Tout ceci, y compris la prise de décision, relève de mécanismes depuis longtemps inscrits dans le génome de l'espèce, lui permettant de survivre grâce à la pêche.

Notons en passant que le même cerveau de l'oiseau dispose de mécanismes lui permettant de décrire un poisson comme un aliment potentiel, et non comme une ombre ou un morceau de bois flottant entre deux eaux. Il n'a pas besoin d'aller au delà, en s'interrogeant par exemple sur la nature profonde invisible du poisson, tel l'ordonnancement des molécules biologiques constitutives de celui-ci. De même le physicien quantique praticien ne demande pas en général ce qu'il y a « derrière » les entités mesurées par lui.

Aussi, lorsque l'on étudie, en s'appuyant sur notre exemple de l'oiseau et du poisson, le processus décrit par les premiers physiciens quantiques comme nécessitant l'intervention de la conscience de l'observateur dans la résolution de la fonction d'onde décrivant un observable microscopique, on ne devrait pas se poser de question philosophico-métaphysique. Il suffirait de remplacer le terme de conscience par celui de cerveau, et plus précisément par celui de processus neuronaux inscrits depuis des millénaires dans l'hérédité cérébrale d'un certain nombre d'animaux et d'humains. Le fait qu'en ce qui concerne l'homme, ces processus basiques s'accompagnent de divers corollaires relevant de l'affectif individuel ou collectif, telles les valeurs, ne devrait pas modifier profondément l'approche du problème. Il s'agit d'une dimension supplémentaire du cerveau (brain) que l'on associe généralement au concept quelque peu évanescent d'esprit (mind). Pour le neurologue, lorsque les instruments d'exploration cérébrale le permettront, il sera possible de retrouver dans le cerveau les assemblées plus ou moins permanentes de neurones correspondant à ces valeurs dites spirituelles.

De la même façon, l'on devrait pouvoir retrouver les assemblées de neurones correspondant à ce que le cerveau observe de son propre fonctionnement quand il s'interroge sur lui-même. Les modèles de conscience artificielle montre que certains agents dédiés à cette fonction (que Alain Cardon a nommé des agents aspectuels) observent en permanence le fonctionnement du cerveau et plus globalement celui du corps artificiel en situation. S'il s'agit d'agents artificiels, on parlera alors de la production d'une conscience artificielle. S'il s'agit d'agents neuronaux, on parlera d'une conscience réfléchie telle qu'elle est entendue en général. La conscience artificielle n'a d'intérêt pour le sujet artificiel, tel un robot, que si elle enclenche des processus décisionnels utiles à sa survie (par exemple ne pas tomber dans un fossé dont il ne pourrait ressortir).

Il en est de même de la conscience réfléchie humaine. Si le mécanisme correspondant s'est inscrit dans l'hérédité de l'espèce et se trouve hautement valorisé par les individus, c'est parce qu'il permet un recul dans la prise de décision dont les animaux plus spontanés ne disposent pas. Ne pas reconnaître ce rôle de la conscience en prétendant, comme le font les béhavioristes, que ce mécanisme est soit un mythe, soit un épiphénomène, n'a pas de sens. D'ailleurs, chacun d'entre nous, aussi matérialiste et déterministe-simpliste qu'il soit, s'y refuse spontanément.

Faut-il pour autant ressortir la vieille querelle du dualisme et du monisme, opposant l'esprit et la matière? Sans doute pas, même lorsque ce dualisme reste strictement athée, c'est-à-dire ne fait pas appel à un esprit extérieur au monde matériel. Il suffit seulement de distinguer, si la finesse de l'analyse l'exige, les parties du cerveau, autrement dit les assemblées de neurones, qui interviennent dans les décisions immédiates, sans consulter l'image globale que le sujet se fait de ses valeurs ou de lui-même et celles qui ne déclenchent de décisions qu'après consultations d'un certain nombre de mémoires internes ou d'informations externes s'étant révélées utiles à la survie.

Questions de méthodes

Si l'on admet ce qui précède, que dire de la recherche aujourd'hui conduite par un nombre croissant de biologistes associés à des physiciens, relatifs à l'existence de processus quantiques s'exerçant dans le vivant, que ce soit dans le cerveau ou ailleurs? Plusieurs questions sont généralement posées à cet égard

- Faut-il utiliser le calcul quantique pour analyser et comprendre des processus cérébraux? Doit on considérer par exemple telle particule identifiée dans le neurone (un ion CA circulant dans un canal ionique...), tel neurone ou ensemble de neurones, voire le cerveau tout entier, comme des entités quantiques justifiant d'être observées comme telles, ou peut-on se limiter aux techniques d'analyses utilisées pour comprendre le fonctionnement d'un ensemble matériel, fut-il complexe, tel un ordinateur? Il semble que les méthodes statistiques et probabilistes utilisées dans la compréhension des systèmes complexes, qu'ils soient matériels (réseaux de télécommunications) ou numériques (Internet), devraient suffire. Si l'on évoque dans certains cas des phénomènes de superposition d'états ou d'indétermination, ce sera seulement par un abus de langage. Ces termes cachent notre méconnaissance fine du phénomène biologique. Utiliser à leur sujet l'équation de Heisenberg paraîtrait inapproprié. Celle-ci s'applique à des entités qui sont en elles-mêmes indescriptibles par le langage courant, quel que soit le soin que l'on mette à tenter de les préciser.

- Une question plus profonde, qui semble dans l'ensemble inspirer le travail de Henry Stapp présenté ici, comme elle inspire d'autres recherches évoquées plus haut, consiste à se demander si dans certains cas la cellule vivante ne se comporte pas comme une sorte d'ordinateur quantique. En d'autres termes, dans certaines conditions, des éléments d'origine biologique, tels les ions précités, ou des atomes entiers, pourraient être émis en état de superposition d'état par la cellule vivante, puis conservés à l'abri de la décohérence par l'environnement biologique, le temps nécessaire (quelques centièmes de seconde sans doute) pour qu'ils puissent accomplir des opérations quasi simultanées impossibles sur un mode séquentiel traditionnel.

Il pourrait s'agir, pour simplifier, de « consulter » un certain nombre de sites cellulaires avant de se matérialiser par décohérence dans celui où l'insertion de la particule considérée représenterait le plus d'avantages pour la survie du sujet. Dans ce cas, on pourrait admettre que certaines parties du cerveau ou du corps se seraient spécialisés pour jouer le rôle de l'observateur et de sa conscience dans la physique quantique: provoquer à un moment adéquat la réduction de la fonction d'onde de l'entité momentanément quantique mise en circulation par l'organisme. On répondra aux hypothèses de ce type qu'elles sont tout à fait vraisemblables. Les mécanismes décrits doivent même probablement avoir été et demeurer bien plus nombreux qu'il n'est envisagé aujourd'hui. La principale difficulté à résoudre ne serait pas théorique, mais expérimentale.

Resterait cependant à comprendre par quels mécanismes des éléments biologiques pourraient émettre l'équivalent de q.bits. S'agirait-il d'une survivance du passé ou d'une propriété toujours actuelle? Est-elle répandue ou exceptionnelle?.Si elle est répandue, pourquoi ne l'a-t-on pas observée plus souvent?
Pour mettre tout ceci en évidence, des instruments bien plus fins et précis que ceux aujourd'hui à la disposition des chercheurs s'imposent. Nous pensons pour notre part qu'il existe un grand avenir pour de telles recherches. Elles pourraient répondre à des questions aujourd'hui apparemment insolubles, notamment en ce qui concerne le fonctionnement du cerveau en relation avec le corps et avec le monde extérieur.

Ajoutons que rien en principe n'empêcherait les concepteurs de robots évolutionnaires dotés de conscience artificielle d'imaginer des dispositifs faisant appel à des calculs quantiques qui soient implémentables dans de tels robots. C'est en fait pratiquement ce que font à petite échelle les chercheurs en calcul quantique. La difficulté rencontrée est de maintenir en état de cohérence, le temps suffisant, un nombre suffisants de bits quantiques ou qbits.

- Demeure une troisième perspective, qui pour le moment relève encore un peu de la science fiction. Il est admis en général que des particules échappant aux contraintes étroites de notre espace-temps circulent dans le cosmos: particules connues tels les rayons cosmiques ou d'autres mal connues ou hypothétiques, les neutrinos, les Wimps... Pourrait-on imaginer que certaines de celles-ci interagissent, d'une façon susceptible de produire des effets biologiques inconnus, avec les atomes et molécules des organismes vivants, notamment dans le cas où ceux-ci se trouvant en état de superposition quantique pourraient être sensibles à des interactions encore ignorées, mais susceptibles d'entraîner des effets bénéfiques pour l'adaptation et la survie des organismes. Poser la question, on le devine sans peine, n'est pas la résoudre.

Notes
1) Cf notre article: Avancées récentes en biologie quantique http://www.admiroutes.asso.fr/larevue/2011/122/bioquantique.htm
2) L'effet Zénon quantique. Wikipedia Voir wikipedia http://en.wikipedia.org/wiki/Quantum_Zeno_effect
3) Mac Fadden, Interview http://www.automatesintelligents.com/interviews/2002/mai/mcfadden.html
4)Sur Henry Stapp, voir Wikipedia http://en.wikipedia.org/wiki/Henry_Stapp.

5) Sur Gazzaniga Voir http://www.automatesintelligents.com/biblionet/2008/sept/human.html
6) Sur Daniel Dennett, voir http://www.automatesintelligents.com/biblionet/2000/nov/D_Dennett.html
7) Il s'agit cependant d'un ouvrage que nous n'encouragerions pas un lecteur même cultivé à aborder sans préparations. C'est dommage car il résume manifestement le travail de toute une vie de réflexion. D'une part, outre que le livre est écrit dans un anglais technique difficile à traduire, il est, sous une apparence de simplicité, inutilement abstrait. L'auteur ne fournit jamais les exemples simples qui permettraient d'illustrer son propos. C'est au lecteur d'essayer de les imaginer, au risque de se tromper. D'autre part, l'ouvrage est mal composé, constitué d'une suite de chapitres ou même d''articles qui dispersent en permanence la nécessaire attention que le lecteur doit apporter à un fil conducteur déjà difficile à suivre.

 

Repost 0

Articles Récents

Liens