Overblog Suivre ce blog
Administration Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

3 juillet 2007 2 03 /07 /juillet /2007 16:25
Hofstadter

I am a Strange Loop

par Douglas Hofstadter

Basic Book 2006, 412 pages

Présentation et commentaires par Jean-Paul Baquiast
02/07/07

 
 
 


Douglas Richard Hofstadter (né le 15 février 1945) est un universitaire américain. Il est connu surtout pour son ouvrage Gödel, Escher, Bach, les brins d’une guirlande éternelle, publié en 1979, et qui obtint le Prix Pulitzer en 1980. Ce livre, donc le titre est souvent abrégé en «GEB», a inspiré des milliers d’étudiants à se lancer dans une carrière dans les domaines de l’informatique et de l’intelligence artificielle.

 

Fils du prix Nobel de physique Robert Hofstadter, il a obtenu son doctorat en physique de l’université de l’Oregon en 1975. Il est actuellement (2005) professeur de sciences cognitives et d’informatique, professeur adjoint d’histoire et de philosophie des sciences, philosophie, littérature comparée et psychologie à l’université de l’Indiana à Bloomington, où il dirige le Centre de Recherche sur les Concepts et la Cognition (Center for Research on Concepts and Cognition site web).

Ses domaines d’intérêts comprennent les sujets relatifs à l’esprit, la créativité, la conscience, la référence à soi-même, la traduction et les jeux mathématiques. À l’université de l’Indiana à Bloomington, il a été co-auteur, avec Melanie Mitchell et d’autres, d’un modèle de «perception cognitive de niveau supérieur», Copycat, ainsi que de plusieurs autres modèles cognitifs et de reconnaissance d’analogies.

Pour en savoir plus
Page personnelle http://www.cogs.indiana.edu/people/homepages/hofstadter.html
Wikipedia (français) http://fr.wikipedia.org/wiki/Douglas_Hofstadter
GEB Edition française, supervisée par l’auteur, InterEditions 1985. Edition originale, Basic B


ooks, 1979.

ooks, 1979.

ooks, 1979.

Comme beaucoup de ceux qui avaient étudié l’informatique et les logiques computationnelles dans les années ’70, j’avais entendu parler de Douglas Hofstadter et de son libre Gödel, Escher, Bach en termes extatiques par ceux d’entre nous qui avaient eu la chance de faire des séjours dans une université américaine. Selon eux, on trouvait « TOUT » dans le GEB anglais. Mais ayant eu l’ouvrage entre les mains, j’y avais vite renoncé. D’abord parce que la langue, avec les innombrables néologismes inventés par l’auteur, me paraissait quasiment incompréhensible. D’autre part et surtout parce que, à part quelques passages suscitant la curiosité, et de belles illustrations, il me semblait ne mener à rien. Je me suis cependant procuré l’édition française dès sa parution.

J’ai évidemment alors mieux compris la pensée de l’auteur et ses multiples détours, mais là encore, le livre me paraissait trop éloigné de la rigueur cartésienne pour que je puisse y pénétrer en profondeur. Je me suis borné à le survoler, sans rien en retenir de marquant. Cette incompréhension était sans doute entièrement de ma faute, mais je dois dire, aujourd’hui encore, que bien que GEB figurât dans ma bibliothèque, je n’aurais pas eu l’idée de le rouvrir, s’il je ne m’étais pas mis moi-même en devoir de faire pour Automates Intelligents une chronique du dernier livre de Douglas Hofstadter, I am a Strange Loop, en conséquence de la lecture d’un entretien avec l’auteur publié par le NewScientist le 29 mars 1997.

Ayant depuis quelques années parcouru beaucoup d’ouvrages sur la conscience, lesquels m’avaient inspiré, outre divers articles pour notre revue, le chapitre Conscience de mon dernier livre, Pour un principe matérialiste fort, j’étais en effet curieux de voir ce que pouvait en dire Douglas Hofstadter. Je me demandais, connaissant à la fois le côté apparemment un peu « sentimental lyrique » de l’auteur et la montée en Amérique de toutes les formes de spiritualisme, dont les plus douteuses, s’il n’avait pas rejoint la vaste cohorte des Born Again, ceux qui redécouvrent Dieu et s’efforcent de justifier cette redécouverte en alignant des arguments pseudo-scientifiques. Dieu merci, il n’en était rien. Ma philosophie moniste, selon laquelle l’esprit et la conscience procèdent de la matière, s’est trouvée renforcée, s’il en était besoin – il n’en était pas besoin – à la lecture du livre. Il est vrai que si j’avais lu auparavant – ce que je n’avais pas fait – The Minds’ I écrit avec Daniel Dennett en 1981, Metamagical Themas (1985) et Fluid Concepts and Creative Analogies (1995), oeuvres précédentes de l’auteur, je ne me serais pas inquiété de son éventuelle conversion.

Certes, dans I am a Strange Loop, Douglas Hofstadter reste fidèle à sa façon d’inventer un vocabulaire et des exemples analogiques censés éclairés la pensée mais qui selon moi ne s’imposent pas et compliquent plutôt la lecture. De même, il agace un peu car il est manifestement très naïvement imbu de lui-même et de son moi, même s’il nous explique – j’y reviendrai- que le Moi est une hallucination. On ne peut pas ignorer en le lisant à quel point il a été précoce, découvrant la mathématique et la musique à l’âge ou les autres enfants lisent encore Tintin. Mais le lecteur lui pardonnera ces petits accès de vanité en considérant la sincérité qu’il met dans ses convictions altruistes et sa grande bonne volonté à s’ouvrir aux autres. Il est par exemple strictement végétarien, afin de respecter la vie des animaux susceptibles d‘héberger des états conscients, fut-ce de façon fugitive. De même, il connaît et aime l’Europe et les Européens, contrairement à beaucoup de ses compatriotes. Mais c’est surtout sa très grande culture, littéraire, musicale et scientifique que l’on admirera. Manifestement, aucune des avancées récentes des sciences dites de la complexité, allant de la physique quantique à la biologie et aux sciences cognitives, ne lui ont échappé.

I am a Strange Loop en bref

Ceci dit, venons en à l’essentiel du livre. Le message principal qu’il comporte est le refus de toute forme de dualisme, c’est-à-dire d’une idée selon laquelle (je cite p. 357) « au dessus ou à côté des entités physiques gouvernées par les lois physiques, existerait une Essence universelle, appelée « conscience » qui serait une propriété de l’univers invisible, non mesurable, non détectable, possédée par certaines entités et non par d’autres ». Il reconnaît que cette Essence, proche de ce que les religions occidentales nomment l’âme, est très séduisante. Elle est en accord avec nos perceptions quotidiennes, selon laquelle il faut distinguer entre l’animé et l’inanimé et, d’autre part, au sein du monde animé lui-même, entre le Moi et les Autres. Douglas Hofstadter remarque à juste titre que si ce Moi conscient est une émanation de la Conscience universelle, magiquement attribuée à chaque humain à sa naissance, il n’y a pas lieu de s’étonner que la conscience humaine puisse expliquer tant de mystères, Dieu se tenant derrière en renfort. Les recherches scientifiques visant à comprendre la conscience, le Moi et le monde lui-même en termes rationnels perdent tout intérêt.

Ce refus du dualisme n’est pas pour nous d’une grande originalité, même s’il doit être renouvelé devant les résurgences du spiritualisme dans les sciences et la volonté d’explique l’inconnu par de mystérieuses essences extra-matérielles renvoyant en fait aux descriptions archaïques du monde que proposent les Ecritures et autres traditions se prétendant sacrées. Mais le livre va plus loin. Il rappelle très clairement les hypothèses permettant de comprendre comment la conscience humaine, forme apparemment plus « évoluée » de celle déjà présente chez les animaux supérieurs, peut émerger chez les individus au fur et à mesure que se construit leur corps et leur cerveau. Le tout en interaction avec leur environnement physique, biologique et sociale. C’est à une présentation et à une discussion rapide de ces hypothèses que nous allons maintenant nous livrer.

Nous n’allons pas dans cet article faire une présentation du livre chapitre par chapitre. Elle serait trop longue et inutile. Les lecteurs intéressés par l’évolution de la pensée de Douglas Hofstadter doivent absolument se procurer l’ouvrage et l’étudier en détail. Nous n’allons pas non plus commenter les exemples de systèmes auto-réferrants donnés par l’auteur, notamment le trop long chapitre consacré à la controverse Gödel-Russel, gagnée comme on sait par Gödel dont le théorème éponyme est devenu un classique de la logique moderne. Ces exemples sont certes intéressants mais ils obscurcissent nous semble-t-il, plus qu’ils ne l’éclairent, la démonstration proposée par le livre. D’ailleurs Douglas Hofstadter s’en est rendu compte et il a donné, dans GEB comme dans ici, des exemples d’auto-références plus simples, accompagnés de la façon de s’extraire des cercles vicieux produits 1).

Nous allons par contre nous efforcer de dégager le fil essentiel de l’ouvrage, qui propose une argumentation très forte en faveur de l’explication matérialiste-évolutionnaire des phénomènes de conscience et de l’apparition du Moi. Cette argumentation est loin d’être originale, mais elle présente un caractère stimulant du fait des arguments et exemples nouveaux fournis par la réflexion personnelle de l’auteur. Elle ne convaincra sans doute pas les dualistes spiritualistes, mais elle renforcera dans leurs convictions, face aux offensives renouvelées de ces derniers, les monistes matérialistes pouvant se sentir ébranlés. Précisons d’emblée un point de vocabulaire. Dans cet article, nous traduirons le « I » anglais non pas par « Je » mais par « Moi ». On sait que « I » en anglais peut avoir les deux sens. Il faut donc selon le contexte distinguer le I sujet (I do) et le I objet (I is a self-referent symbol). En français, on peut plus facilement faire cette distinction, en utilisant le pronom Je pour représenter le sujet (Je fais ceci) et le mot Moi pour représenter l’objet (Dupont présente une hypertrophie du Moi).

La thèse de Douglas Hofstadter, sauf erreur d’interprétation, consiste à dire que l’évolution darwinienne des êtres vivants, se déroulant sur le mode hasard-nécessité, a fait apparaître, dans l’une de ses branches, des organismes dotés d’un système nerveux central. Si ces organismes ont survécu face à ceux, sans doute plus robustes, dépourvus de système nerveux centraux, c’est parce que le système nerveux central et notamment le cerveau associatif qui le couronne dans ses formes les plus achevées, leur ont rendu des services justifiant le maintien et le renforcement de la fonction cérébrale. Ceci est bien connu des biologistes évolutionnaires mais doit être rappelé.

Les services rendus par le cerveau

Quels sont les services rendus par le cerveau, ou si l’on préfère, quelles fonctions assure-t-il au bénéfice des organismes qui en dont dotés. On évoquera d’abord la coordination sensori-motrice générale. Le moustique, souvent cité par Douglas Hofstadter, dont le cerveau est très rudimentaire, en est parfaitement capable, tout au moins dans certaines limites. Cela lui a permis de survivre à travers les âges et lui promet aujourd’hui, avec la hausse des températures globales, un bel avenir.

La deuxième grande fonction permise par le cerveau consiste à mémoriser tous les évènements vécus par l’animal, de façon à ce qu’il puisse retrouver face à des situations actuelles celles des recettes ayant réussi dans des situations précédentes. On discute parfois les capacités de mémorisation, sous forme d’associations neuronales stables 2) du cerveau humain, doté de 100 milliards de neurones. Certains neuroscientifiques pensent que tout ce qu’a vécu l’individu, depuis le stade embryonnaire, est effectivement inscrit quelque part dans le système nerveux et pourrait être retrouvé. Le cerveau met donc à la disposition des animaux qui en sont dotés des banques d’histoires considérables, qui leur permettent de se rétrojecter plus ou moins automatiquement dans leur passé, c’est-à-dire de s’inscrire dans un temps historique (avec possibilité d’extrapolation vers un futur supposé). Il en est de même évidemment au niveau des groupes, dont les individus bénéficient, soit par la transmission génétique, soit par la transmission sociale, des acquis individuels conservés par l’évolution du fait des succès de survie qu’ils ont assurés.

La troisième grande fonction du cerveau consiste à globaliser et catégoriser ces millions ou milliards de « mémoires partielles », en les classant par catégories et en les désignant d’un terme spécifique. Il s’agit de proposer ce que l’on pourrait appeler des macro-instructions permettant l’accès à des classes de mémoires ou instructions élémentaires. Ce sont ces classes que Douglas Hofstadter désigne globalement du terme de « symbol », qu’elles soient ou non nommées par un terme spécifique dans le langage verbal. Pourquoi ce travail de regroupement, classification et symbolisation ?

Douglas Hofstadter insiste sur le fait (au demeurant bien connu) que tout ce qui concerne effectivement l’anatomie et la physiologie se situe au niveau cellulaire voire atomique. A ce niveau règne un déterminisme parfait, analogue au déterminisme grâce auquel l’interaction des molécules d’un gaz soumis à pression dans une enceinte provoque l’échauffement dudit gaz 3)  Mais à ce niveau, le cerveau associatif n’apporte pas de valeurs ajoutées spécifiques permettant d’améliorer les chances de survie de l’organisme. Tout se passe en dehors de son contrôle (sauf peut-être lorsque les neurones déclenchent la production de certains corps ayant un effet de régulateur global). Le cerveau ne perçoit et ne traite que les phénomènes macroscopiques de la vie courante. Seules donc l’intéressent les expériences concrètes vécues par le sujet quand il explore le monde par essais et erreurs. Ce sont les résultats de ces explorations que le cerveau associatif mémorise, classifie et s’efforce de retrouver en cas de besoin.

Pour pouvoir les retrouver rapidement, le cerveau doit procéder comme le fait un documentaliste quand il utilise des mots clefs généraux du type “Politique” “Economie”, “Sciences”. Ainsi le cerveau du chien, comme celui de l’homme, mémorisera plusieurs dizaines ou centaines de macro-catégories, telles que « tout ce qui est bon à manger » et « tout ce qui est susceptible de comporter une menace ». Dans tous les cas, il s’agit d’ensembles stables ou relativement stables de collections de souvenirs eux-mêmes constituées d’associations de neurones. Evidemment, il n’existe pas de documentaliste dans le cerveau qui classerait de façon rationnelle les souvenirs pour les retrouver au plus vite et de façon la plus pertinente possible face aux exigences de la compétition darwinienne. La définition des catégories, de leurs contenus, de leur ordre de préséance s’est faite au long des millénaires puis au long de la vie de l’animal, de sorte que ne sont conservées que les informations et les macro-catégories ayant le mieux contribué à la survie.

De même nul n’a décidé de donner des noms aux différentes catégories. Par la force des choses cependant, elles se sont trouvées “marquées” dans le cerveau, au cours de l’évolution, d’une façon permettant de les retrouver facilement. On ne connaît pas le détail des procédures assurant la recherche en mémoire des informations pertinentes. On sait par contre que lorsqu’un chien perçoit une odeur de nourriture, il se comporte différemment de ce qu’il fait quand il croît entendre un cambrioleur. Et ceci avec des temps de réponse courts. On peut donc penser que la perception sensorielle primaire active non seulement des réflexes primaires mais des souvenirs personnels à l’animal, lesquels entre en compétition dans ce que l’on appelle encore l’espace de travail conscient pour piloter le comportement en sortie le plus approprié. On pourrait ajouter que tout ce qui est décrit ici relève de la conscience primaire, présente chez l’homme et chez sans doute la plupart des animaux dotés de système nerveux central. Elle est d’ores et déjà observable également chez des robots équipés de systèmes suffisamment performants de capteurs et d’effecteurs 4).

Une quatrième fonction du cerveau n’est accessible qu’aux organismes dotés d’une complexité suffisante (certains animaux dits supérieurs et bien évidemment l’homme). Elle se traduit par l’apparition de la conscience de soi ou conscience dite supérieure. Elle repose sur la capacité qu’à le cerveau d’observer une partie de son fonctionnement et du fonctionnement des organes relevant de la commande volontaire. Douglas Hofstadter consacre de longs développements aux boucles physiques de récursion fréquentes dans les machines modernes (par exemple la caméra qui filme l’écran sur lequel apparaît ce qu’elle filme). Les boucles biologiques de récursion sont innombrables et bien plus complexes. (sécrétion d’une hormone suscitant l’appétit en cas de baisse du niveau de sucre détecté dans le sang, par exemple). Douglas Hofstadter ne les étudie guère et c’est dommage, car ces mécanismes bien décrits par notre ami le médecin physiologiste intégrateur Gilbert Chauvet, permettraient aussi d’expliquer comment certains neurones ou groupes de neurones en sont venus à s’observer au moment où ils observaient les autres ensembles neuronaux s’activant à l’appel des sollicitations extérieures.

Diverses hypothèses sont actuellement suggérées pour décrire les mécanismes neurologiques permettant à certaines parties du cerveau de s’activer à l’occasion de l’activité d’autres parties du cerveau, ainsi que les conséquences pouvant en résulter sur l’activité globale ou finale du cerveau et du corps lui-même. On a évoqué l’existence de neurones miroirs. Mais peu importe pour ce qui nous concerne. Quel que soit le mécanisme d’auto-observation ou de récurrence au sein du cerveau, on peut sans risque faire l’hypothèse que ce mécanisme existe bien, puisque les résultats de son activité se constatent en permanence. C’est lui que Douglas Hofstadter désigne du terme (lui-même étrange), de boucle étrange (strange loop) et dont l’importance est primordiale dans l’étude du Moi dit conscient puisque c’est lui qui fonde ce dernier. La boucle produit un résultat. Elle modifie, sous l’influence du macro-concept Moi, l’entité neurologique observée, d’une façon complexe, imprévisible mais certaine. C’est en ce sens que l’on peut parler des effets moteurs de la conscience (ou de la prise de conscience, pour parler comme les psychanalystes). D’une façon générale, de nouveaux éléments de complexité ou de variabilité sont apportés dans le cadre de boucles antérieurement fermées sur elles-mêmes. Le comportement global du sujet s’en trouve nécessairement influencé. Ceci est particulièrement vrai lorsque la prise de conscience s’organise autour des macro-informations représentant dans le cerveau l’expérience globale et historique du sujet, autrement dit autour du concept de Moi.

Comment ceci peut-il se faire ? Nous avons vu qu’un animal, même lorsqu’il n’est pas capable de conscience supérieure, utilise les macro-instructions ou macro-catégories correspondant à des situations mémorisées du fait de leur importance pour la survie. Il sait sans difficulté retrouver tout ce qui concerne sa nourriture, les partenaires sexuels, les prédateurs. Mais il le fait sans classer toutes ces informations dans la macro-catégorie de « Tout ce qui concerne mon organisme face à la faim, aux besoins de reproduction, aux prédateurs ». Pour un humain au contraire, la complexité de son cortex associatif lui a permis de constater que l’essentiel des informations mémorisées dans son cerveau avaient trait à la survie de son organisme. Par ailleurs, il avait déjà, disposant du langage, donné des noms aux macro-catégories essentielles à sa survie : nourriture, partenaire sexuel, prédateur. Il était donc tout à fait normal qu’un nom émerge pour représenter l’organisme global en lutte pour sa survie dans le vaste monde. Ce fut le Moi, c’est-à-dire l’entité symbolique globale ou macro-macro-catégorie qui donnait leur sens aux macro-catégories de niveau inférieur

Mais dès ce moment, du fait des phénomènes d’emballement qui peuvent affecter les boucles récursives, bien décrits par Douglas Hofstadter, le concept de Moi allait jouer un rôle de plus en plus important, en permettant de réorganiser de façon plus systématique et plus performantes toutes les connaissances acquises expérimentalement par l’espèce et l’individu. Comme cette réorganisation entraînait des conséquences favorables à la survie de l’individu et de l’espèce, elle ne pouvait que se poursuivre sans limites autres que de fait. Le Moi s’est donc développé, au-delà parfois du raisonnable. Pour les mêmes raisons, comme il devenait associé à toutes les décisions que prenait de fait l’individu, en réponse aux déterminismes d’ailleurs complexes qui le conditionnaient, le sujet a eu tendance à penser que c’était le Moi qui décidait, et qui plus est, qu’il décidait librement.

La cinquième fonction du cerveau, qui semble comme la précédente réservée aux humains, est simplement évoquée par Douglas Hofstadter (alors qu’à notre avis elle est excessivement importante). Il s’agit de la capacité d’halluciner le contenu du Moi. Pour notre auteur, comme pour d’ailleurs de nombreux cogniticiens, le Moi, au moins dans ses principales dimensions, est le produit d’une hallucination. Mais qu’est-ce qu’une hallucination ? On associe ce terme à la propriété qu’ont certains cerveaux ayant perdu le sens du réel de générer des images ou des personnages que le sujet halluciné considère comme existant véritablement. A ce niveau, c’est un dysfonctionnement pouvant entraîner la mort. D’une façon beaucoup plus générale et inoffensive, voire utile, le cerveau peut, quant il organise les informations sensorielles afin de construire des images du « réel » qui l’entoure, projeter dans ce réel reconstruit des propriétés qui n’existent que pour lui et qui n’intéresseraient pas nécessairement d’autres sujets – à l’exception de ceux qui partageraient la même hallucination. Ainsi je peux « halluciner » autour de représentations du chef de l’Etat, de l’être aimé, de ma voiture, de la pollution, de la crise mondiale, de Dieu ou de tous autres objets ou catégories que je suis conduit à découper de facto dans le monde, au cours de mon existence quotidienne.

Les animaux, même supérieurs, à moins de les droguer, ne semblent pas capables de telles hallucinations. Un chien ressent son maître tel qu’il se manifeste effectivement à lui et non tel qu’il pourrait l’imaginer dans une sorte de délire exalté. Chez l’homme au contraire, cette faculté d’hallucination, projetée sur ce qui l’entoure, est à la source de tous les mythes, de tous les dépassements, de toutes les folies. Elle a sans doute été sélectionnée par l’évolution parce qu’elle était utile. Le concept de Moi n’y échappe évidemment pas. Lorsque le sujet se comporte de façon non hallucinatoire, il prend les décisions qui lui imposent les circonstances, analogues à celles que prendrait un animal dans une situation semblable (par exemple traverser une rue en regardant à gauche et à droite, ce que les animaux familiers savent faire). Lorsqu’il est sous l’emprise d’une image halluciné de son Moi, il peut faire n’importe quel exploit, tel arrêter à lui tout seul une colonne blindée…ou n’importe quelle folie, telle que se précipiter sous un autobus.

Le Moi de Douglas Hofstadter face au Moi des spiritualistes

On voit alors que le Moi ainsi défini 6) présente différents caractères qui en font l’antinomie de ce que les spiritualistes appellent le Moi conscient et libre, propriété qui est pour eux conférée aux hommes par Dieu pour les distinguer des animaux et plus généralement de la matière ?

Le Moi est une propriété partagée par les individus de nombreuses espèces vivantes. Mais elle présente une intensité différente selon les espèces et au sein des espèces, selon l’âge et les modes de vie. Douglas Hofstadter classe les espèces selon leur aptitude à la conscience. L’homme est au sommet, les virus et microbes à la base. On remarquera qu’il n’y fait pas encore entrer les robots fussent-ils réputés conscients. Mais cela ne saurait tarder, compte-tenu de la définition qu’il se donne des conditions permettant l’émergence du Moi.

Le Moi se construit progressivement, chez chaque individu au sein de chaque espèce, en fonction des expériences vécues et mémorisées par les individus. Autrement dit, on ne naît pas conscient, on le devient.

Le Moi n’est évidemment pas immortel. Il est lié au corps et au cerveau de la personne et disparaît avec ceux-ci.

Le Moi peut cependant être partagé. Ceci s’explique très simplement. Il est partagé entre personnes ayant eu des expériences communes et ayant appris à réagir de façon corrélée. Mais, même dans l’amour né d’une longue vie commune, le Moi de l’autre, que je peux comprendre et héberger, n’est jamais qu’une version réduite du Moi de cet autre. Il s’éteint progressivement avec la séparation. De la même façon, je ne peux pas espérer que mon Moi puisse survivre longtemps chez les autres, aussi nombreux soient ceux que notre exemple ou notre fréquentation ont inspiré 7).

Plus généralement, Douglas Hofstadter considère que notre Moi héberge une grande quantité de consciences partielles, inspirées de celles de tous les êtres, ouvrages et évènements qui nous ont marqués. L’idée est assez banale. Nous sommes en permanence influencés par d’autres, dont nous adoptons, partiellement et/ou momentanément, les façons de faire et les idées. On pourrait dire aussi, en adoptant l’approche mémétique, que nous sommes constamment envahis par des mèmes produits par l’activité, éventuellement halluciné, du moi des autres .

Le Moi n’est pas libre. Il est déterminé, mais les modalités de ce déterminisme n’apparaissent pas clairement à l’observation, car les causes en sont complexes et enchevêtrées. De plus, chacun perçoit, de façon évidemment erronée, qu’il est libre de prendre telle ou telle décision 9). Douglas Hofstadter exécute en quelques lignes, et de façon bien réjouissante, l’hypothèse chrétienne du libre-arbitre. L’illusion d’être libre et responsable fait partie des modes hallucinatoires par lesquels le concept de Moi dynamise le sujet conscient – tout en renforçant son influence sur lui.

Le Moi, et plus généralement la conscience, sont stirctement liés à un corps, à un cerveau et donc à un individu. Il n’y a pas de conscience cosmisque ni, bien évidemment, de divinités qui en seraient la quintessence. Là encore, Douglas Hofstadter exécute en quelques mots les pratiques propagées, notamment aux Etats-Unis, par les adeptes des religions et philosophies contemplatives. Ce n’est pas, dit-il, en s’enfermant sur soi afin d’évacuer toutes les informations venant du monde extérieur et de sa propre individualité que l’on peut retrouver une quelconque spiritualité cosmique. On se transforme simplement en cadavre avant la lettre.

On peut cependant parler de Moi collectif, émergeant au sein des groupes. Mais cela n’est pas en contradiction avec ce qui précède, car ces Moi(s) collectifs sont produits par la collaboration de Moi(s) individuels 10) .

Conclusion

Nous pourrions pour terminer cette analyse retenir la conclusion de Douglas Hofstadter. La façon de voir le monde et la conscience qu’il nous propose (et qui plus généralement inspire la science matérialiste) ne doit pas être source de désespoir ou de désenchantement. Elle apporte, nous dit-il dans la dernière page de son livre, une façon plus subtile et plus profonde de comprendre ce que c’est que d’être humain « a deeper and subtler vision of what it is to be human ». Nous pourrions dire la même chose de la description du cosmos que donne la science matérialiste moderne : une façon plus subtile et plus profonde de comprendre ce qu’est l’univers, au regard des descriptions simplistes et aliénantes qu’en donnent les religions.


Notes
1) Le barbier du village qui rase tous les habitants qui ne se rasent pas eux-mêmes.
2) Jean-Pierre Changeux parlait d’ « objets mentaux » dans son livre fondateur « L’homme neuronal (1983)
3) Douglas Hofstadter n’évoque pas l’indéterminisme quantique supposé régner au niveau subatomique, sans doute parce que l’indéterminisme quantique, à notre niveau, se traduit toujours par un déterminisme global, de type statistique probabiliste, analogue au déterminisme statistique qui permet de prévoir l’évolution des grands ensembles : molécules, foules, etc.
4) Curieusement, Douglas Hofstadter ne fait pas la distinction, pourtant courante, entre conscience primaire et conscience supérieure, cette dernière se caractérisant par la prise en compte d’une représentation du Moi.
5) Parler de neurones miroirs n’est pas très explicite en termes évolutionnaires. On peut certes admettre que certains neurones aient acquis (par hasard) l’aptitude de s’activer en miroir dans certaines circonstances, mais il a fallu des pressions de sélection considérables pour qu’ils deviennent, que ce soient eux ou que ce soient des assemblées analogues de neurones, les supports des comportements générant le concept de Moi. L’apparition du langage, ayant conduit les hominiens à dénommer de façon codée des évènements saillants indispensables à leur survie, a du jouer à cet égard un rôle essentiel. On sait que des primates peuvent se reconnaître épisodiquement dans un miroir, mais ils n’ont pas la possibilité de nommer leur image, même s’ils savent par ailleurs répondre au nom de baptême qu’ils ont reçus. S’ils ne sont pas incités à nommer leur image, pour l’utiliser, c’est que cela ne leur apporterait aucun avantage immédiat, leurs besoins essentiels étant satisfaits par ailleurs. Il n’en fut pas de même sans doute chez les hominiens primitifs. Observant un de leurs semblables inventer un geste vital, ils ont été poussés à imputer ce geste à l’individu précis qui le pratiquait et à s’imaginer dans le rôle de ce dernier. D’où l’émergence du concept de Toi, qui a sans doute préfiguré celui de Moi. En accomplissant à leur tour ce même geste, par imitation, ils ont du même coup rendu utile le concept de Moi, capable de copier ce que faisait le Toi. Nous nous livrons ici à des suppositions mais c’est dans l’intention de fournir des analogies, dont on sait que Douglas Hofstadter apprécie beaucoup le caractère pédagogique. Notons à cette occasion que notre auteur n’a pas fait, sauf erreur, d’allusions au Toi comme précurseur possible du Moi.
6) Le Moi ou la conscience individuelle. Douglas Hofstadter emploie aussi volontiers le terme d’âme (soul) mais sans y mettre d’intention mystique. C’est seulement parce qu’il est un grand sentimental
7) Douglas Hofstadter consacre de longs développements à l’expérience de pensée consistant à se demander ce que deviendrait le Moi d’une personne entièrement téléportée dans un double. Nous pensons que la question ne se pose pas. Dès que les deux consciences seraient incorporées dans des corps différents, et comme ceux-ci, par la force des choses, vivraient des expériences différentes, chaque Moi se développerait de façon différente et n’auraient donc plus conscience d’être les mêmes. On retrouve des situations un peu analogues dans les cas cliniques de « split brain ».
8) Observons que Douglas Hofstadter ne semble pas porter grand intérêt à la mémétique, bien que celle-ci puisse expliquer plus facilement qu’il ne le fait lui-même les contagions entre contenus mentaux qui se produisent au sein des groupes.
9) Cette perception est renforcée par les rêves, qui semblent tous, sauf erreur, s’organiser autour d’une image halluciné du Moi. Dans les rêves, le Moi est omnipotent ou, tout au moins, dégagé des contraintes de l’immersion dans un monde étranger. Beaucoup de personnes transportent dans la vie éveillée des empreintes de leur Moi onirique halluciné.
10) Il faudrait en fait, pour être complet, reprendre la question de la formation des contenus cognitifs collectifs, au sein des groupes sociaux animaux et humains. Les contenus de la science en font partie. Ils génèrent sans aucun doute le concept de Nous, qui s’implante dans les cerveaux individuels et modifie leur activité. Mais ceci nous entraînerait trop loin, car Douglas Hofstadter n’a pas directement traité cette question.
Repost 0
10 juin 2007 7 10 /06 /juin /2007 20:24
A propos de l'ouvrage de Jean Staune "Notre existence a-t-elle un sens ? : une enquête scientifique et philosophique"
par Jean-Paul Baquiast - 09/06/07

Porur un prinicpe matérailiste fort, par Jean-Paul BaquiastNotre existence a-t-elle un sens ?, de Jean StauneCe bref commentaire du livre que vient de publier Jean Staune, «Notre existence a-t-elle un sens ? : une enquête scientifique et philosophique» et que je présente ici aux lecteurs du blog d'Automates Intelligents, prend pour moi un caractère un peu particulier. Je me sens en effet personnellement impliqué dans le débat. D'où la première personne que j'adopte dans la rédaction de cet article. Ce livre est en effet paru presque en même temps que mon propre ouvrage «Pour un matérialisme fort». L'auteur a eu l'amabilité de me l'adresser, ce dont je le remercie.

Nos deux livres proposent une visite (nécessairement rapide) de plusieurs grands domaines des sciences modernes ayant de fortes implications philosophiques : le monde quantique et la cosmologie, l'évolution, la conscience. Mais c'est le seul point qui les rapproche. Tout le reste les oppose. Leur objectif n'est pas en effet de faire de la vulgarisation scientifique mais de plaider une cause, celle du spiritualisme pour Jean Staune, celle du matérialisme pour moi. L'un comme l'autre, nous avons pensé que ce débat millénaire méritait d'être repris à la lumière de ce que paraissent enseigner les nouvelles sciences, souvent dénommées sciences de la complexité 1).

Notre démarche peut paraître illusoire. En quoi les sciences peuvent-elles prouver l'existence ou l'inexistence de Dieu ? Si elles le pouvaient, il n'y aurait plus débat depuis longtemps. Tout le monde serait du même avis. Sans apporter de preuves formelles, les sciences peuvent-elles fournir des indices ? Peut-être, mais ces indices eux-mêmes ne peuvent aider à choisir entre le spiritualisme et le matérialisme, à supposer que ce choix fasse chez l'homme l'objet d'un débat rationnel. Un travail d'interprétation s'imposera donc pour permettre à chacun d'utiliser les résultats des travaux scientifiques afin de conforter ses propres croyances.

En bonne logique, nos livres respectifs devraient alors, sur la base de « faits » ou pour parler plus prudemment d' «hypothèses scientifiques» identiques, proposer un combat d'interprétation, une sorte de Disputatio, comme l'on disait au Moyen âge. Nous y confronterions nos croyances, en espérant ébranler celles de l'adversaire par la vigueur de nos propres arguments. Le débat serait certainement vif. Le sens que l'on peut donner aux résultats des recherches est en effet très dépendant des options philosophiques de ceux qui les commentent. Ainsi, pour prendre un exemple classique, l'hypothèse, d'ailleurs encore en discussion, du Big bang peut être considérée par les chrétiens comme confirmant l'intervention d'un acte créateur de nature divine. Mais pour les matérialistes, il s'agit seulement d'un des nombreux évènements de la physique des hautes énergies que de nouvelles hypothèses et de nouvelles expériences devraient permettre d'éclairer. La Dispute, en ce cas, portera sur le sens à donner au Big bang, et non sur le phénomène lui-même tel que le décrivent les cosmologistes. Autrement dit, ceux qui veulent philosopher sur les enseignements des sciences devront proposer leurs propres «interprétations» aux «faits» rapportés par les chercheurs ou aux « lois » qu'ils élaborent 2).

Jean StauneJe ne suis pas certain cependant que ce soit sur le plan des affrontements entre interprétations que Jean Staune ait voulu se placer. C'est sur celui du débat scientifique lui-même. Il ne cache pas vouloir s'appuyer sur la science pour justifier son combat contre le matérialisme athée. Pour cela il fait appel à un certain nombre de scientifiques dont beaucoup ont été rassemblés par lui dans une "Université interdisciplinaire de Paris" (UIP) fondée sous son impulsion en 1995. Jean Staune croit en un monde régi par la divinité, seule capable comme l'indique le titre de son livre de donner un sens à l'existence humaine. Il n'accepte pas un univers désenchanté, sans transcendance, sans moralité, celui que dépeignait jadis le matérialisme d'un Jacques Monod ou d'un Jean-Pierre Changeux, pour qui l'homme est le produit du hasard et l'esprit ne provient que du fonctionnement que d'un «paquet de neurones». Un tel matérialisme, affirme Jean Staune avec une délicatesse que l'on appréciera, conduit à l'eugénisme nazi et au projet d'homme nouveau du stalinisme 3). Aussi, pour mener ce combat salutaire contre le matérialisme, il veut s'appuyer sur les avancées nouvelles de la science. Celles-ci contredisent, dit-il, les affirmations de Jacques Monod, de Jean-Pierre Changeux et de leurs semblables. Elles confortent au contraire la croyance en l'existence d'un Créateur et en une finalité proposée par ce dernier tant aux hommes qu'au cosmos tout entier.

Un terrain de confrontation bien délicat

Malheureusement, si l'on veut fonder ses convictions sur des arguments tirés des publications scientifiques, on s'engage sur un terrain bien délicat. C'est ce que tente cependant Jean Staune, en donnant la parole aux chercheurs qui partagent plus ou moins complètement les mêmes convictions, et dont beaucoup collaborent à l'UIP. L'essentiel de son livre consiste à montrer qu'aujourd'hui, ces chercheurs donnent au spiritualisme des arguments que les matérialistes n'avaient pas pris en considération. Il y consacre quatre chapitres, portant respectivement sur la physique quantique, la cosmologie, la vie (ou plus exactement l'évolution) et finalement le cerveau conscient. Pour beaucoup de lecteurs matérialistes sans culture scientifique, les descriptions que propose Jean Staune de l'état des recherches dans ces quatre domaines apporteront un certain trouble. Très habilement, sous une présentation initiale relativement objective de l'état des connaissances concernant chacun des domaines, il introduit les arguments des scientifiques qui directement ou indirectement militent en faveur du spiritualisme.

Mais nos matérialistes naïfs auraient bien tort de se laisser durablement troubler car en fait, Jean Staune, comme il a été dit par un critique peu amène, ou bien enfonce des portes ouvertes, ou bien s'appesantit sur des hypothèses qui n'ont pas été retenues par la communauté scientifique 4) ou bien encore fait silence sur des auteurs très récents – que pour ma part j'ai cité dans mon livre, et qui selon moi apportent de l'eau au moulin du matérialisme, le terme de matérialisme étant alors entendu au sens large, c'est-à-dire excluant le recours à Dieu comme principe explicatif 5).

Pour ma part, je n'ai pas voulu faire comme Jean Staune, c'est-à-dire tenter de prouver l'inanité du spiritualisme en faisant appel aux travaux des scientifiques matérialistes - d'autant plus que ceux-ci constituent une majorité écrasante et qu'il n'était pas possible de les citer tous. Je me suis borné, comme indiqué dans la préface de mon livre, à tenter de contribuer au renouveau de la pensée matérialiste en faisant mieux connaître, notamment à un public francophone, les développements les plus récents des connaissances scientifiques, sans chercher à mentionner les opinions philosophiques des auteurs, que d'ailleurs la plupart n'affichent pas. Un matérialisme qui ignorerait ces travaux fragiliserait grandement sa position. J'ai été aidé dans ce recensement par mon activité au sein d'une revue se spécialisant dans la veille scientifique et technologique. J'ai recueilli à cette occasion les références de nombreuses publications récentes. Celles-ci m'ont permis de rappeler s'il en était besoin à ceux se reconnaissant dans l'athéisme et le matérialisme, que la science d'aujourd'hui n'est plus celle du passé et qu'ils doivent accepter d'aborder les recherches les plus récentes, fussent-elles un peu difficiles d'accès, pour rester pertinents. Ceci signifie que les affirmations ultra-réductionnistes de Jacques Monod, (Le hasard et la nécessité, 1970) ou de Jean-Pierre Changeux (celui de «L'homme neuronal», 1983) sont désormais à revoir en partie compte tenu des développements des sciences dites de la complexité.

Les athées pourront se sentir renforcés dans leurs convictions matérialistes, car les nouvelles sciences permettent d'aborder, mieux qu'en termes littéraires, les grands questions de la philosophie : que dire de la vie, de la conscience, de la place et du rôle de l'homme dans l'univers ? Elles n'excluent pas non plus les réflexions morales, car elles reposent sur une approche des super-organismes sociaux montrant que les consensus moraux sont indispensables à la survie de ces derniers.

J'ajoute qu'ayant abordé dans mon livre, comme rappelé ci-dessus, de nombreux domaines de recherche non présentés par Jean Staune, j'ai pu indiquer à mes lecteurs matérialistes que les sciences de la complexité ne les laisseront pas sans arguments pour expliquer l'omniprésent besoin, chez l'homme, de transcendance, de croyance, d'explications rassurantes. Ce besoin ne révèle en rien, pour les matérialistes, l'existence d'un "autre niveau de réalité" dont les humains devraient admettre l'existence. Aujourd'hui, les approches conjuguées de la psychologie évolutionniste, de la neurologie, des sciences politiques…permettent au contraire d'expliquer de façon naturelle le besoin de Dieu et la soumission fréquente des populations aux religions et à leurs manifestations les plus extrémistes. Elles expliquent tout aussi bien d'ailleurs le besoin qu'ont les hommes de se rallier à des dictatures et à des contraintes sociales oppressives ne faisant pas nécessairement appel à la divinité pour s'imposer. En d'autres termes, ces nouvelles sciences, convenablement interprétées, peuvent apporter un message d'émancipation qui sera nécessairement reçu comme subversif par ceux qui imposent pour assurer leur pouvoir l'obéissance aux dogmes et aux prêtres.

Il me semble donc que si Disputatio il devait y avoir entre Jean Staune et moi, à propos du contenu de nos deux livres, celle-ci ne devrait pas prendre la forme d'échanges d'arguments scientifiques, souvent difficiles à suivre par le grand public. Si le débat portait sur les différences entre nos convictions profondes, il aurait plus d'intérêt. Jean Staune exposerait ses croyances et les raisons qu'il a de les défendre. Je n'aurai pas l'outrecuidance de les résumer ici. J'indiquerais pour ma part ce en quoi je crois. J'emploierais moi aussi ce mot de croire puisqu'il s'agit bien de croyances et non de certitudes fondées sur des preuves scientifiques que je sais fragiles. Je crois par exemple que l'univers évolue sans finalités imposées de l'extérieur. Je crois que l'homme n'est qu'un produit local de cette évolution, lui-même en pleine évolution. Je crois que des automates intelligents pourront prochainement disposer de corps et de cerveaux bien supérieurs à ceux des humains. Je crois que les croyances que nos organismes génèrent, y compris celles relatives à la moralité et aux valeurs, ont une influence sur l'évolution du monde. Je crois à bien d'autres interprétations des sciences que mes lecteurs, s'ils en ont la curiosité, retrouveront dans mes articles et mes livres.

La science peut-elle être neutre ?

Mais alors, Jean Staune et moi, comme ceux qui partagent notre «combat», sommes-nous légitimes à vouloir mobiliser les interprétations que nous donnons de la science au service de ce l'on appellera avec plus ou moins de bienveillance des croyances, des philosophies ou des idéologies ? Ne faisons nous pas un grand tort à l'objectivité scientifique, à la neutralité de la science ? Les scientifiques désirant rester neutres voudront-ils nous suivre dans de telles Disputes ? La science, tout au moins dans la vision qu'en avait jusqu'à ces derniers temps l'université française laïque et républicaine, se doit d'être indépendante des croyances religieuses et des convictions politiques de ceux qui la pratiquent ou qui l'enseignent. Elle doit proposer aux hommes, en amont des technologies, un socle de connaissances valables pour tous et en tous lieux, sauf évidemment à intégrer de nouvelles découvertes validées par la communauté scientifique tout entière. Il ne doit donc pas exister de science chrétienne ou islamique s'opposant à une science matérialiste, comme il n'y a plus depuis longtemps de science prolétarienne s'opposant à une science bourgeoise. Autrement dit, la science se doit d'être «neutre».

Or il faut bien reconnaître que cet idéal correspond à une illusion, sinon à un mensonge. Un minimum d'observation politique montre que l'on ne peut dissocier la recherche, fut-elle «fondamentale», des stratégies géopolitiques et des idéologies de ceux qui la financent et qui par conséquent mobilisent à leur profit l'intelligence des chercheurs comme les moyens de diffusion de leurs travaux. Il n'est pas anodin pour la science qu'aux Etats-Unis, comme d'ailleurs partout dans le monde, plus de 60 à 80 % des crédits de recherches publics viennent du secteur militaire ou plus généralement stratégique. Il n'est pas anodin non plus qu'aux Etats-Unis, comme d'ailleurs partout dans le monde, des sommes considérables viennent alimenter des fondations ou des organisations privées se mettant ouvertement au service de telle ou telle religion.

Par ailleurs, il est difficile de penser que les opinions politiques, philosophiques ou religieuses des chercheurs n'influent pas sur les domaines qu'ils choisissent d'étudier, sur les résultats qu'ils obtiennent et surtout sur les interprétations qu'ils en donnent, soit directement dans leurs travaux, soit dans leurs enseignements et communications médiatiques. On ne peut donc pas sans examen, parce qu'un chercheur affirme telle chose, même dans le champ de ses compétences, lui donner raison simplement parce qu'il est chercheur. La problématique est bien connue en ce qui concerne l'expertise scientifique et technologique. Souhaiter que la science soit neutre ne doit pas rendre aveugle aux dérives grandes ou petites qui s'introduisent dans les démarches de recherche.

Il y a plus grave. J'ai noté dans mon livre, comme le font tous ceux qui s'intéressent à la sociologie et à la politique de la science, qu'aujourd'hui la neutralité de la science est de moins en moins présentée comme un objectif souhaitable. On revient partout dans le monde à l'idée que la science, puissant instrument de mobilisation des ressources humaines et économiques des sociétés modernes, doit être mise au service des politiques de puissance affichées par les grands Etats comme par les églises et les institutions religieuses organisées en machines de guerre à conquérir le pouvoir. C'est ainsi que les représentants de ces Etats et institutions demandent explicitement à la science d'être patriote et de surcroît d'être, selon les pays, chrétienne, islamique et plus globalement sectaire 6).

Loin de s'atténuer, les affrontements entre civilisations pour la conquête des territoires, des ressources et des populations, vont certainement s'aggraver malgré les efforts de ceux qui voudraient jouer les arbitres ou modérateurs. Ces affrontements vont inévitablement se traduire sur les plans idéologiques et religieux, autrement dit sur la capacité de la science à rester neutre. Les scientifiques seront de plus en plus sommés de justifier soit l'excellence du mode de vie du pays qui les abrite, soit la «vérité» des croyances religieuses dominantes. Tous ne résisteront pas aux pressions. On voit même aujourd'hui des faits plus graves. Un correspondant me signale que désormais, aux Etats-Unis, le MIT forme des diplômés recrutés par le mouvement Intelligent Design (ID) pour obtenir le titre qui leur permettra ensuite de défendre les thèses de l'ID avec des références universitaires susceptibles d'impressionner les non-croyants. Notons que l'Amérique et l'ID ne sont pas les seules à incriminer. Les innombrables entités vivant de la crédulité publique, y compris dans une Europe se voulant plus laïque que d'autres parties du monde, feront de même appel à des diplômés de l'Université, venus là tout exprès pour pouvoir ensuite manipuler l'argument d'autorité. Ainsi continueront à prospérer derrière force arguments prétendus scientifiques l'astrologie, la voyance, les médecines parallèles…

Face à ces tendances, que devraient faire les croyants comme Jean Staune. Ce serait précisément une question à lui poser. J'ai compris en le lisant qu'il continuerait à lutter pour la neutralité de la science. Il s'oppose ainsi fermement aux abus du Créationnisme et de l'Intelligent Design, financés par de nombreux crédits sur l'origine desquels on est en droit de s'interroger. Mais ira-t-il jusqu'à demander aux scientifiques croyants d'abandonner tout a priori religieux dans l'étude de questions sensibles comme celles de la vie et de la conscience ? 7).  Ira-t-il jusqu'à demander aux scientifiques croyants, qui ne s'en privent pas, de s'abstenir d'interprétations philosophiques et religieuses quand ils rapporteront les résultats de leurs travaux, concernant par exemple les questions délicates de la physique, de la cosmologie, de la biologie ou de la neurologie. Certainement pas, comme le montre son livre.

Mais dans ces conditions, que devraient faire les matérialistes ? Devraient-ils continuer à lutter pour une science neutre ? Devraient-ils au contraire multiplier à leur tour les interprétations athées de la science ? Je dirais pour ma part qu'ils doivent faire les deux. En premier lieu, ils ne doivent pas renoncer à la neutralité de la science. Pour nous Français, celle-ci a été et demeure une des grandes ambitions de la République. Les athées doivent donc continuer à respecter la déontologie de la recherche scientifique, même si celle-ci est de moins en moins reconnue autour d'eux. Ils doivent aussi s'élever contre l'utilisation par telle religion ou secte (comme par les Etats et les grandes entreprises) de résultats présentés comme scientifiques pour justifier des affirmations théologiques ou politiques. Quand ils le peuvent, ils doivent également lutter pied à pied contre la mainmise des forces religieuses et des entreprises - souvent associées - sur les moyens de la recherche. Ces forces disposent de sources de financement leur permettant, au nom de telles ou telles fondations pour la propagation de la foi, d'acheter les consciences des chercheurs. Le mouvement principalement américain de l'Intelligent Design offre un exemple caricatural de tels détournements. D'autres organisations plus discrètes font cela plus subtilement. La chose est inacceptable. Les matérialistes peuvent très bien admettre qu'un scientifique ait des convictions religieuses forte, si celles-ci n'influencent pas son activité professionnelle. Mais ces convictions doivent s'arrêter, comme on dit, à la porte du laboratoire. Est-ce possible ? Nous dirons en tous cas que c'est éminemment souhaitable.

Ceci étant, les matérialistes doivent aussi proposer leurs interprétations des résultats de la science, afin de combattre les interprétations mystico-religieuses qui vont se multiplier. Une science neutre n'intéresse que peu de gens, car la culture nécessaire pour en apprécier les mérites est encore peu répandue. Par ailleurs, pour les raisons géopolitiques déjà évoquées ici comme pour d'autres plus profondes (le besoin de croire) la mobilisation de la science par les religions et les civilisations théistes va se poursuivre. Dans la meilleure des hypothèses, cette mobilisation prendra la forme d'une «lecture religieuse» des connaissances scientifiques proprement dites. Tel résultat, que l'on ne discutera pas en tant que tel, sera présenté comme donnant des arguments en faveur d'une conception religieuse ou philosophique. Dans d'autres cas, on montera en épingle des résultats obtenus dans des conditions douteuses, même s'ils vont à l'encontre de la grande majorité des connaissances admises. On plaidera alors le droit à chacun de s'insurger contre la pensée unique. Ce droit existe, mais en science, on ne peut durablement avoir raison tout seul.

Cela dit, les matérialistes doivent-ils se mobiliser ? Ils se doivent d'être tolérants. Ils ne s'indigneront pas systématiquement d'interprétations orientées idéologiquement, si celles-ci ne nient pas ouvertement les conclusions des chercheurs. Chacun est libre de penser ce qu'il veut. Mais comme le prosélytisme des religions est grand, notamment vis-à-vis des enfants et de ceux n'ayant pas de connaissances scientifiques, ils ne devront pas renoncer à présenter leurs propres interprétations, sauf à voir l'athéisme et le matérialisme reculer partout. Ce faisant, ils ne prétendront pas nécessairement s'appuyer sur des démonstrations scientifiques indiscutables. Ils reconnaîtront, comme devraient le faire leurs adversaires s'ils étaient de bonne foi, que leurs conceptions du monde expriment des convictions métaphysiques débordant largement la base scientifique sur laquelle elles s'appuient (métaphysique : au-delà de la physique). Les interprétations des matérialistes viseront à expliciter un postulat métaphysique qui pour eux est essentiel, celui selon lequel il existe un monde qui se suffit à lui-même, un monde qui n'a pas besoin d'une divinité pour exister et être - éventuellement - intelligible grâce à la science.

Voilà un thème qui mérite indiscutablement une large mobilisation.

Notes
(1) Mon propre livre balaie plus large, puisqu'il aborde un grand nombre d'autres secteurs de recherche, concernant notamment les réseaux numériques et leurs contenus, la conscience artificielle, les super-organismes sociétaux. Ces questions sont importantes à connaître quand on cherche à expliquer la genèse et le rôle des croyances.
(2) Les guillemets s'imposent car, comme on sait, les faits et lois n'ont rien d'absolu. Ils dépendent des conditions de leur élaboration.
(3) Accusation quasi obligée. Elle figure dans tous les libelles anti-matérialistes.
(4) Un argument trop facile pour justifier que l'on prête attention à n'importe quel article en contradiction avec l'ensemble des connaissances du moment consiste à dire qu'à ses débuts, Einstein n'avait pas non plus attiré l'attention des physiciens – ce qui n'est d'ailleurs pas tout à fait exact.
(5)

Concernant la physique quantique, Jean Staune ne renouvelle pas le débat maintenant presque centenaire suscité par le principe d'indétermination (ou d'incertitude). Il ne cite pas les travaux à mon sens fondateurs de la physicienne Miora Mugur Schächter. Il ne pouvait pas ne pas la connaître. Voici trois ans que, pour ma part, j'avais présenté l'œuvre de cette scientifique dans la Revue Automates-Intelligents référencée en tête des gondoles de Google. MMS, qui d'ailleurs n'informe personne de ses convictions philosophiques ou religieuses, conteste le "réalisme" en sciences, y compris le concept proposé par Bernard d'Espagnat de "réel voilé". Ce même d'Espagnat en tire le concept encore plus contestable de "réalisme non physique" amplement commenté par Jean Staune. Je parlerais pour ma part, fidèle je l'espère à la pensée de MMS, d'une "physique non réaliste".
Concernant la cosmologie, Jean Staune s'appesantit sur le principe anthropique fort sans citer les débats actuels sur la pertinence du concept de paramètres fondamentaux servant à définir les prétendus réglages fins nécessaires à l'apparition de la vie. Par contre, il ne mentionne pas les travaux de Seth Lloyd sur la computation quantique et ceux, encore plus intéressants, de Robert Laughlin sur l'émergence. L'émergence est le type même de concept qui peut servir à la fois aux créationnistes et aux matérialistes. Dans la mesure où il jouera un rôle important dans la compréhension des phénomènes physiques encore non modélisables, les matérialistes se doivent de le connaître et y faire appel.
Concernant la vie, Jean Staune concentre son tir sur le darwinisme classique en semblant ignorer que la plupart des évolutionnistes darwiniens ont admis l'existence de différents mécanismes qui expliqueraient ce que l'on pourrait appeler des évolutions contraintes. Celles-ci ne remettent pas en cause le paradigme darwinien des mutations-sélections mais permet de préciser son application dans un certain nombre de cas où la vie échappe aux descriptions trop sommaires. Il aurait été par ailleurs souhaitable que Jean Staune fasse une place aux recherches de Kupiec et Sonigo qui, elles, étendent encore le champ du darwinisme. Il ne mentionne pas non plus la théorie de la vie qu'esquisse le Professeur Gilbert Chauvet, expert en physiologie intégrative, lui aussi abondamment cité par Automates-Intelligents et par bien d'autres sources, ceci depuis plusieurs années. Ces diverses recherches, répétons-le, ne remettent pas en cause le darwinisme et, bien évidemment, ne permettent pas d'apercevoir quelques finalités que ce soit dans l'évolution. Jean Staune pour sa part préfère présenter une Nouvelle Théorie de l'Evolution qui semble plus relever de l'imagination littéraire que de la science.
Concernant enfin la conscience et afin de prouver le dualisme, c'est-à-dire que la conscience constitue une propriété indépendante du cerveau, probablement en communication avec une conscience universelle, il pense pouvoir contredire les observations matérialistes des plus grands neuroscientifiques pour qui les états de conscience sont déterminés par la compétition au sein du cortex associatif de « modules cognitifs » provenant de sources endogènes et exogènes. Il s'appuie pour défendre le dualisme sur des expériences acrobatiques de Benjamin Libet réalisées sur un patient au crâne ouvert, ou bien il ressort de l'oubli les thèses quantico-spiritualistes de John Eccles qui me semblent être tombées dans l'oubli.
De plus, au contraire de ce que j'ai fait dans mon livre, il ne fait aucune allusion aux travaux des roboticiens évolutionnaires sur la conscience artificielle (cognitive systems), dont aujourd'hui les neurologues, tels Gerald Edelman, attendent beaucoup pour mieux comprendre les observations fournies par l'imagerie cérébrale et la clinique.
(6) Si nul ne demande à la science d'être matérialiste, c'est parce que le matérialisme, contrairement à ce que prétendent ses adversaires, a renoncé depuis longtemps à s'organiser en force de pression politique, sociale ou économique.
(7) J'ai retenu que pour le Vatican, ces questions ne doivent pas être posées par les scientifiques chrétiens, car la foi apporte des réponses suffisantes à de tels mystères.

Pour en savoir plus
Le site de Jean Staune : http://www.staune.fr/
Le site du livre : http://www.lesensdelexistence.fr/
Article de l'Association pour l'information scientifique concernant l'"Université interdisciplinaire de Paris" animée par Jean Staune :
http://www.pseudo-sciences.org/spip.php?article421
Article de l'Association pour les études matérialistes, sur le même sujet http://www.assomat.info/Guillaume-Lecointre-encore-une

Repost 0
JP Baquiast et Christophe Jacquemin - dans philoscience
commenter cet article
6 juin 2007 3 06 /06 /juin /2007 08:49


Sur le libre arbitre du Moi conscient
par Jean-Paul Baquiast 30/05/07

Cet article est le développement du passage consacré à ce sujet dans notre recension du dernier livre de Gerald Edelman, Second Nature (dans ce même blog) 

Gerald Edelman, comme la plupart des neuroscientifiques matérialistes, distingue deux grands types de conscience, la conscience primaire et la conscience supérieure. Discutons ici de l'une et de l'autre.

La conscience primaire

La conscience primaire serait présente chez tous les animaux, au moins au sein des espèces disposant d'un système nerveux central capable d'intégrer un nombre suffisant de signaux internes ou externes provenant des capteurs sensoriels et traitées par les modules correspondant du cerveau. Le produit de cette intégration, émergeant au niveau du cerveau associatif (noyau dynamique), commande en retour un certain nombre de systèmes neuro-moteurs effecteurs lesquels déterminent à tout instant le comportement global de l'animal. Ainsi celui-ci peut-il bénéficier d'un maximum d'informations pertinentes sur le monde et sur lui-même, lui évitant de répondre au coup par coup à des messages résultant de son interaction avec son environnement, messages pouvant être contradictoires ou insuffisamment informés. Il s'agit, dit-on, d'un avantage sélectif important au regard de ce que peuvent être les réactions d'organismes ne disposant pas de cette fonction. Mais cet avantage n'est que la contrepartie de la complexité atteinte par les animaux dotés d'un système nerveux central. L'expérience montre que les animaux plus simples, n'en disposant pas, peuvent aussi bien sinon mieux s'adapter aux contraintes de l'évolution.

La conscience primaire, dans les définitions courantes qui en sont données, dispose d'un champ très large, mais elle n'a pas beaucoup de permanence. Elle ne permet donc pas d'évoquer des états passés et exclut donc les références historiques s'organisant autour d'un Moi global. Dans la mesure où l'animal conserve une trace des expériences de sa vie passées, c'est seulement par l'intermédiaire des données acquises sur le mode stimulus-réponse et mémorisées au sein des systèmes sensori-moteurs spécialisés. A fortiori, la conscience primaire ne permettrait pas d'évoquer le futur, afin d'y simuler des stratégies. Là encore, les éventuelles stratégies relatives au futur (par exemple s'engager dans la recherche de nourriture) seraient liées à chacun des grandes fonctions sensorielles et motrices intervenant de façon indépendante les unes des autres. On traduit tout ceci en disant que la conscience primaire ne permet pas de générer la conscience d'être conscient, c'est-à-dire la conscience du Moi global.

oursPour illustrer cela, on peut imaginer ce que serait notre attitude, confronté à un prédateur, si nous ne disposions que de la conscience primaire. Nous n'aurions pas anticipé la présence du prédateur, en l'absence de signaux directs en émanant et perçus par nos sens. En revanche, au reçu de ces signaux, nous aurions une réaction globalement coordonnée, en évitant par exemple de nous enfuir précipitamment, dans une direction sans issue et sans faire appel à nos moyens défensifs. Autrement dit, le sous-système commandant la fuite (programmé depuis longtemps, ceci souvent au niveau de l'espèce), serait confronté à celui commandant le recours aux moyens défensifs, lui-même également inscrit quelque part dans le cerveau, sous commande génétique. Cette confrontation, qui se ferait sur le mode du darwinisme neural, permettrait l'émergence d'un comportement pondéré en fonction de l'importance prise sur le moment par les différentes informations en entrée. La réaction finale serait alors optimisée, c'est-à-dire la meilleure en fonction des circonstances.

Si cependant nous ne disposions pas de conscience supérieure, les comportements optimisés qui nous permettraient de réagir au mieux se succéderaient sans que nulle part dans notre cerveau ne se forme une image reflet du Moi ainsi agissant. Selon l'expression classique, nous nous comporterions en zombie, c'est-à-dire aussi intelligemment que possible mais sans nous en rendre compte. Edelman, comme la plupart des neuroscientifiques, considère, comme indiqué ci-dessus, que tous les animaux dotés de conscience primaire se comportent ainsi, sur le mode du zombie. L'homme fait de même, dans toutes les situations lui imposant de réagir «instinctivement» ou «sans réfléchir», selon les expressions consacrées.

Plusieurs questions se posent alors.

1. Où se trouve le siège de cette fonction précieuse pour la survie qu'est la conscience primaire ? On répond généralement, en suivant Edelman et son hypothèse du darwinisme neural, qu'il s'agit d'une propriété émergente résultant à tous moments de la compétition-coopération entre différents modules du cerveau s'interconnectant par voie réentrante. Cette émergence se finalise sans doute au sein du cortex associatif mais elle résulte de la mobilisation de sous-systèmes provenant du corps tout entier (embodied) lui-même immergé dans son éconiche (embedded). Il est difficile aujourd'hui d'en dire beaucoup plus. Tout ce que peut faire le neurologue, c'est constater les déficits que produisent telles ou telles atteintes au système nerveux. Mais cela ne veut pas dire que les zones atteintes sont à elles seules le siège de la conscience primaire globale.

2. La conscience primaire, ainsi définie, est-elle déterminée ? La réponse est affirmative. Elle résulte, comme d'ailleurs tous les états globaux de l'organisme, d'un jeu complexe de déterminismes. Ceux-ci, comme tout ce qui est émerge, ne sont pas nécessairement analysables et programmables à l'avance. Mais le résultat final, quand il apparaît, ne peut en principe être considéré comme relevant de l'aléatoire pur (ou du chaotique ?). Ce qu'il est, tel qu'il se manifeste, n'aurait pas pu, dans les mêmes conditions, être différent.

3. La conscience primaire est-elle causale ? Autrement dit, les états successifs qu'elle adopte en interagissant avec le monde produisent-ils des effets, mécaniques ou autres, susceptibles de modifier ce monde? La réponse est là aussi affirmative. Pour reprendre l'exemple précédent, sans conscience primaire, nous aurions sans doute été la proie du prédateur en face duquel nous nous étions trouvés. Ainsi nous aurions été dévorés et aurions cessé, par conséquent, de transformer le monde par notre activité.

4. La conscience primaire peut-elle émerger chez des robots évolutionnaires rassemblant un nombre suffisant de systèmes sensoriels et moteurs convenablement interconnectés ? Beaucoup de biologistes refusent cette perspective. Mais Edelman, comme tous les roboticiens, l'admet. Une des difficultés à résoudre pour l'avenir concernera les moyens de mettre en évidence de telles consciences primaires robotiques. Elles ne prendront pas nécessairement des formes analogues à celles présentes dans les organismes biologiques.

5. La conscience primaire peut-elle coexister, y compris chez des animaux, avec des formes plus ou moins affirmées de conscience supérieure ? Pour examiner cette question, nous devons aborder le concept de conscience supérieure.

La conscience supérieure

Toutes les philosophies, même lorsqu'elles ne font pas appel à une conception dualiste de la conscience (selon laquelle celle-ci relèverait de l'ordre du divin et non de l'ordre de la matière) postulent l'existence d'une faculté propre à l'homme, appelée conscience. Dans ce cas, le mot renvoie à ce que nous appelons la conscience supérieure, caractérisée par la conscience de soi. Le Moi conscient, dans la plupart de ces philosophies, n'est pas un simple épiphénomène. Il est considéré comme susceptible de provoquer des actions matérielles et, qui plus est, de pouvoir le faire librement. C'est ce que l'on désigne par le concept de libre-arbitre.

Nous avons présenté dans plusieurs articles et livres (notamment "Pour un principe matérialiste fort", Jean-Paul Bayol 2007) la façon moderne dont certains chercheurs en neurosciences abordent cette question controversée du libre arbitre et de la conscience de soi. Il n'est pas possible d'y revenir ici. Il est par contre intéressant de voir comment Edelman continue à se poser le problème, dans la suite de ses travaux précédents sur le darwinisme neural. Nous nous demanderons ensuite si le point de vue d'Edelman ne doit pas être complété.

Edelman, on le sait, a consacré beaucoup d'études à la conscience supérieure, aux mécanismes permettant sa production et aux pathologies du cerveau entraînant ses disfonctionnements. Il estime que son apparition est liée à l'acquisition du langage symbolique. Il n'en fait pas cependant le monopole de l'espèce humaine, estimant que des flashes de conscience de soi peuvent apparaître chez les animaux supérieurs. Il n'exclue pas non plus que, dans quelques décennies, elle apparaisse chez les robots.

Ceci admis, il s'interroge, en bon évolutionniste, sur le rôle de la conscience supérieure. En premier lieu, il rejoint beaucoup de neuroscientifiques pour affirmer qu'elle ne peut pas être libre. Autrement dit, ses états successifs sont déterminés, comme ceux de la conscience primaire. On ne voit pas comment il pourrait en être autrement, sauf à imaginer que le cerveau comporte une machine à produire des réponses au hasard, comme certains ordinateurs programmés pour ce faire. Il refuse donc le concept de libre-arbitre, à l'occasion duquel les spiritualistes réintroduisent le dualisme c'est-à-dire l'appel, par un supposé esprit non matériel, à l'intervention du divin dans le monde matériel.

En admettant que la conscience supérieure ne soit pas libre, est-elle causale ? Autrement dit, ses états précèdent-ils, en les provoquant, les états correspondants de la conscience primaire et du corps lui-même ? Edelman refuse cette hypothèse, comme beaucoup de neuroscientifiques. Il apparaît de plus en plus clairement que les « décisions » que prend le corps, lui-même coordonné par la conscience primaire, précèdent de quelques centaines de seconde celles que croit prendre le sujet conscient. Si « je décide » de fuir un prédateur, c'est parce que mon corps tout entier a enclenché de lui-même les gestes correspondants, sans attendre d'éventuelles délibérations de mon moi conscient. Cependant, Edelman ne veut pas faire de la conscience supérieure un simple épiphénomène dont la survivance au sein de l'évolution ne s'expliquerait pas. Lorsque l'homme conscient fuit un prédateur, il ne le fait pas nécessairement aussi rustiquement que le fait un animal. Il accompagne sa fuite de nombreux comportements qui donnent à celle-ci des prolongements intéressants, ayant finalement une action causale sur le monde. On pourrait donc dire dans cette optique que la décision prise dans le cadre de la conscience supérieur est causale, mais de façon indirecte. Comment alors se manifeste cet effet causal indirect?

Dans un développement trop court et un peu confus de son dernier livre Second Nature, Edelman fait de la conscience supérieure un indicateur donnant à l'organisme la capacité de mieux percevoir sa situation et ses états globaux. Les états de conscience supérieure permettraient à un hypothétique "nous" (désigné par « us » en anglais) de rendre compte de certains de nos états et de les signaler par le langage. Mais dans ce cas quel est ce "nous"? Nous pensons qu'ici, Edelman s'enferme dans une impasse. Il ne peut se débarrasser d'une image du Moi prenant la forme d'une espèce de chef d'orchestre installé au sommet du cerveau. Plus généralement, bien que faisant allusion au langage dans la construction de la conscience, il n'insiste pas assez sur l'élaboration du Moi résultant de l'interaction de l'individu avec les autres individus grâce au langage et à l'action partagée mettant en œuvre les artefacts développés et utilisés collectivement à l'intérieur des sociétés. On a pu dire qu'il se représente la conscience en s'inspirant un peu trop de l'image du penseur de Rodin, un individu enfermé sur lui-même et cherchant – en vain - à se comprendre par ses seuls efforts.

Une causalité s'exprimant par l'intermédiaire du groupe

Nous pensons pour notre part que les états du Moi résultant du fonctionnement de la conscience supérieure individuelle sont causaux. Autrement dit, le monde extérieur est plus ou moins modifié par leurs formulations successives. Mais, comme indiqué ci-dessus, cette causalité ne s'exprime qu'au second degré ou indirectement. En simplifiant, nous pourrions dire que le langage et la conscience supérieure se sont développés simultanément et interactivement, en produisant un résultat éminemment favorable à la survie individuelle et collective, celui de mobiliser l'ensemble du groupe au profit d'une action ayant des résultats favorables.

Ceci paraît d'ailleurs esquissé chez les animaux. La plupart de ceux dotés de conscience primaire signalent par des cris et gestes, à l'intention des membres de leur groupe, leurs comportements vitaux. Est-ce simplement pour « faire du bruit » ou plutôt pour obtenir un résultat autrement plus important, la mise en garde et la coopération des autres ? Dans ce cas, l'individu signaleur se signale en tant que Sujet à l'attention et l'intention des autres. En retour, le regard des autres le signale à lui-même en tant que Sujet. Un proto-moi en émerge sans doute, le temps durant lequel ces communications s'établissent.

De la même façon, on pourrait expliquer d'une façon très simple pourquoi les individus humains ont hérité de l'évolution la capacité d'exprimer les états dominants de leur conscience primaire à travers le langage et en les attribuant à un Moi supposé causal, c'est-à-dire supposé doté de libre-arbitre. C'est parce que le Moi inconscient, le seul qui soit causal, peut ainsi faire part de ses états internes aux autres membres du groupe afin d'y recruter des alliés. Il utilise pour cela le véhicule des échanges symboliques, gestes et langages. Ceux-ci sont destinés au groupe et provoquent des réactions collectives venant à l'aide de celui qui « s'exprime » explicitement. Ce mécanisme simple a été considérablement renforcé, au cours de l'évolution humaine, par la mise en mémoire collective et la transmission grâce à l'éducation des principaux contenus de connaissances définissant le Moi et ses acquis expérimentaux ou théoriques.

Prenons un exemple. Circulant en forêt, je perçois inconsciemment la présence d'un prédateur et, toujours inconsciemment, je m'en écarte. Mon Moi inconscient a dans ce cas pris seul la bonne décision. Cependant, si quelques instants plus tard, ma conscience supérieure est avertie (par réentrance) de ce qu'a décidé ma conscience primaire et en prévient le groupe par un discours adéquat («j'ai décidé" de m'éloigner de ce fourré où "je pense" que se trouve un prédateur), les autres individus du groupe peuvent comprendre immédiatement le signal de danger et y réagir adéquatement. Réagir signifie en ce cas que la conscience primaire de chacun d'eux perçoit inconsciemment le sens du message et prend immédiatement les mesures adéquates. Mais réagir signifie aussi que le Moi collectif ainsi formé par le langage partagé des consciences supérieures renforce dans chacun des organismes individuels les actions destinées à protéger non seulement les individus considérés isolément, mais l'ensemble du groupe se comportant alors en super-organisme doté d'une conscience primaire (voire d'une conscience supérieure).

Pour être exhaustif, on ajoutera que l'existence d'une conscience supérieure individuelle s'exprimant par le verbe n'est pas inutile à la survie de l'individu fut-il momentanément isolé. Même si je suis seul face au danger, le fait que je me dise (par la voix intérieure de la conscience supérieure) "il y a là un danger" peut aider le Moi inconscient à mieux mobiliser ses ressources, notamment en déclenchant l'action de ce qu'Edelman appelle les centres de valeur du cerveau - sécrétion d'adrénaline par exemple. Dans ce cas, pour symboliser la conscience supérieure en tant que propriété collective d'un groupe, implémentée au niveau de chacun des individus de ce groupe, plutôt que faire appel à l'image du penseur de Rodin, il faudrait utiliser l'image plus banale d'un téléphone.

On peut alors considérer que le Moi conscient individuel serait la façon dont une représentation d'un Moi générique construite au sein des collectivités dotées de langage s'incarnerait et se spécifierait au sein de l'individu particulier, grâce aux échanges sociaux et notamment grâce à l'éducation – le tout évidemment à l'occasion de compétitions darwiniennes permanentes, tant dans le cerveau individuel que dans ce que l'on pourrait appeler le cerveau collectif. A ce moment, le Moi individuel s'exprimant au sein de la société et représentant une variante d'un Moi collectif plus général, pourrait sinon redevenir à lui seul causal, du moins contribuer à l'émergence d'une action causale. Ses évolutions commanderaient les organes effecteurs de la société ou plus précisément celles des individus qui manipulent les organes effecteurs, complétés des machines et réseaux permettant de piloter leur fonctionnement.

On ajoutera que, comme l'ont bien montré les freudiens, les contenus de langage ne servent pas seulement à élaborer le Moi de la conscience supérieure. Ils agissent aussi au niveau de la conscience primaire ou du Moi inconscient, en contribuant à constituer des ensembles de significations – échappant malheureusement au contrôle collectif – autour duquel peuvent s'articuler des comportements inconscients.

Les mèmes

Nous pouvons compléter cette analyse du rôle du langage dans la constitution d'une conscience supérieure ayant un effet causal en évoquant la question des mèmes. On désigne le plus souvent par ce terme des informations prenant la forme de mots ou images, organisés en phrases et discours. Les méméticiens considèrent qu'il s'agit de réplicants particuliers vivant dans le monde des réseaux de communication et des cerveaux humains connectés à ces réseaux. Mais les mèmes ne sont pas seulement des systèmes d'informations ou programmes d'instructions externes. Ils se traduisent nécessairement, dès qu'ils ont pénétré dans un cerveau doté de capacités langagières, par de nouveaux modules neuraux entrant en compétition avec les millions d'autres modules constituant le cerveau global. On retrouve là l'approche dite de la neuro-mémétique défendue notamment par le britannique Robert Aunger.

En ce cas, rien n'interdit de dire que le Moi puisse lui-même être le produit d'un conflit arbitré en permanence, selon la force des informations en entrée dans les réseaux formels constituant les noyaux neuronaux, entre mèmes de provenance extérieure et modules hérités ou acquis lors d'expériences comportementales antérieures. Ajoutons que cette hypothèse permet de mieux comprendre la question à laquelle se heurte souvent les méméticiens «non neuronaux» : pourquoi certains mèmes réussissent-ils à s'implanter chez certains individus et sont ils radicalement rejetés par d'autres ? Pour y répondre, on parlera par image d'une question de résistance de terrain. Nous avons évoqué à ce sujet un phénomène très voisin, celui de la façon dont le système immunitaire repousse certains antigènes et succombe au contraire devant d'autres.

 

 

Petit cas d'école pour résumer ce qui précède*

Processus d'élaboration d'une décision dite volontaire et «libre» chez un humain P doté à la fois de conscience primaire et de conscience supérieure.

Phase 1. P déambule dans la forêt et se trouve subitement confronté à un ours en liberté.

Phase 2. Au niveau de son cerveau associatif se produit immédiatement et sans que P en soit conscient, une compétition darwinienne entre plusieurs modules déjà «enregistrés». Ceux-ci commandent des comportements éventuellement opposés et qui ne sont pas nécessairement les plus adéquats : tourner le dos et fuir, prendre une branche et menacer l'ours, etc. Des « antasmes» inconscient, tel que la peur de l'ours, associés au souvenir d'un père tyrannique, peuvent également entrer en scène. Le conflit entre tous ces modules se produit au niveau de la conscience primaire de P (l'espace de travail global ou noyau dynamique inconscient du cerveau de P). Si P était un animal, l'un de ces modules l'emporterait et P prendrait (inconsciemment) une décision, bonne ou mauvaise. Par exemple, il prendrait la fuite.

Phase 3. Mais P a été élevé dans une société composée d'autres humains reliés par le langage. Cette société a verbalisé et mémorisé certaines connaissances sur le monde. Celles-ci, qui sont très diverses, ont été acquises par le groupe à l'occasion de nombreux comportements expérimentaux (sur le mode essai et erreur) sélectionnés au fil des temps pour leur pertinence au service de la survie du groupe. Ces connaissances composent la mémoire collective du groupe. Les méméticiens pourront dire qu'il s'agit de mèmes, circulant entre les cerveaux, grâce aux récits, livres et autres supports d'information. Comme P a été bien éduqué, certaines de ces connaissances ont été introduites dans son cerveau, où elles ont été mémorisées sous forme de nouveaux modules neuronaux. Ces modules, adoptant une forme de type verbal, sont compatibles et peuvent être traités en temps quasi réel par le noyau dynamique, où ils s'expriment par un langage directement explicite.

Il en résulte que le stimulus initial, découlant de la perception par P de la présence de l'ours, appelle (en même temps que les contenus inconscients précédemment évoqués) certaines connaissances acquises par éducation et mobilisée du fait de leur adéquation avec la situation de crise dans laquelle se trouve P. Ainsi le cerveau de celui-ci, en même temps qu'il recevra des ordres contradictoires venant de ses registres inconscients, en recevra d'autres l'amenant à moduler sa réponse finale «émergente». Ainsi, se présenteront dans son espace de travail global des instructions du type : «Tu es une grande personne et non un enfant, tu réfléchis donc avant d'agir » ou « Si tu rencontres un ours, ne lui tourne jamais le dos mais évite cependant de le regarder dans les yeux».

Phase 4. Toutes ces instructions, les uns inconscientes, les autres conscientes, viennent en quelques centaines de seconde en compétition darwinienne dans l'espace de travail global du cerveau de P. Une décision finale résulte de ce conflit, dans des conditions, rappelons-le, que les neurologues ne s'expliquent pas encore bien mais qui pourront peut-être dans l'avenir être étudiées en travaillant avec des robots autonomes. La décision finale est prise d'abord inconsciemment. C'est elle qui est déterminante pour l'avenir de P. Mais P, grâce au travail des aires supérieures de son cortex associatif, la verbalise et de ce fait la rationalise explicitement, quelques centaines de seconde après, sous la forme de «J'ai décidé ceci». Aura-t-elle été prise librement, manifestant une prétendue «autonomie de la volonté» de P ? Evidemment non. Elle aura été déterminée, de la même façon que lorsque la foudre tombe en un endroit, elle est déterminée par des séries causales antérieures. Autrement dit, la prétendue conscience volontaire de P, dotée d'un prétendu «libre-arbitre», n'a rien décidé consciemment. C'est P tout entier étendu à son environnement, soit l'ensemble corps et cerveau de P insérés dans l'éconiche constituée par la forêt (et l'ours), qui a pris la décision, et ce d'une façon déterministe.

Pour conclure

De ce fait, le résultat de la compétition darwinienne entre connaissances inconscientes et connaissances conscientes ne peut évidemment être décrit et moins encore prédit, ni par P ni par un observateur externe. La décision finale en résultant sera bonne ou mauvaise. Tout au plus pourra-t-on dire qu'elle aura été mieux informée ou délibérée que ne l'aurait été une décision prise par un animal ne pouvant se référer, comme P l'avait fait, à un vaste registre de connaissances collectives.

Mais pourquoi P s'imaginera-t-il avoir pris une décision volontaire ? Parce que cette conviction, fausse objectivement, viendra renforcer dans ses registres décisionnels l'appel à la réflexion, c'est-à-dire à la mobilisation de sources de savoirs collectifs qu'autrement et dans l'urgence il ne prendrait pas le temps de consulter. Ainsi la survie de P et du groupe humain dont il fait partie s'en trouveront mieux assurées.

Les méméticiens diront que le mème «Tu es un sujet volontaire et libre» survit dans les sociétés occidentales (en antagonisme d'ailleurs avec le même opposé «Prie et attends, car tu es dans la main de Dieu») du fait de sa valeur éminemment roborative. Comme nous sommes encore là pour en parler, c'est manifestement le premier mème qui a pris le dessus sur le second – au moins jusqu'à présent.

* ndlr : Ce cas pourrait paraître un peu bêtasson à première vue, , mais si on y réfléchit de plus près, on s'aperçoit qu'il ne l'est absolument pas...

 

 

Repost 0
29 mai 2007 2 29 /05 /mai /2007 09:49
Second Nature
Brain science and Human Knowledge

par Gerald M. Edelman

Yale University press, 2006, 157 pages

Présentation et commentaires par Jean-Paul Baquiast


 

Gerald M. Edelman, M.D., Ph.D., né en 1929, est directeur du Neurosciences Institute et président de la Neurosciences Research Foundation. Il a reçu le prix Nobel en médecine en 1972 pour ses recherches sur le système immunitaire.

Il est l'auteur de nombreux ouvrages de référence concernant les sciences du cerveau. Nous avons rendu compte de plusieurs d'entre eux, notamment:
- Plus vaste que le ciel http://www.automatesintelligents.com/biblionet/2004/aout/edelman.html
- Comment la matière devient conscience http://www.automatesintelligents.com/biblionet/2000/oct/G_edelman.html



Gerald Edelman est sans doute un des spécialistes du cerveau qui a le mieux réussi à préciser le concept omniprésent et pourtant bien mal compris encore de conscience. Nous avons dans cette revue présenté longuement ses principaux ouvrages, en les inscrivant dans une réflexion générale sur la conscience laquelle s’impose en priorité à la science matérialiste 1). Renoncer en effet à comprendre la conscience conduit inexorablement au dualisme selon lequel l’esprit et la matière sont deux dimensions différentes de l’univers. Mais essayer de comprendre la conscience en termes monistes, c’est-à-dire en faisant de cette faculté une propriété émergente de la matière, peut donner lieu à de nombreuses impasses. Faut-il ne chercher la conscience que chez l’homme et exclure qu’elle puisse exister également chez les animaux ? Comment la conscience est-elle apparue au cours de l’évolution et à quoi a-t-elle pu servir ? Le cerveau est-il le seul siège de la conscience et si oui, où se trouve ce siège ? Peut-on simuler la conscience chez des artefacts, autrement dit des robots ?

Il apparaît immédiatement que de telles questions resteront sans réponses utiles si l’on ne dispose pas d’une théorie (ou d’une hypothèse globale) permettant de comprendre comment le fonctionnement quotidien des neurones cérébraux intégrés à un corps (embodied) doté notamment d’organes sensoriels et effecteurs, corps lui-même situé (embedded) dans un milieu bien défini (ce que Gerald Edelman appelle une éconiche), peut aboutir à l’élaboration de connaissances sur le monde. La critique de ces connaissances permet à son tour de préciser ce que peut signifier le concept de vérité. On en arrive ainsi à l’épistémologie, définie comme critique raisonnée des connaissances et des méthodes permettant de les acquérir..

Le darwinisme neural

Gerald Edelman a depuis bientôt 20 ans, dans le prolongement de ses recherches sur le système immunitaire, qui lui avaient valu le Prix Nobel de médecine, proposé une approche permettant d’expliciter ces divers sujets. C’est ce qu’il a nommé le Darwinisme neural (neural Darwinism) dès 1987. Celui-ci, dans la ligne du darwinisme génétique, lui a permis de montrer comment, au sein des 100 milliards de neurones du cerveau humain, des neurones ou groupes de neurones entrent en compétition pour traiter les informations reçues dès le stade embryonnaire par le corps situé. Cette compétition a favorisé (ou a résulté de) la mise en place de réseaux de neurones associatifs, au sein du cortex ou d’aires particulières du cerveau, permettant ce que Edelman a nommé la réentrance. En simplifiant, on dira que les fibres réentrantes informent telle partie du cerveau du fait que dans telle autre, des neurones réagissent de façon synchrone à des stimulus externes ou internes. Ainsi se créent des unités de travail analogues à ce que l’informatique nomme des réseaux de neurones formels Elles permettent de construire des structures neuronales en fonction de la force, de la répétition et de la nature des informations reçues par le cerveau et le corps situé dans son éconiche. Le cerveau adulte disposerait de centaines de millions sinon davantage de telles structures. La compétition entre neurones produit des résultats spécifiques à chaque individu, tout en s’inscrivant cependant dans les grandes fonctions cérébrales acquises depuis longtemps par les animaux dotés d’un système nerveux central.

Le darwinisme neural vient donc contredire directement les trois principales attitudes qui avaient cours jusque là à propos de la conscience : 1 qu’il s’agit d’une fonction du cerveau, certes (ce qui exclut l’hypothèse dualiste) mais d’une fonction trop complexe pour être étudiée – 2 que la conscience résulte de traitements algorithmiques analogues à ceux auxquels procède un ordinateur et 3. que la conscience a résulté d’une évolution darwinienne au sein des contenus mentaux, indépendamment des supports neuronaux. Cette dernière hypothèse, dite aussi du darwinisme culturel, a été récemment reprise par la mémétique, expliquant que c’est la compétition entre mèmes, passant d’un cerveau à l’autre, qui a fait apparaître, notamment, la conscience de soi (que Suzan Blackmore a nommé un memeplexe ou complexe de mèmes). Nous reviendrons sur ce dernier point plus bas.

Les structures neuronales résultant du développement au sein du cerveau de millions de systèmes de neurones en compétition darwinienne sur le mode mutation/sélection et résultant de l’interaction du sujet avec son milieu, construisent ainsi, pour ce sujet, ce qu’il faut bien appeler des systèmes de connaissances. Ceci se produit largement en amont de l’apparition des fonctions conscientes, puisque de tels systèmes existent chez tous les animaux dotés d’un système nerveux central. Ces connaissances, qui sont pour le sujet la seule « vérité » dont il peut disposer relativement à ce qu’est le monde extérieur, lui permettent de répondre avec un avantage sélectif aux contraintes du milieu et à la concurrence qui s’exerce sur lui. Celle-ci provient des membres de son espèce, étant entendu que chaque espèce est elle-même en concurrence avec d’autres. Chez les animaux non dotés de conscience, ces connaissances ou informations sur le monde se matérialisent au travers des modules spécialisés du cerveau acquis par l’évolution. Mais elles s’expriment aussi par l’intermédiaire de l’architecture même du cerveau cognitif, transmis par héritage génétique. Au fil des millions d’années de l’évolution, les cerveaux ont été façonnés par les exigences de la survie. Ils commandent ainsi des comportements basiques, affinés par les démarches d’apprentissage des individus.

La compétition entre les connaissances

Chez l’homme, à ces mécanismes propres à tous les animaux s’ajoutent les connaissances sur le monde faisant l’objet des contenus conscients. Nous reviendrons sur le concept de conscience ci-dessous, pour distinguer notamment la conscience primaire, existant sans doute chez tous les animaux supérieurs (esquissée aussi chez des robots évolutionnaire) et la conscience supérieure ou conscience d’être conscient. Mais pour le moment, tenons-en aux connaissances constituant des contenus de conscience. Ces connaissances ont une dimension collective importante, s’exprimant notamment au sein des langages. Mais elles sont modulées au sein de chaque individu par le fonctionnement du cerveau conscient dont on a vu qu’il n’était jamais strictement identique d’un individu à l’autre. La grande diversité et variété des connaissances les mettent nécessairement, elles-aussi, en compétition darwinienne. Cette compétition aboutit à sélectionner celles qui sont les plus efficaces pour représenter le monde et qui sont donc les mieux capables de survivre et de se transmettre – conjointement avec les individus qui les hébergent.

Dans les sociétés modernes, la réflexion sur la validité des connaissances et plus généralement sur les processus permettant de les élaborer a donné naissance à une forme de pensée critique nommée l’épistémologie. Gerald Edelman veut désormais fonder une nouvelle sorte d’épistémologie, s’appuyant sur les sciences du cerveau. Il l’appelle « brain-based epistemology », épistémologie basée sur les sciences du cerveau, que nous traduiront approximativement par neuro-épistémologie ou épistémologie neurale. Pour lui, l’épistémologie classique, définie comme une étude critique des savoirs humains, a pris différentes formes dont la plupart selon lui se heurtent à des impasses, analogues aux impasses que rencontre des définitions non évolutionnaires (ou non physiques) de la conscience.

Nos lecteurs connaissent bien les débats relatifs aux fondements de la connaissance et subséquemment, au concept de vérité censé les exprimer. Doit-on considérer qu’il existe une vérité relative au monde en soi que les connaissances conscientes ont pour rôle de préciser progressivement, de préférence au travers d’un formalisme expérimental et mieux encore logico-mathématique strict et universel ? Y a-t-il au contraire autant de vérités qu’il existe de connaissances utiles aux individus qui s’y réfèrent et de parties du monde auxquelles ces individus sont spécifiquement confrontés. Dans ce cas, les « vérités » peuvent être approximatives, faire appel aux analogies et à l’intuition. On dira alors que seule doit compter l’aide qu’elles apportent aux individus dans leur lutte pour la survie. Qu’importe que le chat soit noir ou gris s’il attrape les souris.

Pour Edelman, la neuro-épistémologie doit viser plus loin que la simple réflexion sur l’émergence des savoirs. Elle doit viser à rapprocher les savoirs relatifs aux sciences dures et ceux relatifs aux sciences humaines, à la création artistique et autres activités ou intervient la sensibilité et la créativité informelle. En effet, comme on le verra, il n’y a pas pour lui de différences de nature entre ces différentes formes de création et de connaissance. Elles relèvent d’un processus commun qui, là encore, trouve ses sources dans le darwinisme neural. Il faut donc supprimer les fossés qui se sont établies entre elles, notamment dans le monde académique. Sans être à proprement parler wilsoninien, c’est-à-dire partisan de la sociobiologie, Gerald Edelman milite en faveur de la « consilience », terme utilisé par E.O.Wilson pour exprimer la convergence des savoirs. Ceci posé, il faut bien admettre que les différentes connaissances émergent et se maintiennent, au cas par cas, selon leurs capacités à s’imposer, c’est-à-dire finalement selon leurs capacités à favoriser l’adaptation des individus et des groupes qui les produisent et les utilisent.

La querelle de la vérité

On ne peut pas parler d’épistémologie sans parler de vérité. On sait qu’aujourd’hui la question de la vérité devient un véritable enjeu de société, enjeu de nature politique, avec la multiplication, hors de toute démarche scientifique, des églises, sectes et mouvements politiques qui prétendent détenir des Vérités absolues et les imposer à tous. Cet absolutisme n’est évidemment pas nouveau. Il avait marqué l’histoire de la pensée dès ses origines. Mais on pouvait croire, avec les progrès en Occident de ce que l’on avait appelé les Lumières ou le rationalisme, qu’il perdait du terrain. L’expérience montre qu’il n’en est rien. Comme au Moyen-âge chrétien, chacun est désormais sommé par les nouvelles intolérances de s’incliner devant des vérités auto-proclamées, sauf à mettre sa liberté, voire sa vie, en danger. Le débat est particulièrement actuel aux Etats-Unis, où les fondamentalistes chrétiens éliminent petit à petit les tenants de la rationalité scientifique. Ils rejoignent d’ailleurs en intolérance les fondamentalistes islamiques, eux-mêmes de plus en plus nombreux y compris dans le monde occidental.

On peut penser que c’est pour contribuer à la réflexion sur la vérité et à la critique des contenus de connaissances, en réponse aux procès faits à la science par les tenants de l'Intelligent Design, que Gérald Edelman a décidé de rédiger Second Nature, c'est-à-dire le livre que nous examinons ici. Sur la forme, disons seulement que cet ouvrage, non encore traduit en français, nous a paru difficile à lire, parfois trop elliptique, souvent mal rédigé. Mais peu importe. Ce qui compte est le fond. Gerald Edelman a manifestement jugé que sa théorie du darwinisme neuronal lui permettait d’apporter des éclairages importants au débat épistémologique sur la formation des connaissances et sur leur validité. Il s’inscrit donc de nouveau en défenseur du matérialisme scientifique, non sans courage quand on connaît l’influence croissante, en Amérique, de ce que Richard Dawkins les « talibans chrétiens ». Mais dans ce domaine comme dans celui de la conscience, il a voulu rester fidèle à sa méthode, c’est-à-dire éviter les voies sans issues consistant à s’interroger sur les fondements logiques (et a fortiori sur les fondements philosophiques) pouvant justifier de parler de vérités en termes absolus – ce qui renverrait à un improbable réalisme scientifique selon lequel il existerait un monde en soi que l’observateur pourrait espérer décrire par des pratiques expérimentales rigoureuses.

Autrement dit, Gerald Edelman s’inscrit, sans le dire nettement, dans ce que l’on pourrait appeler le relativisme des connaissances. – ou plutôt dans un relativisme tempéré, analogue à celui concernant la conscience elle-même. Pour le darwinisme neural, il n’existe pas de conscience en soi, mais des processus d’interaction avec le monde permettant au cerveau de faire émerger des contenus conscients qui sont à la fois propres à chaque individu et qui dans le même temps peuvent être partagés ou répartis au sein des groupes grâce aux échanges langagiers. Il en est de même des connaissances et des prétendues « vérités » qu’elles exprimeraient. Chaque individu se forme ses propres connaissances, autrement dit ses propres vérités. Celles-ci, lorsque l’individu considéré a la possibilité de les confronter à des connaissances collectives, prennent une portée plus générale sans pour autant pouvoir prétendre à une valeur absolue.

C’est ce que désigne le terme assez bizarre, pour un lecteur français, de Seconde Nature. Edelman nomme ainsi l’ensemble des connaissances, individuelles ou collectives, correspondant à des expressions approximatives, métaphoriques, symboliques par lesquelles le cerveau se représente spontanément le monde au travers des entrées sensorielles. Le cerveau, comme il le rappelle dès les premières pages, n’est pas un ordinateur travaillant sur des données externes bien définies et utilisant pour ce faire des programmes pré-constitués. Le cerveau travaille sur le mode très général de ce qu’il qualifie de « reconnaissance de forme ». On sait que ce terme est employé en intelligence artificielle pour désigner le travail de catégorisation empirique auquel un système informatique non programmé à l’avance se livre pour identifier les constantes du milieu avec lequel il réagit : constantes visuelles, sonores ou phénoménales. Cette Seconde nature est donc faite des innombrables et infiniment diverses façons dont les cerveaux se représentent le monde à la suite des compétitions darwiniennes entre informations résultant de leur interaction avec leur éconiche. Il y a autant de secondes natures, c’est-à-dire de « vérités », qu’il y a de cerveaux, tout au moins au niveau du détail. Au sein des groupes, les échanges entre cerveaux peuvent aboutir à de Secondes Natures ou Vérités collectives, qui restent cependant relatives (non absolues) et constamment en évolution.

De ces Secondes Natures, selon Gérald Edelman, peut émerger une « Nature » qui correspondrait à des représentations du monde prenant la forme de lois scientifiques voire de modèles mathématiques. Cette Nature est plus « vraie » que l’ensemble des Secondes Natures, au moins pour les individus utilisant la démarche scientifique expérimentale et les mathématiques. Mais, comme on le sait en ce qui concerne la formalisation des savoirs au sein de lois scientifiques et de modèles mathématiques, le passage de l’approximatif à la rigueur se traduit par d’innombrables pertes. Le champ se rétrécit considérablement et souvent le modèle se révèle trop rigide pour rester longtemps adéquat. Cela ne veut pas dire que la science doive renoncer à proposer des lois, mais elle doit en permanence, pour la critique de ces lois et pour la recherche de nouvelles lois, faire un large appel à l’heuristique libre, à l’imagination et au rêve. En réalité, les lois se proposent spontanément, si l'on puis dire, mais nous simplifions ici la formulation. La Nature formalisée par la science ne renvoie donc pas plus que la Seconde Nature à une Vérité absolue ou en soi, puisque, comme les contenus de Seconde Nature, elle résulte de la compétition darwinienne entre contenus de conscience et n’est donc jamais figée. Elle est seulement plus générale et s’appuie sur des faits expérimentaux qui, tout en nécessitant d’être, eux-aussi, relativisés, présentent des fondations plus solides pour la construction d’une neuro-épistémologie critique que ne le sont les « faits " observés empiriquement par des individus dépourvus d'appareils rigoureux de vérification.

La neuro-épistémologie à la lumière du darwinisme neural

Ceci posé, en quoi ce qui précède peut-il autoriser à parler de neuro-épistémologie comme le fait Gerald Edelman ? Il faut pour le comprendre revenir à la façon dont il se représente la formatin et le rôle de la conscience, c’est-à-dire à sa théorie du darwinisme neural. Nous avons vu que pour lui le cerveau est organisé en un très grand nombre de modules distincts mais néanmoins interconnectés (par la réentrance). Certains ont été acquis par l’espèce et sont donc transmis dès la naissance à partir de l’architecture du cerveau définie par la coopération de différents gènes. D’autres résultent du mécanisme général de « reconnaissance de formes », évoqué ci-dessus, par lequel le cerveau dès le stade embryonnaire établit des catégories au sein des informations endogènes et exogènes perçues par les sens. Un point essentiel, sur lequel Edelman insiste, concerne la redondance ( appelée dégénérescence dans le vocabulaire scientifique) entre ces modules. Le terme signifie que des modules différents peuvent représenter plus ou moins approximativement la même forme. Ceci est particulièrement évident au sein des cortex visuels et auditifs. Ainsi est assurée la variation ou variabilité dans les représentations, autrement dit un Générateur de diversité (GOD pour les évolutionnistes, soit Generator of Diversity !), permettant à la compétition darwinienne entre modules de s’exercer.

Edelman, dans la description du cerveau qu’il donne en introduction à Second Nature, évoque aussi ce qu’il appelle des « centres de valeurs ». Ceux-ci n’ont rien à voir avec les valeurs morales. Le mot désigne les aires cérébrales capables de diffuser dans l’ensemble du cerveau puis de l’organisme des neurotransmetteurs génériques, incitatifs ou inhibiteurs, qui renforcent les réactions globales de l’organisme. Ainsi en est-il de l’adrénaline, qui dans la plupart des espèces, contribue à mobiliser les ressources physiques de l’individu face à un danger. On retrouve là un mécanisme courant dans tous les réseaux de neurones formels, caractérisant ce que l’on appelle les processus de récompense. Le livre évoque enfin, pour compléter ce bref recensement, les neurones moteurs et plus généralement l’appareil sensorimoteur, qui permet à chaque organisme de s’inscrire dans son éconiche et de le modifier. Chez l’homme moderne, cet appareil sensorimoteur est complété par les machines et instruments produits par la technologie.

Ces divers éléments constitutifs de la complexité du corps en situation contribuent ainsi, selon l’hypothèse du neuro-darwinisme, à l’élaboration de faites de conscience plus ou moins élaborés. Le neuro-darwinisme est évidemment l’antichambre méthodologique de la neuro-épistémologie. 2)

Second Nature ne manque pas en effet, en prélude à la réflexion sur la neuro-épistémologie, de rappeler la théorie de la conscience qui est celle d’Edelman et de beaucoup de neuro-scientifiques matérialistes. Nous l’avons-nous même souvent évoquée et défendue dans des articles et ouvrages précédents. Rappelons la ici très brièvement. L’organisme doté d’un système nerveux central situé dans le corps, le corps lui-même étant situé dans son éconiche, constitue un ensemble évolutionnaire aux millions de modules en interaction. Inévitablement, il en émerge des états de conscience primaire, c’est-à-dire conscience de soi dans son environnement mais non conscience d’être conscient. Edelman reconnaît à ce sujet que de tels états sont présents chez la plupart des animaux supérieurs. Mais comme ceux-ci manquent du langage, ils ne sont pas capables de se représenter à eux-mêmes en tant que sujets conscients. Ils ne peuvent pas non plus construire de modèles visant le passé ni le futur dans lesquels ils se positionneraient comme acteurs. Ils ne peuvent donc pas élaborer des stratégies de survie à long terme. Edelman rappelle à ce sujet que, pour lui, le passé et le futur n’existent pas en soi. Ce sont des constructions utilisant des mots, autrement dit des modèles informationnels, avec lesquels un modèle du soi, lui-même exprimé par le langage, peut être mis en interaction.

Edelman est donc conduit, ce qui est devenu classique depuis quelques années chez les neuroscientifiques matérialistes, à distinguer la conscience primaire et la forme plus « évoluée » de conscience, dite supérieure, qui en émerge au sein des cerveaux disposant d’une complexité supplémentaire. C’est grâce à cette complexité neurale supplémentaire que de nouveaux modules eux-mêmes redondants sont apparus pour désigner le soi et bien d’autres concepts reprenant au second ou au troisième degré des « formes » identifiées par la conscience primaire. Quel est le rôle fonctionnel de cette conscience supérieure ? Celui de la conscience primaire n’est évidemment pas discutable. Elle permet à l’animal d’acquérir une représentation globale du monde, au lieu d’être déterminé par des évènements différents survenant sans ordre apparent. Par contre, sur le rôle fonctionnel de la conscience supérieure, les opinions diffèrent encore.

Comment la conscience supérieure peut devenir causale

Edelman, on le sait, rejoint les neuroscientifiques pour qui la conscience supérieure n’est jamais causale. Autrement dit, il refuse le concept de libre-arbitre, grâce auquel les spiritualistes réintroduisent le dualisme. Cependant, il ne veut pas faire de la conscience supérieure un simple épiphénomène dont la survivance au sein de l’évolution ne s’expliquerait pas. Dans un développement trop court et un peu confus, il en fait un indicateur "nous" (us) permettant de nous rendre compte de certains de nos états et de les signaler par le langage. Mais dans ce cas quel est ce "nous"? Nous pensons qu’ici, Edelman s’enferme dans une impasse. Il ne peut se débarrasser d’une image du Moi constituant une espèce de chef d’orchestre au sommet du cerveau. Il n’insiste pas assez sur la construction du Moi résultant de l’interaction de l’individu avec les autres individus grâce au langage et aux artefacts développés à l’intérieur des sociétés.

On pourrait expliquer d'une façon très simple pourquoi les individus humains ont hérité de l'évolution la capacité d'exprimer les états dominants de leur conscience primaire à travers le langage et en les attribuant à un Moi supposé causal, c'est-à-dire supposé doté de libre-arbitre. C'est parce que le Moi inconscient, le seul qui soit causal, peut ainsi faire part de ses états internes aux autres membres du groupe afin d'y recruter des alliés. Les animaux font d'ailleurs cela avec moins de sophistication quand ils expriment des émotions par des cris ou gestes. Ceux-ci sont destinés au groupe, pour provoquer des réactions collectives venant à l'aide de l'individu signaleur.

Prenons un exemple. Circulant en forêt, je perçois inconsciemment la présence d'un prédateur et, toujours inconsciemment, je m'en écarte. Mon Moi inconscient a dans ce cas pris seul la bonne décision. Cependant, si quelques instants plus tard, ma conscience supérieure est avertie (par réentrance) de ce qu'a décidé ma conscience primaire et en avertis le groupe par un discours adéquat ( "j'ai décidé" de m'éloigner de ce fourré où "je pense" que se trouve un prédateur), les autres individus du groupe peuvent comprendre immédiatement le signal de danger et y réagir adéquatement. Réagir signifie en ce cas que la conscience primaire de chacun d'eux comprend inconsciemment le message et prend immédiatement les mesures adéquates. Mais réagir signifie aussi que le Moi collectif ainsi formé par le langage partagé des consciences supérieures renforce dans chacun des organismes individuels les actions destinées à protéger non seulement les individus considérés isolément, mais l'ensemble du groupe se comportant alors en super-organisme doté d'une conscience primaire (voire supérieure). Pour être complet, on ajoutera que l'existence d'une conscience supérieure individuelle s'exprimant par le verbe n'est pas inutile à la survie de l'individu. Même si je suis seul face au danger, le fait que je me dise (par la voix intérieure de la conscience supérieure) "il y a là un danger" peut aider le Moi inconscient à mieux mobiliser ses ressources, notamment en déclenchant l'action de ce que Edelman appelle les centres de valeur du cerveau - sécretion d'adrénaline par exemple.

On peut alors considérer que le Moi conscient individuel serait la façon dont une représentation d’un Moi générique construite au sein des collectivités dotées de langage s’incarnerait et se spécifierait au sein de l’individu particulier, grâce aux échanges sociaux et notamment grâce à l’éducation – le tout évidemment à l’occasion de compétitions darwiniennes permanentes, tant dans le cerveau individuel que dans ce que l’on pourrait appeler le cerveau collectif. A ce moment, le Moi individuel s’exprimant au sein de la société et représentant une variante d’un Moi collectif plus général, pourrait sinon redevenir à lui seul causal, du moins contribuer à l'émergence d'une action causale. Ses évolutions commanderaient les organes effecteurs de la société ou plus précisément celles des individus qui manipulent les organes effecteurs. Or ceux-ci, contrairement aux états de conscience supérieure individuels, sont directement en prise sur le monde. Il devient donc productif de s’interroger par l'épistémologie sur la valeur quant à la survie des connaissances du monde que génèrent de tels Moi collectifs et sur les rapports que ces connaissances peuvent avoir avec une supposée vérité. Si elles s’auto-proclament vraies, relativement ou absolument, elles n’en auront que plus de force persuasive dans la compétition entre les connaissances et entre ceux qui les hébergent.

Les neuro-mèmes

Nous venons de le voir, l’hypothèse du Moi collectif découlant d’une véritable conscience collective produite par l’interaction des individus dans un groupe n’est pas prise véritablement en considération par Edelman, qui reste fondamentalement un « neurologue de l’individu » . Elle permettrait pourtant de redonner de la consistance aux mèmes, traités dédaigneusement par notre auteur. Certes, si l’on considère les mèmes comme des informations désincarnées voltigeant et se reproduisant tels des virus informatiques au sein des réseaux de communication modernes, on ne voit pas comment ils peuvent contribuer à l’enrichissement du cerveau au travers des processus du darwinisme neural.

Mais les mèmes ne sont pas seulement des systèmes d’informations ou programmes d’instructions externes. Ils se traduisent nécessairement, dès qu’ils ont pénétré dans un cerveau doté de capacités langagières, par de nouveaux modules neuraux entrant en compétition avec les millions d’autres modules constituant le cerveau global. On retrouve là l’approche dite de la neuro-mémétique défendue notamment par le britannique Robert Aunger 3). En ce cas, rien n’interdit de dire que le Moi puisse lui-même être le produit d’un conflit arbitré en permanence, selon la force des informations en entrée dans les réseaux formels neuronaux, entre mèmes de provenance extérieure et modules hérités ou acquis lors d’expériences comportementales antérieures. Ajoutons que cette hypothèse permet de mieux comprendre la question à laquelle se heurte souvent les méméticiens « non neuronaux » : pourquoi certains mèmes réussissent-ils à s’implanter chez certains individus et sont ils radicalement rejetés par d’autres ? Pour y répondre, on parlera par image d’une question de résistance de terrain. Nous avons évoqué à ce sujet (1) un phénomène très voisin, celui de la façon dont le système immunitaire repousse certains antigènes et succombe au contraire devant d’autres.

Gerald Edelman n’approfondit pas non plus, tout au moins dans Second Nature, la question délicate résumée par le concept de noyau dynamique et d’activité intégrative (Dynamic Core). Il se borne à constater que, dans les cerveaux sains, la conscience n’est pas dissociée, tout au moins dans l’instant présent. Elle est unitaire. Ceci est vrai qu’il s’agisse de la conscience primaire ou de la conscience supérieure. Le cerveau parait capable de réaliser à tous moments une seule et unique synthèse résumant les résultats de la compétition darwinienne incessante entre lesquels s’affrontent les modules neuronaux conscients et inconscients. Ainsi le rapporteur d’un congrès animé peut résumer en un compte-rendu clair les résultats des débats. Mais quel est le mécanisme qui permet à tout moment l’expression d’un état unique de conscience ? (On parle aussi du problème du « binding »). Où et comment se produit ce phénomène essentiel à la compréhension de l’unité du moi conscient individuel ? On sait que la question n’est pas résolue actuellement. Gerald Edelman fait cependant à ce sujet une observation à laquelle nous avons été attentifs.

Il explique que pour comprendre le fonctionnant du noyau dynamique et la génération d’états de conscience unitaires, il est pratiquement impossible aujourd’hui d’expérimenter chez l’animal vivant et moins encore chez l’homme. Il faudrait de toutes façons sans doute descendre bien au-delà de l’observation des neurones individuels, afin d’observer le fonctionnement corrélé de milliards de cellules – et de molécules chimiques - appartenant au corps dans lequel le cerveau est situé. Par contre, selon Edelman, on peut espérer que l’étude, bien plus facile à mener, de la façon dont des états de conscience primaire émergent chez les robots pourrait nous donner quelques pistes – ceci même si l’on découvrait que les robots acquièrent des consciences bien différentes des nôtres, comparables à ce que pourraient être des consciences d’extraterrestres. 4)

Pour conclure sur la neuro-épistémologie...

Finalement, si nous voulions terminer cette brève recension par un retour à la question de la neuro-épistémologie, que retiendrons nous du livre ? Nous pouvons le résumer en quelques mots. Les connaissances, qu’elles soient embodied dans le corps ou embedded dans l’éconiche, sont toujours relatives, partielles et en compétition darwinienne permanente. Il en est de même des Vérités auxquelles on prétend obstinément les rattacher. Ce relativisme est évidemment lui-même relatif, selon notamment que les connaissances font appel à de vastes systèmes de représentations collectives aussi différents que les mythologies d’un coté, les théories scientifiques d’un autre. Les Vérités scientifiques elles-mêmes sont dépendantes des cerveaux et de l’état de maturation qu’ils atteignent au fur et à mesure de l’évolution. Il n’est pas exclu, nous l’avons vu, que de super-robots intelligents puissent un jour se représenter le cosmos, la vie et la conscience, en termes scientifiques, certes, mais de façon bien différente de la façon dont nous le faisons nous-mêmes.

Quoiqu’il en soit, les connaissances, la façon de les produire (et la réflexion épistémologique ou mythologique en découlant) sont nombreuses et différemment convaincantes ou conquérantes. Gerald Edelman, pour ce qui le concerne, a choisi depuis toujours son camp. C’est celui de la science et de la philosophie des sciences. Ainsi faisons nous aussi pour notre part.

D’autres, pour des raisons qui leur sont propres, restent réfractaires au discours scientifique et préfèrent celui des religions. C’est leur droit, évidemment. Qu’ils croient à Dieu ou à Diable ne nous intéresse qu’à titre documentaire. Mais qu'ils ne se mêlent pas de nous imposer leur point de vue. Gerald Edelman, dans son livre, ne s’exprime pas avec cette franchise. Nous savons cependant que c’est là sa conviction philosophique profonde. Salut donc à lui.


Notes
1) J.P. Baquiast. Pour un principe matérialiste fort, Ed J.P. Bayol 2007
2) On observera que le darwinisme neural, sans être rejeté radicalement par tous les chercheurs en neuro-sciences, ne suscite pas partout le même soutien enthousiaste. Le rival de Gerald Edelman, Francis Crick, avait parlé de « neuro-edelmanisme ». On fait valoir par exemple le rôle actif que joue le jeune individu dans le choix des informations qu’il reçoit et la manipulation de son environnement. Mais n’y a-t-il pas là une résurgence d’une sorte de finalisme s’en prenant à son ennemi héréditaire, le darwinisme. Plus sérieusement, on veut évoquer aussi la coopération qui s’établit entre les neurones et les autres cellules du corps décrite notamment par ce que Gilbert Chauvet désigne du terme de « physiologie intégrative ». Quoiqu’il en soit, nous ne voyons pas là de raisons sérieuses pour remettre en cause le darwinisme neural et refuser d’y voir le mécanisme générateur des émergences globales que sont les comportements et, plus particulièrement, les différentes formes de conscience.
3) Voir http://www.automatesintelligents.com/biblionet/2002/sep/aunger.html
4). Nous observons avec plaisir à ce sujet que Second Nature consacre tout un chapitre à la réalisation de ce que l’auteur appelle des « brain-based devices » Il s’agit d’un programme de recherche conduit au sein du Neurosciences Institute qu’il préside et aboutissant à la série des robots « Darwin » (voir http://www.me.vt.edu/Robocup/Site/Home.html.
Ceux-ci ne sont pas aussi originaux que le dit Edelman. Ils correspondent en fait à ce que l’on appelle ailleurs des systèmes cognitifs ou des robots conscients. Gerald Edelman admet que les prototypes les plus évolués de cette série peuvent commencer à héberger des formes locales de conscience primaire, avec la manifestation d’intentions à partir de contenus de mémoires (ou connaissances) résultant de leur interaction avec leur environnement et résumant les acquis de leurs comportements passés. Il ne pense pas que ces engins puissent prochainement héberger des consciences supérieures significatives, tant du moins que leur complexité ne sera pas comparable à celle d’un cerveau même primitif. Mais il ne considère absolument pas que l’objectif soit à rejeter. On sait que les roboticiens sont plus optimistes que Gerald Edelman puisqu’ils comptent sur des progrès rapides dans la miniaturisation et l’efficacité des composants. Ceci permettra de doter les robots autonomes de mémoires aussi riches que les 100 milliards de neurones du cerveau humain. C’est donc peut-être grâce à de tels robots, faisant appel à des millions ou centaines de millions d’agents, que l’on comprendra mieux le mécanisme du binding.

 

Repost 0
JP Baquiast et Christophe Jacquemin - dans philoscience
commenter cet article
30 mars 2007 5 30 /03 /mars /2007 10:59

Interview de Laurent Nottale : La relativité d’échelle

Propos recueillis par Jean-Paul Baquiast

 

NB : ce texte a été relu par Laurent Nottale

 

Laurent Nottale est astrophysicien, directeur de recherche au CNRS et Chercheur à l’Observatoire de Paris-Meudon. Il est né le 29 juillet 1952.

 

Il est l’auteur d’un grand nombre d’articles et de publications. Il a publié en français:
- La Relativité dans tous ses états : du mouvements aux changements d’échelle 18 octobre 2000).
- Les arbres de l’évolution avec Jean Chaline, et Pierre Grou (mars 2000)

On pourra également lire son livre Fractal Space-Time and Microphysics : Towards a Theory of Scale Relativity” (World Scientific, 1993)

 

Pour en savoir plus
La Relativité d’Echelle de Laurent Nottale
http://luth2.obspm.fr/%7Eluthier/nottale/frmenure.htm
Laurent Nottale. Page personnelle
http://luth2.obspm.fr/%7Eluthier/nottale/

Jean-Paul Baquiast (AI) : Vous êtes le créateur du principe de relativité d’échelle (RE). Celui-ci, bien qu’encore mal connu, nous paraît porteur de perspectives considérables. Mais pour en convaincre ceux de nos lecteurs qui ne le connaîtraient pas, il convient de partir de la base, c’est-à-dire le principe de relativité.

Laurent Nottale (LN) : Le principe de relativité est un principe très général qui transcende les théories particulières que l’on peut construire à partir de lui. Cela permet de l’étendre à d’autres grandeurs que celles auxquelles il était appliqué jusqu’à maintenant. Jusqu’à maintenant, il était appliqué à la position, à l’orientation et au mouvement. Les mesures que l’on peut faire dépendent d’un système de coordonnées de références. Mais les grandeurs que l’on veut définir ne peuvent pas l’être dans l’absolu.

AI : Vous évoquez là la relativité restreinte, dont c’est effectivement le principal enseignement.

LN : Oui, mais passer de la relativité restreinte à la relativité générale consiste simplement à généraliser les variables auxquelles on applique le principe. La RE consiste pour sa part à ajouter une variable caractérisant l’état du système de coordonnées qui est l’échelle de ce système. Jusqu’à aujourd’hui, faire des mesures dans un système de
coordonnées à une échelle de 10 cm et le faire dans un système de coordonnées à l’échelle de 1 angström n’était pas considéré comme un changement de système de coordonnées. Or dans le premier cas, on se trouve dans un système classique et dans le second dans un système quantique.

Dans la physique actuelle, on décrit l’expérience et les équations la régissant avec des outils, des modes de pensée tout à fait différents d’un cas à l’autre, tout en pensant n’avoir rien à changer au système de coordonnées.

AI : Il me semble que cela n’inquiétait personne. On considère généralement que la relativité générale s’applique à des objets massifs, c’est-à-dire au cosmos, et non aux petits objets de la physique quotidienne et moins encore à des entités quantiques.

LN : Oui, mais c’est une erreur. Toute la théorie quantique, qui s’applique aux molécules, atomes et particules sub-atomiques, est parfaitement relativiste. Il existe un quiproquo à ce sujet dans le grand public. Il n’y a pas de contradiction entre la physique quantique et la relativité. La physique quantique des champs est parfaitement relativiste. Plus rien ne marcherait en physique quantique si l’on n’utilisait pas la relativité restreinte. Elle a été validée des milliards de fois.

Là où la difficulté apparaît, c’est entre la physique quantique et la relativité générale. Ce que l’on ne sait pas faire, c’est une théorie quantique de la gravitation.

AI. Je comprends que pour vous, il faut appliquer la relativité à toutes les échelles, mais d’une façon qui tienne compte précisément de l’échelle.

LN : À la base de ma démarche est l’idée que l’échelle caractérise le système de coordonnées tout autant que les autres variables et que des physiques qui paraissent différentes à des échelles différentes pourraient être des manifestations d’une même physique plus profonde. Celle-ci ne serait pas évidemment celle que l’on connaît aujourd’hui puisque les équations actuelles classiques et quantiques ne coïncident pas. Il en résulte que l’on ne sait pas fonder le quantique sur le principe de relativité.

AI : En somme, la RE n’est pas là pour concilier quantique et relativité puisque cela, on sait déjà le faire, au niveau de la relativité restreinte. Elle est là pour fonder les lois quantiques sur la relativité, ce qui n’est pas fait aujourd’hui.

LN : Exactement. D’où l’idée d’étendre la relativité pour inclure des transformations d’échelle. La relativité des échelles devrait pourtant être considérée comme une évidence. On ne peut pas définir les échelles d’une manière absolue.

Compléter la relativité par la physique quantique

AI : Revenons si vous voulez, sur votre histoire personnelle de chercheur. Comment avez-vous eu l’idée qu’il fallait compléter la relativité pour la rendre applicable à des échelles où on ne l’attendait pas ? C’était une idée de génie, si vous me permettez le terme.

LN : Je ne sais si on peut le dire. Je pense que, comme la plupart des physiciens, j’ai été choqué par mon premier contact avec la physique quantique. La mécanique newtonienne donne l’impression de permettre une compréhension profonde des phénomènes. Avec la physique quantique, il faut prendre en considération l’équation de Schrödinger(1), posée en postulat. Or, celle-ci n’est pas expliquée. Toutes les équations auxquelles cet outil satisfait, même si elles sont vérifiées par les expériences, sont des axiomes.

AI : C’est bien ce qui avait révolté Einstein…

LN : Oui. Einstein a passé toute sa vie à essayer de trouver une fondation à la théorie quantique. Aujourd’hui, beaucoup de physiciens quantiques rejoignent d’une certaine façon le souci d’Einstein. Ils conviennent, après Dirac qu’il faut retravailler les fondations de la physique quantique.. J’ai assisté à un colloque où certains grands physiciens comme t’Hooft ou Neeman insistaient sur ce point.

AI : Si je comprends bien, vous ne vous êtes pas arrêté à cette difficulté.

LN : C’est vrai. Dès 17-18 ans j’ai voulu réfléchir à la théorie de la relativité et il m’est apparu qu’avec celle-ci, on comprenait tout. Elle comporte un principe premier et à partir de celui-ci, on peut démontrer les équations et commencer à expliquer le monde. La relativité générale d’Einstein permet de comprendre la nature de la gravitation comme manifestation de la courbure. Or la courbure est quelque chose de plus général que le cadre euclidien. C’est un énoncé que je qualifierai d’« énoncé d’abandon d’hypothèses ». Au lieu de supposer que l’espace est uniformément plat, on se place dans un cadre plus général, duquel découle la gravitation. Les phénomènes de la nature apparaissent ainsi comme provenant de la plus grande généralité possible, régis et contraints par des principes premiers dont le premier est le principe de relativité, principe de logique et d’équilibre du monde.

AI : On peut résumer ce propos en disant : il y a des lois fondamentales de la nature et si ce sont des lois fondamentales, elles doivent être les mêmes partout. Ceci dit, vous avez eu l’audace de redescendre, si l’on peut dire, de la relativité à la physique quantique, ce qui supposait de franchir un pas considérable.

LN. Effectivement, je me suis posé la question de ce qui faisait défaut à la physique quantique et je me suis demandé s’il serait possible un jour de pouvoir déduire le quantique d’un principe de relativité qui serait forcément généralisé. J’ai étudié les auteurs du XXe siècle qui s’étaient attaqués à ce problème. Il y en a eu beaucoup. Mais tous ont échoué.

En 1979-1980, j’ai eu l’intuition qu’il leur manquait une nouvelle géométrie. J’ai essayé de la construire, en raisonnant un peu comme Einstein avec la courbure. En gros, il faut réussir à mettre dans la géométrie ce qui est universel dans la physique quantique. Or ce qui m’a paru universel est la dépendance du résultat de la mesure en fonction de l’appareil de mesure, de la résolution de l’appareil.

AI : C’est la relation entre l’observé, l’observateur et son appareil, qui dès l’origine de la physique quantique a retenu l’attention des philosophes des sciences – sans d’ailleurs être véritablement acceptée au moins dans les premières années.

LN : Exactement. J’ai voulu pour ma part essayer de construire un espace-temps qui
soit explicitement dépendant de l’échelle. C’est à ce moment que je suis tombé sur les travaux de Mandelbrot sur les fractals. J’ai compris qu’un espace-temps dépendant de l’échelle pouvait vouloir dire un espace-temps fractal, au sens de Mandelbrot(2).

AI : Dépendant de l’échelle, c’est-à-dire de l’observateur ?

LN : Plus précisément dépendant de la manière dont il observe et de l’instrument utilisé : microscope optique, microscope électronique, microscope à effet de champ, accélérateur de particules, etc. A chaque fois, avec le changement d’outil, la résolution change. On change profondément, non seulement la nature de l’instrument mais celle de ce qu’il sert à mesurer.

AI : je reviens sur ma remarque précédente. Vous généralisez l’approche relativiste de la physique quantique selon laquelle il n’y a pas de réel en soi descriptible par des valeurs absolues, mais qu’il n’y a que des relations entre observateur et observé. Vous êtes d’accord avec ce point de vue – et ce à toutes les échelles ?

LN : Complètement. Dans le cadre d‘une description relativiste, on peut pousser cela jusqu’au bout. Dans la description quantique actuelle, on trouve encore des particules décrites par une fonction d’onde mais qui sont considérées comme possédant de façon intrinsèque une masse, une charge, etc. En RE, on n’a plus besoin de cela. La masse, le spin, la charge apparaissent comme des propriétés émergentes à partir de la géométrie même des chemins dans l’espace-temps identifiés à ses géodésiques.

L’outil fondamental que je veux utiliser, c’est un outil déduit et développé en partant des concepts einsteiniens. Il s’appuie sur l’idée qu’à partir du moment où l’on se place dans
une théorie spatio-temporelle, il n’est pas nécessaire d’ajouter des équations supplémentaires de mouvement. Celles-ci se déduisent du fait que les “particules” vont “suivre” les chemins les plus courts, les géodésiques, dans cet espace-temps.

AI : Ceci quelle que soit la taille, qu’il s’agisse d’un espace temps très réduit, de type corpusculaire, ou très grand, cosmologique…

LN : Exactement. Au niveau cosmologique, on sait ce qu’il en est : effets de courbure, déviation des rayons lumineux, etc. . Mais si on applique le principe à très petite échelle, on se retrouve avec un espace-temps fractal et des géodésiques elles-mêmes fractales. Cette fractalité des géodésiques peut être décrite mathématiquement par ce que l’on appelle une dérivée co-variante qui consiste à mettre dans l’opérateur de dérivation même les différents effets de la fractalité de l’espace-temps sur le mouvement(3). Quand on écrit une équation de géodésique avec cette dérivée covariante, elle se transforme en équation de Schrödinger. On voit apparaître les lois quantiques à partir d’équations de géodésiques dans un espace fractal. Le point essentiel n’est pas que j’ai pu ce faisant démontrer l’équation de Schrödinger, c’est qu’elle se trouve démontrée comme intégrale d’une équation des géodésiques.

AI : Il me semble que là se trouve, trop brièvement résumé malheureusement dans cette interview, le point fondamental et extraordinairement innovant de votre approche. Vous mariez si l’on peut dire ces deux piliers jusqu’ici séparés de la physique, l’équation de Schrödinger aboutissant à la description de l’objet par sa fonction d’onde, et le système de coordonnées d’Einstein situant l’objet dans l’espace temps relativiste.

Des conséquences considérables en cosmologie

AI : La théorie de la RE ne concerne pas seulement la physique quantique. Elle a des conséquences considérables en cosmologie. Dans ce cas, elle ne pourra pas laisser indifférent le grand public. Ne rend-elle pas inutiles les hypothèses de l’inflation, de l’énergie noire et de la matière noire, que l’on évoque aujourd’hui dans toutes les revues ?

LN : Ce n’est pas exclu. La théorie de l’inflation a été inventée pour expliquer la naissance des toutes petites structures, à l’échelle de ce que l’on appelle la recombinaison. 300.000 ans après le Big Bang, les électrons et les protons se recombinent pour former les atomes. C’est le moment où apparaît une dissociation entre le rayonnement et la matière. La théorie actuelle sur la formation des structures, avec laquelle je suis d’accord, considère que ce sont ces toutes petites fluctuations qui ont cru jusqu’à maintenant pour des raisons gravitationnelles.

Mais quelle est l’origine de ces petites fluctuations ? Là personne ne peut répondre. Une des raisons de l’introduction de l’inflation est d’essayer d’amplifier les fluctuations quantiques survenant à une époque beaucoup plus proche du Big Bang pour pouvoir justifier ces fluctuations. Mais le problème n’est pas terminé car quand on prend ces fluctuations telles qu’elles sont observées et quand on veut les faire croître, on n’y arrive pas. Pour y réussir, il faut imaginer une grande quantité de matière noire qui peut être justifiée par d’autres raisons mais qui n’a jamais été observée directement. Ceci étant, il faut se poser la question ? Est-ce vraiment de la matière noire ? A-t-on vraiment besoin de l’inflation pour obtenir ces structures ?

AI : Qu’en est-il de l’énergie noire ?

LN : Ce que l’on nomme aujourd’hui énergie noire correspond à la constante cosmologique de Einstein. Il y a une erreur à ce sujet dans la littérature destinée au grand public. Einstein n’a pas introduit la constante cosmologique pour obtenir un espace statique, comme on l’écrit partout. Il avait construit la relativité générale pour réaliser certains objectifs qu’il s’était donné, dont la mise en œuvre du principe de Mach(4). Celui-ci est tout simplement le principe de la relativité de la masse, une relativité d’échelle. Il n’y a pas de masse absolue, mais seulement des rapports de masse et ceux-ci sont des rapports d’accélérations. A travers cela, Einstein a eu l’espoir de pouvoir calculer les forces d’inertie, à partir en fait du champ gravitationnel à très grande échelle. Finalement l’inertie émergerait des interactions entre une particule et le reste de l’univers.

Or en calculant comment ceci pouvait être mis en oeuvre, il s’est aperçu que ce n’était possible qu’à la condition d’un rapport constant entre la masse de l’univers et le rayon de l’univers (eventuellement une masse et un rayon caractéristiques puisqu’ils peuvent être infinis). Einstein a cherché entre 1915 et 1917 les solutions cosmologiques de ces équations et les a toutes trouvées en expansion ou en contraction. R était variable alors que M était constant. Ce résultat était donc en contradiction avec le principe de Mach. C’est pour le retrouver qu’il a conclu à la nécessité d’un espace statique - et non parce qu’il était attaché à l’idée d’absence de mouvement - et qu’il a rajouté dans ce but le terme de constante cosmologique dans ses équations.

Ensuite l’expansion de l’univers a montré que R variait considérablement, ce qui a mené Einstein à retirer cette constante. Mais Einstein avait bel et bien fait une prédiction cosmologique. En 1922, le mathématicien français Cartan(5) a démontré que la forme générale des équations recherchées par Einstein comportait la constante cosmologique. Il n’y avait donc pas de raison de la supprimer. J’ai pu montrer moi-même qu’une fois admise la constante cosmologique, l’univers est bel et bien «machien». Einstein avait résolu le problème sans s’en rendre compte.

On a aujourd’hui la preuve qu’il y a une constante cosmologique et qu’elle est très grande, puisqu’elle correspond à 75% du bilan d’énergie de l’univers. C’est une constante géométrique qui est l’inverse du carré d’une longueur.

En RE, on considère qu’il n’y a pas besoin d’énergie noire. C’est la constante cosmologique qui en tient lieu et ce qui a été mesuré représente précisément la valeur de la constante cosmologique que j’ai pu estimer théoriquement au début des années 90.

AI : Et que dites-vous de l’inflation ?

LN : On n’en a pas besoin non plus parce que l’on dispose d’une théorie de l’auto-structuration. A travers l’espace-temps fractal, on peut montrer que les équations de la dynamique prennent une autre forme. Elles ressemblent aux équations de la physique quantique sans qu’il s’agisse pour autant de la physique quantique standard. On obtient une forme d’équation de Schrödinger comme équation de la dynamique intégrée. Or cette équation là est naturellement structurante. Dans un tel cadre de travail, s’il est confirmé, le problème de la formation des structures ne se pose plus. Il est résolu. On voit les structures se former spontanément.

AI : Ceci je suppose à toutes les époques et dans toutes les tailles ?

LN : Oui. Mais les structures vont se former en fonction des conditions aux limites : conditions de densité moyenne, d’environnement. A une époque donnée, les structures qui se formeront seront différentes des précédentes car les conditions auront changé. Il y aura donc un bouclage entre l’évolution et la formation des structures.

AI : Avouez que la RE démolit, ou plutôt rend inutile beaucoup d’hypothèses à la mode aujourd’hui: l’inflation, la matière noire, l’énergie noire. Vous devez vous faire beaucoup d’ennemis…

LN : Je ne sais pas, mais ce que je sais, c’est que beaucoup de chercheurs semblent réticents à utiliser un outil de type quantique dans des domaines considérés comme ordinairement classiques (alors qu’il ne s’agit pas, dans les applications macroscopiques, de la mécanique quantique standard, mais d’une forme générique du type Schrodinger prise par les équations du mouvement dans des conditions nouvelles). Il y a également un problème de spécialisation disciplinaire qui rend difficile la diffusion de nouveaux concepts de nature transdisciplinaires.

AI : Ceci nous conduit à la morphogenèse des structures physiques et biologiques macroscopiques telles qu’observées sur Terre. Mais je suppose que vous n’avez pas besoin pour décrire ces structures des modèles de Mandelbrot…

LN : En effet. La méthode est différente. Dans la RE, on met la fractalité dans la structure de l’espace-temps lui-même. Cette fractalité implique un changement des équations. Ensuite, on va chercher les solutions de ces équations. Les solutions de ces équations, elles, ne sont pas fractales. Elles peuvent l’être dans certains cas, mais dans d’autres on obtient des solutions régulières, cristallines par exemple.

AI : La RE ne propose donc pas une loi fondamentale selon laquelle l’univers serait fractal…

LN : Non. La fractalité de l’espace-temps, si l’on veut conserver ce terme, sera un peu comme un bain thermique, une espèce d’agitation sous-jacente qui va structurer les contenus.

AI : En déduisez-vous cependant que l’on peut observer dans l’univers l’existence de structures qui seraient identiques à des échelles différentes, selon l’image traditionnelle proposée par les modèles fractals ?

LN : C’est vrai, mais cela tient à un autre facteur, l’invariance d’échelle de la gravitation. Que vous preniez les lois newtoniennes, einsteiniennes ou les nouvelles formes de lois du type équation de Schrödinger macroscopique, cette invariance d’échelle reste vérifiée. Ces nouvelles lois ne reposent pas sur la constante de Planck comme les atomes ou les molécules, mais sur une autre forme de constante qui est elle-même en accord avec le principe d’équivalence. Cela impose une forme différente aux équations et à leurs solutions et préserve cette extraordinaire invariance d’échelle de la gravitation qui avait été notée par Laplace. Si bien qu’à travers des théories comme celles-là on pourra comprendre la formation de structures semblables dans l’espace des vitesses mais qui se traduiront dans l’espace des positions par une hiérarchie de formations, systèmes planétaires, galaxies, amas, superamas, etc. On a toute une hiérarchie d’organisations dont chacune des échelles est régie par les mêmes équations mais appliquées dans des situations différentes. Cela ne donne donc pas de similarités strictes. Un système planétaire n’est pas à l’échelle près semblable à une galaxie. Mais il y a des points communs.

AI : Ce que chacun peut constater en observant le ciel.

La généralisation de l’équation de Schrödinger

AI : La RE donne ainsi un rôle fondamental, je dirais universel, à l’équation de Schrödinger…

LN : Précisons bien. Je ne rajoute pas une équation de Schrödinger aux équations précédentes. C’est bel et bien l’équation fondamentale de la dynamique newtonienne qui, dans un cadre fractal, prend la forme qui est celle de l’équation de Schrödinger, après avoir été intégrée. L’équation de Schrödinger propose alors des solutions stationnaires auxquelles il devient possible de comparer la matière observée. J’ai pu procéder ainsi concernant notre système planétaire, au début des années 90. Et là, étonnement, je pouvais récupérer les positions de toutes les planètes du système solaire et prévoir des positions nouvelles ne correspondant à aucun objet alors identifié. Ceci pour des objets internes à l’orbite de Mercure (voyez le schéma ci-dessous, où l’on a porté les positions des planètes du système solaire interne et des premières exoplanètes découvertes en 1995, comparées aux prédictions de la théorie) ou pour des objets situés au-delà de Pluton.

Il se trouve que depuis, on a trouvé des exo-planètes autour d’autres étoiles (on en connaît aujourd’hui plus de 200) et des objets situés dans la ceinture de Kuiper au-delà de Pluton. Les pics de probabilités observés pour ces exo-planètes et petites planètes ont validé les prévisions théoriques de la RE.

AI : Il s’agit donc là d’une vérification expérimentale de première grandeur, comme le montre d’ailleurs le graphique que vous présentez. Vous pourriez, je suppose, faire la même chose pour une galaxie comme Andromède ?

LN : Un étudiant qui a travaillé sous ma direction, Daniel da Rocha, a fait sa thèse exactement sur ce sujet. Il a pu étudier avec les méthodes de la RE le groupe local de galaxies, comprenant la nôtre, Andromède et leurs satellites. Il a pu montrer que toutes les observations en position et en vitesse satisfaisaient aux équations de Schrödinger.

AI : Si vous vous posez la question : « Voici une étoile, et il y a une planète autour. Où se trouve cette planète ? » que répond la RE par rapport à la théorie classique ?

LN : La théorie classique ne peut rien répondre. Elle fonctionne sur des conditions initiales. Or là, on ne les connaît pas. La RE, par contre, même si elle ne sait rien sur ces conditions initiales, peut prédire quelque chose. Elle peut déduire les structures les plus probables, non pas en fonction des conditions initiales, mais en fonction des conditions d’environnement. Donc elle peut faire des énoncés là où la théorie ordinaire n’en fait pas. En contrepartie, comme cette théorie est purement probabiliste et statistique, elle ne permettra pas de prédictions déterministes.

AI : Je croirais en vous écoutant entendre un physicien quantique. Vous obtenez ainsi une espèce de fonction d’onde de la planète, qui permettra de la localiser avec la même probabilité de réussite que la fonction d’onde d’un micro-état permet de localiser celui-ci. Il s’agit d’un résultat assez extraordinaire…

Répétons ce qui précède, en insistant, pour nos lecteurs. Grâce à la RE, vous avez pu localiser en théorie un certain nombre d’exo-planètes que l’observation, depuis 1995, a pu identifier. J’avoue que je n’avais jamais entendu parler de cette façon de procéder, en dépit de tout ce qui est dit à propos de la recherche des exo-planètes.

LN : Vous trouverez sur mon site les références des publications qui ont été faites à ce sujet depuis 1996 (en ce qui concerne les validations observationelles), ainsi que des articles sur la prédiction théorique dont certains datent d’avant 1995 (la date de première découverte des exoplanètes). Un article de vulgarisation récent a été publié sur le sujet: Nottale, L., 2003, Pour La Science, 309, 38-45 (Juillet 2003) “La relativité d’échelle à l’épreuve des faits”.

AI : En élargissant le regard, à l’horizon des 800 MParsecs, vous admettez si j’ai bien compris que l’univers se présente de façon homogène…

LN : Absolument. En RE, si on veut obtenir une description à très grande échelle, on arrive à la conclusion qu’il doit exister une échelle maximale, non pas en tant que barrière physique mais en tant qu’horizon. Il s’agit aux grandes échelles de l’équivalent de l’échelle de Planck aux petites échelles. Les lois de la relativité d’échelle restreinte montrent que d’une façon générale les lois de la relativité prennent la forme de la transformation de Lorentz.

Cet horizon est indépendant du modèle d’univers adopté, fermé ou ouvert. Dans ce cadre, du fait de son existence, la dimension fractale effective de l’espace, et donc de la distribution des galaxies dans l’espace, croit avec l’échelle On trouve qu’elle atteint la valeur D=3 pour une échelle de l’ordre de 750 Mpc, qui représenterait alors une échelle de transition à l’uniformité.

Pour conclure

AI : Je suis séduit par l’originalité et la fécondité de votre approche. Force est cependant de constater qu’elle est encore peu reçue, aussi bien chez les physiciens quantiques que chez les cosmologistes. A quoi attribuer cela ?

LN : Il est aujourd’hui encore très difficile de diffuser des idées nouvelles. Malgré beaucoup d’efforts (j’ai du donner dans les années 80-90 plus de trois cents conférences et séminaires sur le sujet), j’ai eu peu d’échos. Les idées diffusent sans doute (y compris par exemple en biologie) mais de façon très limitée. C’est un peu le propre des hypothèses sur les fondements. Quand elles apparaissent, par définition, elles n’intéressent qu’un très petit nombre de personnes. On peut espérer pourtant qu’à partir d’un certain seuil, elles pourront diffuser plus rapidement.

AI : J’espère que notre revue pourra vous aider à mieux faire comprendre l’ambition de votre théorie et l’importance qu’elle devrait prendre dans la représentation du monde.

LN : Je n’avais pas, au début, l’ambition que la théorie puisse s’appliquer à tous ces domaines. Je voulais seulement essayer de comprendre ce qu’était la physique quantique et tenter de la fonder sur des principes premiers. Mais peu à peu, en avançant, en fabriquant des fonctions d’onde, en découvrant que l’équation de Schrödinger était plus générale qu’il n’était dit et pouvait s’appliquer au domaine macroscopique, les ambitions se sont précisées. C’est alors, comme je vous le disais, que j’ai pu prévoir, avant la découverte des exo-planètes qu’il y avait des pics de probabilités dans lesquels ultérieurement on a découvert les exo-planètes attendues.

AI : Je ne dis pas cela pour vous faire plaisir, mais je trouve que vous mériteriez le Prix Nobel…

LN : Ce n’est pas à l’ordre du jour en ce moment, je dois dire.

AI : Il faut quand même admettre le saut épistémologique que vous offrez. Votre théorie. permet de comprendre le pourquoi des phénomènes observés au lieu de se limiter à de simples descriptions.

LN : C’est vrai. Mais c’est la propriété spécifique du principe de relativité. Il est seul à proposer une réponse au pourquoi, alors que les autres tentatives de la physique fonctionnent à partir d’hypothèses. D’où la conclusion que le public retient, selon laquelle la science ne peut jamais répondre au pourquoi, mais seulement au comment.


 

Notes
(1) L’équation de Schrödinger, conçue par le physicien autrichien Erwin Schrödinger en 1925, est une équation fondamentale en physique quantique non-relativiste. Elle décrit l’évolution dans le temps d’une particule massive non-relativiste. Elle permet de calculer la fonction d’onde des particules. La fonction d’onde en mécanique quantique est la représentation de l’état quantique dans un nombre potentiellement infini de positions. Elle donne à l’observateur la probabilité de présence des particules représentées par cet état quantique (source Wikipedia)
(2) Benoît Mandelbrot (20 novembre 1924 - ) est un mathématicien français. Il a travaillé au début de sa carrière sur des applications originales de la théorie de l’information, puis développé ensuite une nouvelle classe d’objets mathématiques : les objets fractals, ou fractales.
(3) Le principe de covariance met en oeuvre le principe de relativité au niveau des équations de la physique. La covariance d’échelle des équations de la physique signifie qu’elles doivent garder leur forme (la plus simple possible) dans les transformations d’échelle du système de coordonnées. La covariance faible correspond au cas où les équations ont gardé, sous une transformation plus générale, la même forme que sous la transformation particulière précédente (exemple des équations du champ de gravitation d’Einstein, qui ont une forme semblable à l’équation de Poisson de la gravitation newtonienne, comprenant toujours un terme de source). La covariance forte correspond au cas où la forme la plus simple possible des équations est obtenue, celle du vide dépourvu de toute force (c’est le cas de l’équation de la dynamique en relativité générale du mouvement d’Einstein, écrite comme équation des géodésiques). Source Laurent Nottale
(4) Le principe de Mach a été forgé par le physicien Ernst Mach par extension du principe de relativité aux questions d’inertie. D’après Mach, ce qui est responsable de l’inertie d’une masse serait « l’ensemble des autres masses présentes dans l’univers ». Ce principe est immédiatement tiré des expériences de Mach sur la physique des sensations, et correspond à sa volonté délibérée d’organiser les notions de la physique d’une manière cohérente avec le donné sensoriel dont il a conduit une très rigoureuse étude expérimentale.
Pour donner un sens à ce principe, imaginons un astronaute, flottant au milieu d’un espace vide de toute matière et de tout point de repère. Aucune étoile, aucune source d’énergie, le néant. Maintenant posons-nous la question : l’astronaute a-t-il un moyen de savoir qu’il est en rotation sur lui-même ou non, étant donné qu’il n’a aucun point de repère?
Si le principe de Mach est faux, c’est à dire si les forces d’inertie existent même en l’absence de toute matière ou énergie, alors l’astronaute pourrait le savoir, en ressentant des forces d’inertie qui poussent ses bras vers l’extérieur par exemple (force centrifuge).
Mais cela aurait-t-il un sens ? Par rapport à quoi serait-il en rotation puisqu’il n’y a rien ? Cela impliquerait la notion d’un espace et d’un référentiel absolu, incompatible avec le principe de la relativité générale.
Une manière d’interpréter les forces d’inerties en général, et la force centrifuge en particulier, sans introduire la notion de référentiel absolu est d’admettre avec Mach (et Einstein) que les forces d’inertie sont induites par les masses lointaines qui fournissent le référentiel par rapport auquel la rotation prend son sens physique (source Wikipedia).
(5) Élie Cartan, né le 9 avril 1869 à Dolomieu et mort le 6 mai 1951 à Paris, était l’un des mathématiciens français les plus influents de son époque. Son travail porte sur les applications géométriques des groupes de Lie (source Wikipedia).


NB: Voir aussi notre article complétant la présente interview : L’espace-temps est-il fractal ? http://www.automatesintelligents.com/echanges/2007/mar/fractal.html
Repost 0
JP Baquiast et Christophe Jacquemin - dans philoscience
commenter cet article
28 février 2007 3 28 /02 /février /2007 22:11
 

Pourra-t-on sauver le soldat Niels Bohr ?
Shariar Afshar persiste à mettre en défaut le principe de complémentarité de Bohr

par Jean-Paul Baquiast 23/02/07

image NewScientist 11 février 2007, p. 13

Dans un article du 27 juillet 2004, nous avions relaté l'expérience troublante du physicien américano-iranien Shahriar Afshar, alors chercheur au Boston Institute for Radiation-induced Mass Studies. Il affirmait avoir réalisé un dispositif qui mettait en échec le célèbre principe de complémentarité de Niels Bohr, selon lequel une particule peut se comporter, soit comme une particule, soit comme une onde, mais ne peut être observée présentant les deux propriétés simultanément. Il s'agit d'un principe fondamental de la physique quantique, mis en évidence pour la première fois par la célèbre expérience des fentes de Young. Le journal Newscientist avait signalé et largement commenté l'expérience de Shahriar Afshar. Nous avions repris l'information à sa suite. Nous indiquions que les conditions de l'expérience initiale n'avait pas été jugée totalement absentes d'ambiguïté et que Shahriar Afshar mettait au point une nouvelle expérience, utilisant un flux de photons, qui devait faire taire les critiques. Mais de nombreux mois se sont écoulés sans que l'on entende parler de lui.

Or, dans un nouvel article en date du 17 février 2007, le NewScientist nous apprend que Shahriar Afshar avait été retardé par « une tempête de critiques » s'en prenant tout autant à son hypothèse qu'à son appartenance ethnique et à sa religion. Il a pourtant réussi à surmonter la tempête et construire un nouveau dispositif expérimental (image ci-dessus). Celui-ci, selon Shahriar Afshar et les scientifiques qui le soutiennent, notamment Antony Valentini, du Perimeter Institute, montre sans ambiguïté qu'il a mis le doigt sur quelque chose d'important. Le dispositif est présenté comme permettant en même temps d'observer la trajectoire (particulaire) des photons traversant les fentes de Young tout en mettant en évidence leur caractère ondulatoire.

L'appareil d'Afshar comporte un écran percé de deux fentes, mais des lentilles sont installées derrière l'écran et renvoient les rayons sur deux miroirs, qui à leur tour les renvoient sur des détecteurs de photons. Ainsi est « observé » le chemin suivi par ceux-ci, qui se comportent classiquement comme des particules. Le principe de complémentarité devrait donc interdire d'observer des franges d'interférences.

Mais Shahriar Afshar a imaginé un dispositif ingénieux qui lui permet de mettre en évidence, de façon indirecte, l'existence de ces franges. Il a placé des fils devant les lentilles à l'endroit où devraient se trouver les franges sombres de l'interférence. Si les photons n'interféraient pas, il n'y aurait pas de franges sombres et les fils arrêteraient certains des photons traversant les lentilles, ce qui réduirait le nombre des photons dénombrés sur les détecteurs. Or le signal ne manifeste aucune diminution d'intensité. Ceci signifie que les photons constituant le rayon lumineux interfèrent et se comportent donc comme des ondes, tout en se comportant dans le même temps, comme indiqué ci-dessus, comme des particules.

Ce dispositif, ingénieux mais simple comme l'œuf de Christophe Colomb, obligera-t-il à revoir les lois de la physique quantique ? C'est apparemment ce que pense le prix Nobel Gérard 't Hooft, éditeur de la revue Foundations of Physics (vol 37, p. 295) où la nouvelle expérience de Shahriar Afshar est publiée (1). Dans notre article du 27 juillet 2004, nous évoquions certaines des conséquences que des esprits audacieux pensaient pouvoir déduire de l'expérience de Shahriar Afshar. Nous saurons sans doute bientôt s'ils maintiennent leurs déductions.

Sera-t-il ou non possible alors de sauver le soldat Niels Bohr ? Peut-être faudra-t- il pour ce faire en appeler à MCR, la Méthode de conceptualisation relativisée de Miora Mugur Schächter, qui permettrait précisément de « relativiser » les observations de ces divers expérimentateurs (2).

Notes
(1) Dans un article du 6 mai 2006, "Free will - you only think you have it", le NewScientist discute des implications de l'indétermination de la mécanique quantique sur la conception classique du libre arbitre. L'auteur évoque notamment les recherches de Gerard 't Hooft, Depuis plus de 10 ans, dit-il, 't Hooft a travaillé sur l'hypothèse qu'il existe une couche cachée de réalité à des échelles plus petites que la longueur de Planck (soit 10-35 m). Il a développé un modèle mathématique en ce sens. A ce niveau, selon 't Hooft, on ne peut plus décrire la réalité en termes de particules ou d'ondes. Il propose des entités énergétiques appelées "states". Celles-ci se comportent d'une façon déterministe, permettant en théorie de procéder à des calculs les concernant. Mais ces calculs montrent que les "states" individuels ne peuvent être identifiés que pendant environ 10-43 s. Après quoi ils fusionnent dans un état final qui recrée l'incertitude de la mécanique quantique. L'information les concernant est perdue. Il n'est donc plus possible de recréer leur histoire antérieure. Nous renvoyons à l'article pour la suite.
Disons seulement ici que, aussi intéressante que soit l'hypothèse de Gerard 't Hooft portant sur ce que l'on pourrait appeler des états sub-quantiques de la matière, elle ne peut actuellement faire l'objet d'observations expérimentales. Ce n'est donc pas sur elle que l'on pourra compter, dans un proche avenir, pour expliquer les bizarreries que Shahriar Afshar pense avoir mises en évidence par sa propre expérience.
2) Madame Mugur-Schächter, interrogée sur cette question, nous a fait parvenir la remarque suivante, dont nous la remercions: " Je dois dire que, personnellement, je n'ai jamais pris très au sérieux les différentes "impossibilités" annoncées à cris et à cors dans les sciences (j'ai invalidé des '" théorèmes d'impossibilité ", comme vous le savez). Notamment, le " principe " de complémentarité est, selon moi, ce que j'appelle " un faux absolu" : en fait, face à certaines manières d'opérer, on ne perçoit pas, à la fois, des caractères " corpusculaires " et des caractères " ondulatoires ", cependant que d'autres manières d'opérer pourraient, a priori, permettre - sinon de percevoir à proprement parler, du moins d'induire les deux types de caractères sur la base d'une seule expérience (comme le fait Afshar), ce qui est effectivement intéressant."

Pour en savoir plus
Notre article du 27 juillet 2004
http://www.automatesintelligents.com/labo/2004/juil/afshar.html
Le nouvel article du NewScientist en date du 17 février 2007
L' article du 6 mai 2006 du NewScientist en date du 6 mai 2006

Repost 0
JP Baquiast et Christophe Jacquemin - dans philoscience
commenter cet article
9 février 2007 5 09 /02 /février /2007 17:23

Article
Robert Laughlin. Nouvelles réflexions sur l'émergence
par Jean-Paul Baquiast
09/02/07

 


Le jardin de Monet. Les iris. Musée d'Orsay

La revue La Recherche présente dans son numéro 405 du mois de janvier 2007 un dossier intitulé "Emergence, la théorie qui bouscule la physique". Ce dossier comporte entre autres un article de Michel Bitbol et un interview de Robert Laughlin. Rappelons, pour la petite histoire des idées, que notre revue avait dès avril 2005 consacré un long article de présentation au livre fondateur de ce dernier, A Different Universe (Basic books, 2005) http://www.automatesintelligents.com/biblionet/2005/juin/laughlin.html 1).

L’article de Michel Bitbol présente un bon résumé de la problématique de l’émergence, considérée comme une alternative au réductionnisme. L’auteur s’y rallie sans ambiguïté à la thèse de Laughlin. Il nous semble cependant qu’il ne fait pas assez le lien avec la question du constructivisme telle qu’elle est abordée dans l’œuvre de Mioara Mugur-Schächter, souvent citée dans cette revue. Autrement dit, Michel Bitbol, qui pourtant connaît bien cette dernière, ne semble pas faire le rapprochement entre la façon dont un observateur « macroscopique » qualifie d’émergent un phénomène dont il ne connaît pas les hypothétiques lois profondes, (par exemple la superfluidité ou plus simplement la transformation de l’eau en glace) et celle dont un observateur du monde quantique qualifie les micro-états quantiques sur lesquels il a décidé d’expérimenter. Reprenons rapidement cette question, que nous avions abordée en détail dans notre article précité d’avril 2005.

Résumé de la présentation de Michel Bitbol

Michel Bitbol rappelle d’abord la thèse de Laughlin selon laquelle toutes les « lois de la nature » sont « émergentes ». A tous les niveaux d’observation que ce soit, physique, biologie, sociologie, etc. ces lois résultent d’un comportement d’ensemble des parties ou entités observées (atomes, cellules vivantes, individus et groupes sociaux…) et sont indépendantes des lois qui régissent les comportements de ces parties ou entités prises unes à unes. Ceci, encore une fois, à tous les niveaux d’observation que ce soit, y compris aux niveaux que nous estimons être les plus élémentaires. Il est donc vain de faire appel au réductionnisme pour expliquer les lois de la nature. Le réductionnisme en l’espèce consisterait, loi par loi, à rechercher celle qui régirait les entités hiérarchiquement inférieures afin de s’en servir pour trouver la loi régissant le fonctionnement des entités supérieures. Ainsi, pour le réductionnisme, le comportement des cellules pourrait être expliqué par celui des atomes dont elles sont faites, de même que celui des atomes pourrait l’être par celui des particules élémentaires qui les composent.

Depuis longtemps, les scientifiques avaient constaté qu’ils ne pouvaient pas utiliser l’approche réductionniste pour expliquer et prédire, mais ils avaient longtemps attribué cela à l’insuffisance de leurs instruments ou de leurs outils mathématiques, ceux-ci ne leur permettant pas de décrire, autrement que de façon probabiliste, le comportement des parties constituant un tout. Si bien que beaucoup d’entre eux ont mis leurs espoirs dans la physique des hautes énergies pour faire apparaître une loi ultime. Mais cette recherche de plus en plus coûteuse n’a pas abouti à ce jour. D’où le succès des premières théories émergentistes, dont Michel Bitbol présente l’historique dans la première moitié de son article. Il montre que, dans tous les domaines, l’hypothèse pourtant théoriquement irréfutable selon laquelle les phénomènes complexes résultent nécessairement de l’interaction entre les parties s’est révélée n’avoir qu’une portée philosophique puisqu’il n’était pas possible d’en tirer des conclusions utilisables en ce qui concernait la formulation de prédictions conformes aux observations.

Ainsi les phénomènes « complexes » caractérisant le comportement d’un Tout, par exemple celui d’une cellule vivante, ne peuvent pas être déduit de ce que l’on sait des comportements des atomes constituant cette cellule, à moins de les agréger en grandes quantités. Le biologiste est donc obligé de considérer que des lois nouvelles, que l’on dira émergentes, sont à l’œuvre dans la détermination des comportements complexes de la cellule. Toute sa science consistera à déterminer ces lois, le plus précisément possible, en fonction des instruments d’observation et des outils mathématiques dont il dispose. Les lois ne seront évidemment validées que si elles permettent de prédire des évènements vérifiables par l’expérience.

L’avènement de la mécanique quantique avait fait supposer que les diverses lois identifiées dans les différentes sciences s’intéressant aux niveaux supérieurs d’organisation de la matière, thermodynamique, mécanique classique, biologie, etc., dérivaient des lois quantiques. Mais celles-ci sont caractérisées par l’indéterminisme. On ne peut évaluer que les probabilités des valeurs des observables. On en a donc conclu qu’il n’était pas possible, jusqu’à ce jour, d’identifier une loi élémentaire permettant d’expliquer les lois émergentes. Cet indéterminisme, qui n’est pas remis en cause aujourd’hui, se répercute tout au long de l’échelle des complexités. Une loi émergente de niveau supérieure, celle concernant la vie, par exemple, ne peut être expliquée par les lois émergentes de niveau inférieur, celles concernant l’agencement des atomes et molécules par exemple, puisque celles-ci à leur tour ne sont pas des entités déterministes. On ne peut que constater l’existence des lois émergentes de tous niveaux. Selon le terme de Michel Bitbol, celles-ci sont « multiréalisables » ou « survenantes ».

Cette conviction était apparue, puis s‘était largement répandue, bien avant Laughlin. Quel est donc l’apport de ce dernier en matière d’émergence ? D’abord, pour lui, il s’agit d’une hypothèse qu’il convient de généraliser sans exceptions. Mais il a fait davantage. Il a montré, en créant le concept de « protection », que les lois émergentes restent stables même si leurs bases varient, c’est-à-dire qu’elles sont indépendantes non de ce qui se passe au niveau sous-jacent, mais du détail de ce qui s’y passe. Cela n’a rien de surprenant si l’on admet qu’elles résultent d’une moyenne de processus désordonnés dans une certaine catégorie d’objets matériels. Mais elles prennent aussi des formes semblables, analogues, quels que soient les substrats, matière macroscopique, matière condensée ou « matière fondamentale ». Ceci prouve le caractère universel de l’émergence. Dans son article, Michel Bitbol justifie le point de vue de Laughlin par des considérations qui éloigneront sans doute le lecteur non averti, concernant la théorie des champs et la renormalisation. Nous préférons, même s’il n’est pas très correct de se citer soi-même, reprendre ici ce que nous en disions dans l’article que nous avons consacré au livre de Robert Laughlin :

" Un mystère bien protégé "

" Si l'on considère qu'il est fondamental de comprendre comment fonctionnent les lois de l'organisation permettant à la complexité d'émerger, il faudrait rendre prioritaire l'étude de ces lois. Mais si cela n'a pas encore été fait, c'est pour différentes raisons que Robert Laughlin s'efforce d'aborder dans la suite de son livre. Un mécanisme qu'il appelle la protection permet à un système complexe de conserver un fonctionnement homéostatique même si ses composants tombent en panne ou manifestent des incohérences locales. Il s'agit d'une sorte d'aptitude à l'autoréparation qui est bien connue dans le vivant mais qui existe aussi dans les systèmes physiques naturels, y compris les plus élémentaires, comme la conservation de la stabilité de phase dans un métal ou un liquide. Mais ce mécanisme de protection présente un inconvénient pour l'observateur (The dark side of protection), c'est qu'il dissimule ce qui se passe exactement aux niveaux atomiques et sub-atomiques. Il faudrait pouvoir observer la matière à ces niveaux. Mais, comme on se trouve alors soumis aux règles de la physique quantique, l'observation détruit généralement ou transforme l'entité observée. On pourrait compter sur un phénomène général nommé l'invariance d'échelle pour extrapoler à partir de l'observation de petits échantillons comment pourrait se manifester l'émergence de nouvelles propriétés dans des échantillons plus grands (renormalisation). Mais les petits échantillons peuvent évoluer de multiples façons et rien ne garantit que cette évolution aboutira au type de complexité que l'on voudra expliciter dans un échantillon plus grand. Autrement dit, la renormalisation ne garantit pas la conservation du caractère étudié en cas de changement d'échelle. On parle alors de non-pertinence (irrelevance), ce qui signifie « condamné par les principes d'émergence à être trop petit pour être mesurable ».


Il est particulièrement pénalisant de ne pas pouvoir observer ce qui se passe dans les moments critiques correspondant aux transitions de phases, lorsque le système jusque là bien équilibré à la frontière de deux phases semble avoir du mal à prendre la décision de se réorganiser. Il apparaît alors un facteur causal qui grandit progressivement au point de devenir observable ou pertinent (relevant) et qui provoque le changement d'état. La protection initiale disparaît alors. Mais ce facteur effectivement causal est généralement dissimulé par de nombreux autres facteurs qui ne le sont pas. Ceci rend l'observation très difficile. Lorsque la protection devient instable, phase critique pour lui, l'observateur peut prendre pour un phénomène pertinent ce qui ne l'est pas et ne pas apercevoir la vraie cause du changement d'état qu'il voudrait mieux comprendre, afin de l'utiliser ou de mieux se prémunir contre ses effets. » .

Finalement, quelles conclusions Michel Bitbol nous incite-t-il à retenir de l’exposé qu’il fait de l’opposition entre réductionnisme et émergence ? Elles sont claires. Ou bien l’on continue à espérer que l’on pourra un jour édifier une théorie unifiée fondamentale exprimant les lois ultimes de la nature, aujourd’hui théorie des cordes ou des supercordes, à la poursuite de laquelle on engloutira beaucoup d’argent sans guère progresser 2)…Ou bien l’on admet qu’il n’existe pas de niveau fondamental à atteindre, ni de lois ultimes à formuler, ni même d’éléments au sens strict. C’est dans ce deuxième camp qu’il se range explicitement. Mais il précise que cette position n’a pas pour effet d’annuler l’intérêt des approches réductionnistes. Il est toujours possible d’unifier un certain nombre de lois en les considérant comme portées par une même base. Mais il ne faut plus se préoccuper alors du caractère ultime ou non de cette base (en se posant la question de son « existence »). Seule se pose une question de méthode : quelle base intermédiaire remplit le mieux sa fonction unificatrice ? Ainsi la théorie de l’émergence présente l’intérêt philosophique de transformer les questions ontologiques, relatives à l’existence ou non de lois fondamentales, en questions méthodologiques. On renonce à savoir ce qu’est la nature dans l’absolu. On s’intéresse seulement à ce qu’elle apparaît être ici et maintenant en fonction des recherches que l’on mène. Dans ce cas, ces recherches peuvent et doivent être poursuivies, à quelque niveau de complexité que l’on se place, aussi longtemps qu’il est possible de le faire car elles feront toujours apparaître du nouveau.

L’interview de Robert Laughlin, qui fait suite à l’article de Michel Bitbol, reprend les mêmes idées. Il rappelle que dans toutes les sciences, l’approche est « phénoménologique ». Ce qui est observé expérimentalement est utilisé pour reconstituer des lois physiques dites fondamentales, résultant davantage d’un travail d’observation et d’analyse que de prédiction. Ainsi l’univers ne serait que le produit d’évènements contingents liés à des modes d’auto-organisation de la matière. Pour Laughlin, il est tout autant impossible d’écrire les équations qui prédiraient la structure d’un grain de pop corn afin de simuler et prédire son explosion que celles intéressant un phénomène tel que le Big Bang.

Observations

Nous n’avons évidemment rien à reprendre à ce qui précède. Pour des commentaires plus détaillés, nous renverrons le lecteur à notre article de 2005. Tout au plus pourrions-nous faire ici quelques observations rapides.

La première concerne la possibilité de mathématiser les lois de la nature, fussent-elles émergentes. Il est certain que l’on ne peut mathématiser que ce que l’on peut observer. Stephen Wolfram montre que certains automates cellulaires peuvent évoluer pour donner des structures prodigieusement complexes à partir d’éléments simples sans qu’il soit possible d’observer de règles générales permettant de prédire cette évolution. Il n’est donc pas question d’élaborer une loi mathématique décrivant de tels phénomènes. D’une façon plus générale, comme la plupart des changements brutaux d’état, tel la transformation de l’eau liquide en glace, se produisent sans qu’il soit possible, en conséquence du « mécanisme de protection », de décrire exactement ce qui se passe, l’espoir de mathématiser de telles transitions doit être abandonné. Au contraire, à l’intérieur d’un niveau donné de complexité, il devient généralement possible d’observer des régularités et de donner à ces observations une forme mathématique. Les expressions mathématiques seront plus ou moins rigoureuses selon le degré de précision avec laquelle on peut observer les phénomènes, cependant elles joueront dans tous les cas un rôle utile. Si ce n’était pas le cas d’ailleurs, les mathématiques n’auraient pas été inventées et ne seraient jamais utilisées. Mais la description mathématique d’un système vivant sera nécessairement moins précise que celle d’un système mécanique ou planétaire.

Il résulte aussi de ce qui précède qu’aucune loi mathématique exprimant ce que l’on appelle des constantes fondamentales de l’univers ne pourra résister à des expériences la mettant en défaut. C’est le cas de la vitesse de la lumière. Robert Laughlin insiste sur le fait que cette vitesse, aussi fondamentale puisse-t-elle sembler aujourd’hui, est une émergence. S’il apparaît des endroits de l’univers où l’observation ne vérifiait pas la loi, il faudrait réviser la loi. Une autre représentation de la vitesse de la lumière émergerait. Encore faudrait-il que les expérimentateurs aient l’idée de mettre en défaut la loi et d’observer « les yeux ouverts » des phénomènes susceptibles de le faire. D’où l’insistance que met Laughlin à demander aux scientifiques de ne pas se laisser enfermer dans les lois admises à leur époque, comme s’il s’agissait de lois décrivant un prétendu univers fondamental. Il n’y a pas pour lui d’univers fondamental, il n’y a que des émergences, l’une pouvant chasser l’autre.

Une seconde observation concerne plus généralement le statut des lois scientifiques, qu’elles prennent une forme mathématique ou non. Pour Robert Laughlin, toutes les lois sont émergentes, y compris celles décrivant ce que l’on appelle les constantes fondamentales de l’univers. Soit, mais qu’est-ce à dire ? Qu’est-ce qui émerge, la loi ou le phénomène qu’elle est censée décrire. Pour les émergentistes, ce n’est pas le phénomène qui émerge, le phénomène a toujours été là. L’émergence se produit au niveau de l’observateur, qui prend conscience de quelque chose qui n’était pas jusqu’alors entré dans ses représentations. Mais cette prise de conscience par l’observateur ne correspond pas à une véritable observation, laquelle supposerait qu’un phénomène nouveau, observable et effectivement observé, soit apparu dans la nature. Elle correspond à un changement brutal dans la construction symbolique du monde que l’observateur avait généré en interagissant avec ce même monde. L’observateur, qu’il vaudrait mieux désigner par le terme d’observateur/acteur, comme le fait Mioara Mugur-Shächter, se trouve modifié en permanence par le fait qu’il interagit avec un milieu dont il est d’ailleurs partie. Ces modifications le conduisent à se représenter le monde autrement et ces nouvelles représentations prennent pour lui l’aspect d’émergences. A la question donc de savoir qui émerge quand on parle d’émergence, nous pourrions répondre selon cette façon de voir que c’est un nouvel état de l’observateur/acteur. Autrement dit, cet observateur/acteur se construit en permanence, d’une façon qu’il est obligé de constater sans pouvoir la prévoir et qui le surprend toujours car il ne peut pas observer de l’extérieur son processus d’auto-construction.

Nous terminerons par une troisième observation concernant la question des processus à l’œuvre dans les mécanismes d’émergence. On admet qu’ils sont identiques ou très voisins, quels que soient les domaines d’émergence. On les associe généralement aux mécanismes d’auto-complexification. Mais ce mot ne veut pas dire grand-chose. Pour les théoriciens de la théorie constructale, ces lois relèvent, en gros, de la thermo-dynamique c’est-à-dire de l’exploitation aussi économique que possible de l’énergie. Peut-être. Mais là encore, commencer à raisonner de cette façon conduit à supposer qu’il existe des lois en soi, relevant de la thermodynamique, lesquelles agissent indépendamment de l’observateur et que celui-ci est obligé de décrypter puis d'appliquer pour comprendre le monde. Si nous estimons au contraire que l’émergence résulte de l’interaction d’un observateur/acteur avec un monde non défini a priori, le processus d’émergence à étudier concernera la façon dont l’observateur/acteur intégrera de nouvelles constructions, résultant de son interaction avec le milieu, dans l’ensemble de celles résultant de ses activités antérieures.

Comme il n’est pas envisageable que n’importe quelle « observation » puisse être validée et incluse dans le corpus des constructions antérieures, il faut élucider les processus par lesquelles de nouvelles constructions seront effectivement validées et d’autres rejetées. On peut admettre que ces processus seront identiques ou voisins, à l’intérieur de grandes catégories d’observateurs/acteurs, humains, animaux ou végétaux en ce qui concerne les êtres vivants. Comme nous l’indiquions, il nous semble que le travail fondamental de Mioara Mugur-Schächter 3) donne des pistes très importantes pour expliciter ces processus, qui relèvent du constructivisme. Mais beaucoup de points nécessiteraient encore d’être explicités. Ceci admis, il n’y a pas de raison de penser que l’univers en soi imposera des limites absolues à la démarche constructiviste. Tout laisse penser au contraire que l’univers en soi s’il existe, sera très tolérant. Il n’imposera pas des constantes fondamentales ou autres frontières indépassables. Les entités auto-complexificatrices ou auto-constructives auront toute liberté, en fonction des acquis de leurs auto-constructions précédentes, individuelles ou collectives, pour approfondir sans cesse ce qu’elles appelleront leurs connaissances, c’est-à-dire leur nature même. Autrement dit, de nouvelles lois émergentes pourront sans cesse être mises en évidence. Mais ce ne seront pas des lois décrivant l’univers. Elles décriront l’état d’avancement de l’auto-construction définissant l’observateur/acteur, domaine par domaine. Dans cette optique, la nature, qu’elle soit représentée ou non par le monde quantique, se comportera effectivement comme un puits sans fond.

Faut-il alors continuer à engloutir des milliards dans des accélérateurs de particules géants, à la recherche d’une loi fondamentale qui marquerait l’existence d’un fond au-dessous duquel il ne sera plus possible de descendre, et dont l’on pourrait remonter triomphalement, comme l’imaginent les réductionnistes, pour comprendre les étages supérieurs, plutôt qu’étudier à moindres frais des phénomènes plus banaux tels que la superfluidité ? Disons dans l’optique de l’émergence, que de tels accélérateurs pourront provoquer des phénomènes inattendus et actuellement imprévisibles. Ceux-ci, à condition que l’on sache les voir, pourront faire apparaître de nouvelles lois émergentes et suggérer de nouvelles hypothèses. Mais en aucun cas, ils ne révèleront le fond. C’est bien ce qu’avait compris les physiciens des particules il y a trente ans quand ils parlaient d’un phénomène de boot-trap ou tire-bottes. Les expériences sur les particules de haute énergie en faisaient apparaître toujours de nouvelles, au désespoir des théoriciens. Rien n’a changé depuis semble-t-il.

Robert Laughlin utilise dans son interview l'oeuvre « Le Jardin de Monet, les Iris » comme l’illustration d’un phénomène complexe émergeant à partir d’objets élémentaires auxquels il n’est pas réductible. Ce tableau n’exprime pas l’émergence d’un jardin ni même d’une représentation de jardin. Il exprime l’émergence du Monet tel qu’il était au moment où il l’a peint, c’est- à--dire au stade qu’il avait atteint à ce moment précis de son processus d’auto-construction. Bien plus, il exprime aussi l’émergence de l’état qui est le nôtre quand nous percevons ce tableau. On pourrait imaginer que d’innombrables autres Monet auraient pu succéder au premier, par émergence, construisant d’innombrables autres tableaux, avec des millions d’amateurs d’art émergeant à la suite de ces divers Monet, sans que jamais l’univers « en soi », véritable puits sans fond en l’espèce, n’impose de limites au processus d’auto-construction pictural ainsi engagé. C’était peut-être d’ailleurs ainsi que Monet, avec ses célèbres suites, concevait intuitivement son art, c’est-à-dire son rapport au monde.


Notes

1) Cet article est dans le peloton de tête des références de Google, au nom de Robert Laughlin, tant pour l’édition française que pour l’anglaise. La Recherche ne le cite pas, mais faut-il s’en étonner ?
2) Comme le déplore Lee Smolin dans son dernier livre « The Trouble with Physics ».
3) Mioara Mugur-Schächter, "Sur le tissage des connaissances" Hermès-Sciences 2006. Voir http://www.automatesintelligents.com/biblionet/2006/sep/mms.html

 

Repost 0
15 janvier 2007 1 15 /01 /janvier /2007 17:48

Couverture du liver "Le nouvel inconscient" par Lionel NaccacheLe nouvel inconscient
Freud, Christophe Colomb des neurosciences

par Lionel Naccache

Editions Odile Jacob - octobre 2006


présentation et commentaires de Jean-Paul Baquiast
3 janvier 2007


Introduction

Si l'on interprète convenablement les propos de Lionel Naccache, une des raisons qui l'ont conduit à rédiger le livre remarquable que nous vous présentons dans ce numéro se trouve dans son admiration pour Freud et pour l'extraordinaire courage intellectuel du père de la psychanalyse. Mais paradoxalement, le livre démontre – définitivement pensons-nous - que les hypothèses auxquelles le dernier Freud tenait le plus, celles de l'inconscient et du refoulement, ne peuvent plus aujourd'hui se voir accorder de caractère scientifique. Beaucoup le savaient déjà mais le groupe de pression des psychanalystes est si puissant qu'une nouvelle démonstration n'est pas de trop. Si Freud reste encore d'actualité pour ceux qui s'intéressent au fonctionnement de l'esprit, nous dit Lionel Naccache, c'est parce son œuvre peut offrir aux neurosciences des pistes pour explorer non seulement l'inconscient, mais la conscience. Voici donc Freud, horresco referens pour ses thuriféraires, proposé comme découvreur du territoire de l'ennemi.

Comme le sous-titre du livre l'indique, l'auteur veut nous montrer que Freud n'a pas prouvé l'existence du continent qu'il pensait avoir exploré, celui de l'inconscient (dit aujourd'hui freudien pour le distinguer du tout venant de l'inconscient), mais qu'il a fait bien mieux. Sans s'en rendre probablement compte, il a jeté les bases d'une exploration entièrement renouvelée d'un territoire ancestral que l'on pensait à tort entièrement connu, la conscience.

Mais le lecteur ne sera pas dupe. Ce n'est pas à Freud et moins encore aux Freudiens qu'il faut attribuer le mérite de ce nouveau regard sur la conscience. C'est aux scientifiques qui, comme Lionel Naccache, font l'effort de proposer des descriptions du mental conjuguant les enseignements de l'imagerie fonctionnelle appliquée au cerveau et les observations cliniques conduites dans les services neurologiques hospitaliers. L'auteur est expert dans ce double domaine car, refusant les facilités de la spécialisation disciplinaire, il a choisi d'emblée deux carrières parallèles, l'une en neurosciences cognitives au sein de l'équipe Neuro-imagerie cognitive de l'Inserm dirigée par Stanislas Dehaene, et l'autre dans les services neuro-psychiatriques de la Pitié Salpétrière à Paris. On sait concernant l'unité de recherche de l'Inserm qu'elle a repris et développé l'essentiel des travaux de Jean-Pierre Changeux, aujourd'hui professeur au Collège de France. Celui-ci fait depuis longtemps autorité au plan mondial pour la compréhension matérialiste (autrement dit moniste) des relations entre le cerveau et le mental.

Pour ce qui concerne notre revue, nous ne considérons pas que la psychanalyse soit une discipline à ignorer. Mais force est d'admettre qu'elle n'entretient (pour le moment encore) que des liens épisodiques avec ce qui fait l'essentiel de nos préoccupations éditoriales, les études portant sur les systèmes intelligents autonomes, qu'ils soient biologiques ou artificiels. Ce sont donc les éclairages apportés par Le Nouvel inconscient à l'étude de la conscience qui nous paraissent d'abord mériter l'attention de nos lecteurs. Jusqu'ici, nous avions présentés et commentés les travaux des scientifiques de langue anglaise, en ne faisant qu'une part sans doute insuffisante aux publications des chercheurs français, hors Jean-Pierre Changeux précité et Alain Berthoz. La raison de cette différence de traitement ne tient pas à un préjugé couramment répandu selon lequel il n'est de bonne science qu'américaine. Elle provient du fait que les scientifiques français ne jugent généralement pas utile de faire connaître leurs travaux à un public généraliste. Il est donc difficile de parler d'eux dans une publication qui ne prétend pas au statut de revue scientifique spécialisée.

Ceci constitue une raison suffisante pour que nous saluions le livre de Lionel Naccache. Celui-ci nous semble, sauf erreur, être le premier ouvrage français amorçant une théorie générale de la conscience qui tienne compte des recherches les plus récentes. Le fait vaut la peine d'être évoqué. Pour être exact, nous devons cependant ajouter que des travaux souvent évoqués dans notre revue, ceux de Alain Cardon dans le domaine de la conscience artificielle et ceux de Gilbert Chauvet esquissant une théorie générale de la vie, abordent aussi avec beaucoup de pertinence semble-il la question de la conscience humaine, même s'ils ne s'appuient pas sur la richesse des observations en imagerie fonctionnelle et en clinique dont dispose Lionel Naccache.

La composition du livre est originale. Il se déroule comme un long fleuve tranquille. On le suit sans savoir exactement où il va nous mener. Mais on découvre au détour de ses méandres des points de vue inattendus qui s'additionnant construisent finalement un paysage d'une richesse et d'une originalité remarquable. Les questions que l'on pouvait se poser à l'occasion de la lecture des premiers chapitres, dont on pensait que l'auteur ne voulait pas ou ne pouvait pas traiter, trouvent les unes après les autres des réponses. Le livre se lit donc comme un roman d'aventure ou de découverte, révélant une architecture sous jacente digne d'un véritable manuel universitaire. Ajoutons que la lecture est facilité par un style familier qui sans esquiver les difficultés techniques ne les rend pas rebutantes.

Nous présenterons d'abord ici les deux principales thèses du livre, qui réunies font toute son originalité. Nous évoquerons ensuite quelques perspectives non abordées par l'auteur qui, espérons-le, pourraient prolonger ses propos.

1. Présentation

En résumant beaucoup le propos du livre, nous pourrions dire qu'il s'articule autour de deux thèses complémentaires :
1. L'inconscient freudien n'existe pas. Plus exactement, ce n'est pas un concept scientifique. A proprement parler, en termes scientifiques, le terme n'a pas de sens.
2. La conscience, propriété émergente principalement développée chez les individus humains, ne donne pas d'emblée des informations objectives sur le monde. Elle permet par contre au sujet conscient de créer un monde virtuel dans lequel un Je lui-même émergent se met en scène. Elle fonctionne donc sur le modèle d'un vaste jeu vidéo à multiples partenaires.

Un nombre considérable d'écrits, polémiques ou à prétention scientifique, ont été produits sur chacune de ces deux thèses prises séparément. Mais c'est leur articulation dans une démonstration globale qui donne toute sa portée au livre et lui confère un caractère, non plus cette fois polémique, mais, à notre sens, indiscutablement scientifique et novateur(1).

1.1. L'inconscient freudien n'existe pas

Rappelons sans insister que par inconscient freudien, nous appellerons ici tout ce qui fait l'essentiel de la doctrine développée par Freud dans la seconde partie de sa vie, et qui fait l'objet depuis d'innombrables discours et essais de mise en pratique thérapeutique : chaque homme hébergerait une part de psychisme à jamais inconsciente, formée dès les premiers mois de son existence, et qui gouvernerait pour le meilleur et pour le pire l'essentiel de sa vie consciente adulte. Cet inconscient serait interdit d'accès, tant au sujet lui-même qu'aux tiers, notamment par le refoulement. Mais il gouvernerait très largement la vie psychique et même biologique du sujet. Il s'agirait d'un véritable homonculus doublant le sujet, qui prendrait en sous-main, derrière l'apparent pilote humain, toutes les décisions nécessaires au pilotage de celui-ci au travers des complexités de son environnement.

Or, les neurosciences modernes, nous rappelle Lionel Naccache, sont incapables de démontrer l'existence d'une telle entité. Mieux vaut donc si l'on veut conserver un discours scientifique, la rayer à jamais de son vocabulaire. Nous ne reprendrons pas ici les nombreuses observations présentées par l'auteur, résultant tant de l'exploration fonctionnelle du cerveau que de la neuropsychologie clinique. Elles montrent l'impossibilité de mettre en évidence de façon un tant soit peu consistante l'existence d'objets mentaux inconscients correspondant à l'inconscient freudien et aux divers phénomènes tel le refoulement supposés l'affecter. De même, ces expériences montrent qu'il est rigoureusement impossible de prouver l'existence d'opérateurs inconscients réalisant des traitements sémantiques inconscients (saut peut-être dans la manipulation des nombres). Un traitement sémantique, en terme de procédure informatique, consiste à comparer les contenus des données au lieu de se limiter à leur appliquer des algorithmes linéaires de type arithmétique. Dès qu'un traitement sémantique apparaît dans l'ordre du mental, supposant par exemple le choix entre deux valeurs, il est possible de mettre en évidence l'intervention d'un opérateur conscient qui lui donne sa signification.

Mais ceci ne veut pas dire que l'inconscient en général n'existe pas. Au contraire. C'est une banalité de rappeler que tous les êtres vivants, de la cellule à l'être humain, sont pour l'essentiel des machines inconscientes. Les êtres vivants sont pilotés par d'innombrables systèmes de type sensori-moteurs (ou stimulus-réponse) résultant de leur évolution darwinienne pour la survie. Ces systèmes sont le produit de l'évolution génétique de chaque espèce et de l'évolution culturelle de chaque individu au sein des groupes propres à son espèce. L'inconscient constitue donc ce que nous pourrions appeler le mode de fonctionnement par défaut de toutes les espèces vivantes.

De l'inconscient mode de fonctionnement par défaut au conscient, mode de fonctionnement de niveau supérieur

Il arrive cependant, dans les espèces dotés d'un système nerveux central suffisamment complexe, qu'un certain nombre de sous-systèmes dotés de capteurs et d'effecteurs fonctionnant dans des registres spécialisés puissent communiquer des informations à un organe centralisateur, le cerveau. Celui-ci peut alors dresser un tableau de bord d'ensemble symbolisant le fonctionnement de l'organisme au sein du milieu où il opère. Le rapprochement et la synthèse à tout instant des informations constituant ce tableau de bord fournit une représentation intégrée du système qui permet en retour d'influencer un certain nombre des sous-systèmes sensoriels et moteurs afin de les adapter en temps réel aux exigences de la survie globale de l'individu. Les décisions qui sont prises sont mieux informées que si elles découlaient de réponses non coordonnées.

On pourra appeler conscience la fonction produisant ce tableau de bord et ce pilotage intégré, dont la valeur adaptative est évidente. Seule la conscience permet les traitements sémantiques ou de valeur, puisqu'elle rapproche des informations d'origine différentes qui doivent être agrégées et mises en perspective. Nous verrons plus loin qu'il faudrait pour se conformer à un discours général distinguer une conscience primaire très répandue chez les êtres vivants et une conscience supérieure, supposant l'élaboration d'un Je, qui semble limitée à l'homme et quelques mammifères supérieurs. Mais l'auteur ne fait pas cette distinction. Ce qu'il énonce relativement à la conscience concerne le plus souvent la conscience supérieure. Suivons le en cela pour le moment.

Nous ajouterons pour notre part que si cette nouvelle fonction adaptative nommée conscience ou conscience de soi est évidente chez l'homme, il n'y a pas de raisons d'exclure qu'elle puisse exister sous des formes plus ou moins simples ou différentes au sein de nombreuses autres espèces. L'intelligence artificielle évolutionnaire s'efforce actuellement de la faire apparaître au sein de populations de robots dits autonomes. On s'étonnera de voir employer le concept de traitements conscients de type sémantique s'agissant de robots. Mais c'est précisément l'objet de la conscience artificielle que donner à des robots autonomes la capacité de traiter des intentions et des valeurs au lieu de les maintenir confinés dans des procédures informatiques linéaires.

Chez l'homme, la conscience s'est développée d'une façon extraordinaire du fait de l'apparition du langage symbolique complexe. Pour Lionel Naccache, elle est liée au langage. Sans langage il ne peut y avoir de conscience supérieure. On peut en discuter. Quoi qu'il en soit, l'explosion du langage symbolique, qui semble corrélée à celle du cortex et que beaucoup de linguistes évolutionnaires s'expliquent mal (voir ci-dessous) ne s'est pas produit avec cette ampleur dans les autres espèces animales, même lorsque certaines d'entre elles ont généré des langages spécifiques simples pouvant induire des états de conscience eux-mêmes simples.

Ajoutons qu'il faudrait selon nous considérer d'une part la production de la conscience individuelle par un mécanisme quasi standard propre à chaque individu, et d'autre part la production de consciences collectives résultant de l'échange et de la mise en commun d'un certain nombre des données composant les consciences individuelles (tableaux de bords individuels) au sein des groupes sociaux. Les mécanismes générant des états de conscience collective sont très divers et mal étudiés. Le moi social résultant du fonctionnement de la conscience sociale, que ce soit dans les groupes humains ou chez les animaux dotés de rudiments de conscience, peut rassembler et conserver les faits de conscience individuels sélectionnés sur le mode darwinien comme importants pour la survie, tant du groupe que des individus. Constituant une structure d'information permanente, la conscience sociale sert aussi à informer les consciences individuelles au moment de leur élaboration chez les jeunes individus puis tout au long de la vie de ceux-ci. Dans les sociétés scientifiques, c'est elle qui mémorise et redistribue les contenus de connaissances produits par les activités scientifiques et technologiques.

Lionel Naccache détaille la façon dont le système inconscient cohabite avec le système conscient. La commande inconsciente n'est pas limitée aux couches de basse complexité de l'organisme (les systèmes dits réflexes) décrits par le neurologue britannique J.H. Jackson à la fin du 19e siècle, tandis que la commande consciente s'épanouirait dans les couches de haute complexité, au sein notamment des six couches neuronales constituant le cortex associatif humain. Tout au contraire, la commande inconsciente est répartie au long de l'architecture hiérarchique des fonctions mentales. Il en résulte que nécessairement, un certain nombre d'entrées/sorties sensori-motrices inconscientes affectent la production des faits de conscience et peuvent en retour être affectées par ceux-ci. Il s'agit des liens innombrables qu'étudie par exemple la médecine afin d'expliciter les influences réciproques du mental et du physique. Mais Lionel Naccache montre que les conditionnements inconscients n'ont rien à voir avec ceux dont l'inconscient freudien fait l'hypothèse. Ils ne peuvent pas non plus être modifiés par les méthodes de l'analyse freudienne. Exeunt donc dans cette description moderne de l'inconscient, tant J.H. Jackson, que nous pourrions qualifier de neurologue primaire, que Freud dont le rêve avait pourtant été d'échapper à l'analyse neurologique primaire.

Le siège de la conscience

On sait qu'aujourd'hui, les neurosciences cognitives, de même qu'elles évacuent l'hypothèse d'un inconscient localisé dans les couches basses du système nerveux, ont évacué celle d'une localisation précise de cette fonction associative supérieure qualifiée de conscience ou conscience de soi. Cette dernière est une propriété (émergente) résultant de la coopération de nombreuses aires cérébrales et réseaux de neurones en relation avec des systèmes sensori-moteurs. La conscience ne peut donc être localisée avec précision dans le cerveau, encore que l'on sache que sa capacité à émerger disparaît lorsque certaines aires cérébrales sont détruites. Même si elle n'a pas de siège à proprement parler, la conscience résulte nécessairement d'un processus de traitement coopératif d'un certain nombre d'informations mentales, supposant lui-même une organisation neuronale spécifique. Tout cela ne surprendra pas les informaticiens. Lionel Naccache rappelle que les hypothèses actuelles désignent du terme générique d'espace de travail global conscient(2) l'ensemble des neurones spécialisés, massivement interconnectés et réentrants, permettant de créer à tous moments ce que nous pourrons appeler des faits ou états de conscience. Ceux-ci (ou plutôt les assemblées de neurones qui les matérialisent) sont en compétition darwinienne continue pour élaborer l'état de conscience globale, lequel s'exprime seul à l'extérieur, quitte à être modifié constamment par de nouvelles entrées.

Lionel Naccache ne se borne pas à poser le concept d'espace de travail global conscient. Il en donne une courte description anatomique et fonctionnelle. Celle-ci comme nous l'indiquerons dans la seconde partie de cet article, aurait méritée d'être développée, mais elle suffit pour convaincre le lecteur du fait que rien dans une telle organisation ne peut justifier l'hypothèse d'un inconscient freudien non plus que celle selon laquelle ce dernier, refoulé ou non, pourrait influencer la production de faits de conscience résultant du fonctionnement dudit espace de travail global.

1.2. La conscience comme un jeu vidéo

Ayant précisé ce qu'il conviendrait aujourd'hui d'entendre par inconscient, Lionel Naccache entreprend une tâche plus ardue, préciser ce que par différence pourrait être la conscience. Il n'hésite pas pour ce faire à bouleverser les approches classiques de cette faculté si souvent et parfois si mal décrite. La fonction principale de la conscience consiste selon lui à créer au profit du sujet conscient un monde virtuel dans lequel un modèle de ce sujet simule un comportement lui permettant d'optimiser ses chances de survie. La formulation que nous donnons ici n'est pas exactement celle proposée par Lionel Naccache mais elle nous parait s'imposer à la lecture de la description qu'il fait de l'espace de travail global conscient et de son rôle fonctionnel.

La première question que se pose les cognitivistes de la conscience concerne la raison pour laquelle cette fonction complexe a été sélectionnée par l'évolution. D'innombrables organismes, telles les bactéries, peuvent survivre sans elle. La réponse couramment donnée peut être résumée par l'image du tableau de bord d'un avion de combat, que nous avons précédemment évoquée. Le sujet conscient, tel un pilote de Rafale, dispose « sous le casque », en temps réel, d'un certain nombre de paramètres agrégés et de signaux d'alerte qui lui permettent de prendre les meilleures décisions globales in situ et tempore. Dans certaines situations d'urgence les décisions sont même prises automatiquement à la place du pilote. Celui-ci n'est donc pas obligé d'attendre passivement que les événements se produisent pour réagir aux signaux d'alerte qu'émettent ses différents capteurs.

Mirage 2000-5 survolant le porte-avion Charles de Gaulle

Mirage 2000-5 survolant le porte-avion Charles de Gaulle. Source: http://rafale-f2.france-simulation.com/

Mais la conscience n'est pas seulement un tableau de bord donnant des informations agrégées. Elle est organisée, pour reprendre l'exemple du pilotage du Rafale, comme un simulateur de vol. On sait que les simulateurs de vol, qui sont les produits les plus élaborés de la "réalité virtuelle", ne mettent pas en scène des images du monde extérieur, telles qu'elles pourraient par exemple être captées par des caméras embarquées. Ils proposent un environnement entièrement reconstruit par le calcul au sein duquel agit, virtuellement, un sujet lui-même reconstruit sous forme d'"avatar". L'avantage d'un tel dispositif est de donner à l'utilisateur du simulateur accès à des mondes virtuels ou futurs bien plus riches que ceux résultant de l'observation réelle. D'innombrables situations possibles ou "histoires" peuvent ainsi être élaborées de façon économique. Dans le domaine de la conscience, si ces paramètres comportent des données décrivant un peu largement l'univers avec lequel interagit le sujet, si par ailleurs le système permet des retours historiques et des prévisions pour le futur, le sujet conscient pourra simuler son avenir et élaborer des stratégies qui là encore amélioreront (globalement) ses chances de survie adaptative. Si enfin le tableau de bord comporte un simulacre ou avatar du pilote (ou de l'avion personnifiant le pilote) qui le représente en situation, ledit pilote se verra ainsi constamment rappelé à la vigilance et à la nécessité d'anticiper le futur probable.

Le libre arbitre fait partie des histoires développées par le simulateur

C'est ce service que rend la conscience au sujet conscient en le positionnant comme principal acteur de toutes les histoires possibles. Le tableau de bord qu'offre la conscience est d'autant plus efficace qu'il comporte un avatar du sujet conscient doté en apparence d'une capacité étendue de libre décision, ce qui permet au système de simuler des événements non routiniers au regard desquels il pourra tester ses facultés d'adaptation. Le fait que la décision effective du sujet véritable soit déterminée importe peu si ce sont des facteurs préalablement testés virtuellement comme les plus adaptés aux exigences de la survie qui entraînent la décision.

Pour que ce mécanisme fonctionne, le sujet doit se croire libre d'imaginer le futur avec le minimum de contraintes. D'où l'utilité fonctionnelle du concept de libre arbitre, accompagnant généralement celui de conscience. Si les simulations n'offraient pas de possibilité de choix, mais se bornaient à répéter que les décisions sont déterminées, le sujet conscient ne ferait aucun effort pour échapper aux déterminismes qu'il subit ici et maintenant afin d'imaginer des déterminismes futurs aujourd'hui inconnus de lui qui pourraient effectivement modifier le cours de son évolution. Un élève-pilote confronté à un simulateur de vol se trouve exactement dans la même situation. Si son instructeur lui disait qu'il ne peut rien imaginer ni inventer, il ne chercherait pas à se comporter en agent pro-actif. Mais les termes de l'invention et les résultats produits résultent du fonctionnement émergent du système. Ils ne proviennent pas d'un hypothétique ailleurs.

Il n'est pas utile de souligner que la formulation qui précède est de type matérialiste. Elle refuse le dualisme qui postulerait l'existence d'un sujet extérieur au cerveau lequel se servirait de la conscience pour actionner le corps Nous pensons que Lionel Naccache, bien que se situant dans la tradition de la pensée juive, est matérialiste. Pour lui comme pour tous les cogniticiens évolutionnaires, la conscience est une propriété émergente résultant de la réunion d'un certain nombre de conditions favorables, notamment la présence de sous-systèmes sensori- moteurs capables d'échanger des informations au travers de neurones associatifs. Les multiples traitements réalisés en compétition au sein de l'espace de travail conscient font à leur tour émerger des contenus de conscience fédérateurs, notamment celui du Je. Le Je est une information qui sert de référence à l'ensemble des contenus de conscience puisque ceux-ci ne prennent leur sens que par rapport à lui. Mais le Je n'agit pas sur le mode volontariste. D'où tiendrait-il en effet l'autonomie de sa volonté ?

Inutile d'ajouter que la définition matérialiste et déterministe de la conscience est classique aujourd'hui chez la plupart des cognitivistes, pour qui la conscience n'est jamais causale, en ce sens qu'elle n'intègre pas une fonction permettant au sujet de prendre des décisions en dehors de toute cause préalable. Le libre arbitre n'a pour le moment aucun sens scientifique, même s'il reste professé par l'ensemble des religions, comme par beaucoup de philosophes. Cependant, de façon également classique, Lionel Naccache rappelle que la décision résultant d'une pondération entre différents déterminismes est plus « intelligente », c'est-à-dire plus apte à une bonne adaptation, que celle résultant d'une obéissance passive à des déterminismes immédiats surgissant en séquence.

Par contre, il innove sensiblement par rapport aux théoriciens de la conscience en introduisant le concept de monde virtuel. Celui-ci serait le principal produit de la conscience. La conscience générerait un univers de symboles analogue à celui utilisé dans les simulateurs, professionnels ou ludiques (jeux électroniques). Cet univers représenterait à partir des signaux reçus des multiples capteurs et effecteurs sensori-moteurs constituant l'organisme, le monde complexe dans lequel le sujet, simulé lui-même sous la forme de son avatar, jouerait des scénarios lui permettant d'imposer des intentionnalités à des données qui sinon resteraient sans significations utiles pour lui.

La conscience ne peut prétendre au « réalisme »

Le concept de scénario simulé n'est évidemment pas nouveau non plus. On sait bien qu'un prédateur se représente ainsi l'acte de chasse ou qu'un sujet humain imagine les épreuves ou les satisfactions que la vie lui réserve. Mais Lionel Naccache va très loin dans le sens de la déréalisation (ou non-réalisme) des contenus de conscience. On estime généralement que la conscience fournit au sujet des représentations relativement fidèles du monde réel qui l'entoure. Elle serait donc « réaliste ». Lionel Naccache adopte au contraire, nous semble-t-il, une hypothèse de plus en plus répandue en épistémologie de la connaissance, selon laquelle la connaissance, fut-elle scientifique, ne renvoie pas à des objets du monde en soi (réalisme des essences) mais à des relations chaque fois spécifiques entre observateur-acteur, entité observé et instruments. On parle alors de relativisme des connaissances.

Mais toutes les connaissances n'ont pas la même valeur. La conscience peut colporter des connaissances non rationnelles comme des connaissances plus ou moins rationnelles. Les jugements émanant de la conscience de sujets dotés d'une vaste culture scientifique sont évidemment plus pertinents que ceux émanant d'un esprit inculte, car ils renvoient à une expérience antérieure collective sélectionnée par l'évolution. Les connaissances expérimentales scientifiques se distinguent en effet des connaissances pré-scientifiques de type empirique et plus encore des jugements à l'emporte-pièce par le fait qu'elles résultent d'un consensus universel provenant de la communauté scientifique. Ce consensus est lui-même remis en cause en permanence par de nouvelles hypothèses ou observations dûment validées.

Peu importe que la psychanalyse n'ait pas de bases scientifiques

On pourrait donc penser que plus le psychothérapeute sera informé scientifiquement, plus riche sera sa relation avec son patient. Mais ce n'est pas nécessairement l'avis de Lionel Naccache. C'est en partant d'une définition relativiste de la connaissance consciente qu'il retrouve le lien entre les neurosciences et la psychanalyse. Peu importe, nous dit-il, que tout l'appareil conceptuel mis au point par Freud et jalousement glosé par ses disciples n'ait aucune valeur scientifique. Le psychanalyste pourrait aussi bien s'en débarrasser ou inventer des mythes tout différents. Ce qui importe pour que la relation avec l'analysant ait un effet thérapeutique – à supposer que ce soit le cas - est que la conscience de celui-ci puisse inventer des histoires et que ces histoires soient confrontées avec celles qu'inventera de son côté - quitte à n'en pas parler - le psychanalyste. Alors ce dernier, sans imposer ni des certitudes prétendument scientifiques comme le ferait un psychiatre classique, ni ses propres histoires, construira avec l'analysant un jeu de rôle virtuel à deux où ils échangeront leurs stratégies. Dans ce cas, l'analysant pourra sortir de l'enfermement des scénarios qu'il s'était inventé avant la cure et s'ouvrir à un dialogue virtuel où les mécanismes de prise de conscience des signaux signalant l'existence du monde extérieur pourraient reprendre de l'activité. En paraphrasant l'auteur, nous pourrions dire qu'une fiction partagée à deux redevient source de liberté.

On objectera que la formulation qui précède est inutilement compliquée. Il aurait suffit de rappeler la constatation souvent faite selon laquelle le dialogue avec un tiers, voire la simple écoute, peut faire du bien à un angoissé. De plus, elle ne justifie plus les longues études (et les honoraires y afférents) par lesquelles les psychanalystes prétendent se distinguer des autres psychothérapeutes. Mais Lionel Naccache répondra sans doute que mieux valent des thérapies psychologiques fussent-elles privées de fondements scientifiques indubitables que pas de thérapies du tout. Par contre, là où de telles thérapies deviennent dangereuses, c'est quand elles imputent à des causes psychologiques des dérèglements relevant principalement de troubles neurologiques à fondement génétique. C'est ce qui s'est passé récemment dans l'interprétation des causes de l'autisme chez l'enfant.

2. Commentaires et questions

Nous ne pouvons faire reproche à un ouvrage déjà long et riche de nombreux développements auxquels nous n'avons pas pu ici faire allusion de se pas s'être suffisamment référé à ce que nous pourrions appeler la science des systèmes complexes évolutionnaires(3). Toutefois nos lecteurs nous reprocheraient de ne pas avoir signalé un certain nombre de points qui mériteraient selon nous d'être développés dans des présentations et surtout dans des travaux ultérieurs.

Dans cet esprit, nous distinguerons deux catégories de questions différentes : celles que pose la psychologie traditionnelle, qu'il s'agisse ou non de la psychanalyse, et celles qui surgissent de la prise en considération des nouvelles sciences dites de la complexité. Dans les deux cas, nous nous interrogerons sur la façon de traiter ces questions en restant fidèle à l'esprit du livre de Lionel Naccache (tel du moins que nous l'avons interprété), c'est-à-dire au regard des apports des neurosciences modernes à la compréhension des mécanismes de la conscience.


2.1.Questions du domaine de la psychologie

Nous rangerons dans cette catégorie un certain nombre de questions qu'à la lecture du Nouvel inconscient vont continuer à se poser les lecteurs, et sans doute en premier lieu les psychologues et thérapeutes, qu'ils se réfèrent ou non à la psychanalyse. L'auteur aurait certainement des réponses à leur apporter mais dans le cadre de ce premier livre, il n'a pu le faire à notre goût de façon suffisamment explicite. On sera particulièrement attentif pour l'avenir, évidemment, non à des réponses inspirées de la psychologie traditionnelle, mais à celles élargissant le champ en faisant intervenir les neurosciences cognitives.

Le statut de la conscience primaire

Nous avons signalé que Lionel Naccache ne distingue pas les deux niveaux de conscience généralement évoqués par les spécialistes de la conscience : la conscience primaire, qui semble très répandue chez les animaux disposant d'une certaine complexité et la conscience supérieure, qui serait réservée aux hommes et à quelques rares mammifères. Cette dernière se caractérise par la conscience de soi, ou le Je. Elle seule aurait besoin du langage symbolique pour apparaître. Mais est-ce exact ? La conscience de soi sous sa forme primaire n'existe-t-elle pas sous des formes intuitives ou pré-verbales, chez tous les organismes vivants dotés d'une capacité à se représenter de façon intégrée ou unitaire. C'est elle qui s'active lorsque nous réagissons par l'évitement à l'intrusion d'un tiers dans notre espace corporel de sécurité, avant même que nous ayons pu analyser le type de menace pouvant représenter cette intrusion. Il ne s'agit sans doute pas d'un simple réflexe mais de quelque chose de plus complexe. Pourquoi n'en pas suspecter l'existe, par exemple chez un oiseau ou même un arthropode ?

Si cela était le cas, le psychisme comporterait un grand nombre de couches qui ne seraient pas directement accessibles à la conscience supérieure et qui pourtant joueraient un grand rôle dans notre existence. C'est sans doute ce niveau de représentations que Freud désignait par le concept de pré-conscient. Ce préconscient est-il durablement opaque à l'analyse consciente ou pourrait-il au contraire entrer après apprentissage dans la sphère du conscient ? On serait en tous cas tenté de considérer que, même s'il ne se confond pas avec le prétendu inconscient freudien, il s'en rapproche beaucoup et mériterait donc des études approfondies.

Le statut des souvenirs

Certains neurologues considèrent que, par sa richesse neuronale et synaptique, le cerveau mémorise sans peine une représentation de tous les événements qui affectent un humain. Ces «objets mentaux» ainsi mis en mémoire permettraient au cortex associatif de caractériser un évènement nouveau. Informé de la survenue d'un tel évènement, le cortex formulerait une prédiction relative à la proximité entre celui-ci et l'un des événements mis en mémoire. Seuls seraient analysés au niveau des couches corticales supérieures les événements n'ayant pas de précédents disponibles en mémoire. Ce mécanisme fonctionnerait en permanence mais ne deviendrait conscient que dans ce dernier cas. Rien n'interdirait cependant au cortex, par exemple dans une circonstance mobilisant l'attention, de faire remonter à la conscience des événements du passé qui ne seraient oubliés qu'en apparence.

Si ce mécanisme était vérifié en tout ou partie, se poserait alors avec acuité la question des souvenirs, de leur accessibilité par la conscience supérieure et surtout de leur influence sur la détermination du comportement actuel. On ne pourrait certes pas se souvenir de ce qui n'aurait pas été mémorisé (les événements de la toute petite enfance, notamment) ou de ce qui aurait été effacé pour des raisons biochimiques diverses. Mais le sujet conscient pourrait-il retrouver dans certaines circonstances des informations dont il aurait perdu le souvenir conscient mais qui continueraient à peser dans ses décisions présentes. Dans ce cas, il serait utile pour améliorer la pertinence des décisions dites volontaires de faciliter la mise en évidence puis la remontée en conscience d'événements apparemment oubliés mais toujours actifs de façon non-consciente, pouvant avoir des effets nuisibles aux capacités d'adaptation du sujet. Ceci justifierait alors les efforts de la psychanalyse – ou d'autres types de psychothérapies - pour faciliter conjointement avec les neurosciences, l'exploration de la base de données des souvenirs mémorisés par le cerveau.

Le statut du contenu des rêves

On sait que, pour faciliter l'exploration de l'inconscient, les psychanalystes, comme d'ailleurs beaucoup de psychologues, attachent de l'importance au contenu manifeste des rêves. On peut voir dans le contenu des rêves dont le sujet se souvient – qu'il s'agisse des images ou de la charge affective de celles-ci – l'expression d'un inconscient éventuellement réprimé (mais par qui?). On peut y voir plus simplement la remontée en conscience d'informations mémorisées à la suite des événements vécus par le sujet et réactivés par des événements récents. Dans tous les cas, le contenu des rêves n'aurait pas qu'un intérêt de circonstances.

Nous pensons qu'il convient d'être attentif au contenu des rêves, qu'il s'agisse des siens ou de ceux d'autrui. Leur analyse à fin d'explicitation n'est jamais facile car elle oblige souvent à remonter haut dans la mémoire et l'expérience du sujet. Mais elle ne pourrait qu'être utile. Même si les rêves ne sont pas la manifestation de troubles psychiques profonds, ils ne surviennent pas au hasard et mériteraient donc toujours une interprétation pouvant se révéler informative pour un sujet souhaitant mieux éclairer ses pulsions et désirs. Ceci d'autant plus qu'ils sont souvent à la source de la création artistique voire scientifique. A plus forte raison, l'étude des rêves d'un sujet présentant des troubles psychiques devrait intéresser ceux qui prétendent l'aider à surmonter ses difficultés. Mais dans tous ces cas, une nouvelle « science des rêves » faisant appel aux techniques des neurosciences cognitives mériterait d'être entreprise, bien loin des banalités traditionnelles. On découvrirait peut-être alors qu'il ne s'agirait pas d'un luxe de société riche.

Le statut des fantasmes

Dans le même esprit, on pourrait souhaiter que les nouvelles sciences du cerveau et de la conscience s'intéressent davantage aux fantasmes, dont le rôle est omniprésent, non seulement dans les vies psychiques mais dans la façon dont les psychismes se traduisent dans les comportements des individus et des sociétés. Appelons ici fantasme la représentation généralement répétitive d'une image ou d'une situation qui accompagne et qui généralement conditionne le succès d'un comportement ayant une grande importance pour la vie affective et sociale du sujet. L'exemple le plus simple venant à l'esprit est celui des fantasmes sexuels qui accompagnent le plus souvent et conditionnent en grande partie l'accès à l'orgasme des individus « normaux » des deux sexes. Un tel fantasme est très lié à la conscience supérieure (encore qu'il faudrait s'interroger sur la question de savoir si les animaux ne peuvent en vivre d'analogues). Il a été construit par le sujet à partir d'éléments formels glanés dans les langages sociaux, mais réinvestis fortement lors de l'histoire du sujet, dans des conditions dont il a le plus souvent perdu le souvenir. En fait, il est perçu par le sujet comme une part mystérieuse mais essentielle de sa personnalité.

Nous pensons donc qu'il serait utile aujourd'hui d'analyser l'origine, la typologie et le rôle des fantasmes, qu'ils agissent dans la vie courante ou qu'ils puissent intervenir aussi dans la genèse d'événements dramatiques tels les crimes ou les génocides. Une part importante de ce qui demeure encore secrètement explosif dans l'esprit humain se tient là, à la frontière entre l'inconscient et le conscient.

Le statut de l'introspection

On sait que Freud avait jeté les premières bases de sa doctrine en procédant par introspection à l'analyse de ses souvenirs. Mais les psychanalystes ne croient plus guère à cette sorte d'auto-analyse (peut-être pour des raisons matérielles que l'on peut imaginer: d'où proviendraient les honoraires?). Les sciences cognitives elles-mêmes ne lui accordent guère de crédit, au prétexte que le sujet est le moins bien placé de tous pour produire des observations ou procéder à des expériences de pensée le concernant. Cependant, l'introspection a toujours joué et continue à jouer un rôle essentiel dans la création littéraire et la réflexion philosophique.

Nous pensons que le mépris de l'introspection constitue une erreur profonde. Elle représente la première et toujours principale exigence du « connais-toi toi-même » que la morale et la raison sociale imposent à tout citoyen responsable. Elle demeure de toutes façons la première phase de l'accès de chacun à sa propre conscience. Mais comme elle est aussi en effet la source de multiples fourvoiements intellectuels et affectifs (notamment les "rationalisations" à juste titre dénoncées par la psychanalyse), elle mérite d'être analysée et critiquée avec les outils des sciences cognitives. Il sera sans doute possible ensuite d'en recommander un usage plus systématique à chacun, y compris aux scientifiques.

Le statut de l'émotion esthétique

L'émotion esthétique, sous toutes ses formes, a joué un rôle essentiel dans l'histoire de l'humanité. Elle continue aujourd'hui encore – peut-être de plus en plus – à déterminer de nombreuses activités individuelles ou sociales. Il n'est pas exclu qu'elle intervienne aussi, non pas comme épiphénomène mais comme facteur causal, dans certains comportements animaux. Son statut au regard de la conscience rationnelle est ambigu. L'homme, qu'il s'agisse du créateur ou du « consommateur » d'art, la ressent très fortement. Elle est donc très présente à la conscience, et peut donner lieu de la part du sujet à beaucoup d'auto-justifications. Mais dans le même temps, nul ne se l'explique pas véritablement. Elle est donc considérée comme relevant du domaine de l'inconscient ou du pré-conscient.

Nous pensons que pour ces diverses raisons, l'émotion esthétique, définie d'une façon très large, devrait devenir un sujet d'étude systématique de la part des neurosciences cognitives. Ce n'est pas vraiment le cas actuellement.

2.2. Questions du domaine des sciences de la complexité

Nous rangerons sous ce titre aussi général qu'imprécis le recours à des approches diverses, généralement peu pratiquées voire ignorées tant des psychanalystes que de nombreux cogniticiens, qui ouvrent cependant des perspectives intéressantes sur l'inconscient et la conscience. Nos lecteurs qui sont très au fait desdites sciences de la complexité, nous reprocheraient en tous cas de ne pas évoquer leurs apports possibles aux travaux de Lionel Naccache et de ses collègues.

Le mode de computation au sein de l'espace de travail global conscient

Le système hyper-complexe des neurones associatifs servant d'infrastructure à l'espace de travail conscient – à supposer que les neurosciences de demain valident l'hypothèse d'un tel espace – mériterait dès aujourd'hui, malgré la difficulté, de faire l'objet d'hypothèses et d'expériences. C'est tout le statut de la conscience supérieure, du Je, du « hard problem » évoqué par le philosophe David Chalmers, qui en dépend. Mais ce seront aussi les recherches sur la conscience animale et surtout sur la conscience artificielle qui pourraient en tirer profit, sans mentionner les technologies de la communication en réseau sur le mode du web. Or force est de constater que le livre de Lionel Naccache n'évoque pas cette question.

Le mode de computation retenu par l'évolution pour assurer le fonctionnement de cet espace de travail dont émerge indiscutablement la conscience fait-il appel à l'architecture des neurones formels, généralement présente partout dans le système nerveux, ou à celle très différente des systèmes multi-agents adaptatifs – voire à une synthèse des deux formules. On prolongera la question par une autre encore plus difficile à traiter dans l'état actuel des connaissances : des processus relevant de la théorie quantique de l'information interviennent ils dans le fonctionnement des neurones de ce domaine essentiel du cortex associatif ?

Une autre question liée aux précédentes concerne le statut des informations susceptibles d'entrer dans l'espace de travail global. Pourquoi telle information est-elle accueillie et telle autre rejetée. Pourquoi certaines d'entre elles produisent-elles de véritables «révolutions culturelles» dans les contenus de conscience ? Les informations nouvelles sont-elles prises en compte en fonction de leur « poids » informationnel, et de quelle façon ce poids est-il évalué. Doivent-elles de plus satisfaire à des normes externes ou relatives à leurs contenus qui les rendraient compatibles avec le système d'exploitation global où les informations déjà mémorisées?

Lorsque enfin un état de conscience s'impose sur tous les autres, ne fut-ce que très momentanément, au sein de l'espace de travail global, cet état de conscience exerce-t-il un effet de contamination sur les autres, qui contribuerait à sa permanence éventuelle ? Exercerait-il ce même effet de contamination en dehors du cerveau du sujet qui l'héberge, c'est-à-dire sur les contenus des cerveaux d'autres personnes ? Cette question, quelle que soit la réponse qui pourrait lui être donnée, nous conduit immédiatement à la rubrique suivante, celle des mèmes (voir ci-dessous)..

Ajoutons une autre question. Si l'on retenait l'hypothèse du livre selon laquelle l'espace de travail global conscient produirait l'équivalent d'un vaste environnement de jeu vidéo dans lequel des simulations seraient réalisées en permanence autour de la figure dominante du Je, il faudrait s'interroger sur la nature des processus computationnels permettant la production et la validation des hypothèses virtuelles ainsi élaborées. Il s'agirait en effet d'une modalité très intéressante d'introduction de l'innovation dans la formulation des stratégies, qui donnerait indiscutablement au sujet conscient un avantage sélectif par rapport aux organismes non dotés de conscience. Mais il faudrait s'interroger sur la façon dont au cours de l'évolution cette fonction s'est introduite dans un certain nombre d'espèces animales chez qui des versions moins performantes du dispositif sont sans doute présentes.

Le rôle des mèmes dans la construction des systèmes de conscience

Ce thème mériterait un ouvrage à lui seul. Nous ne rappellerons pas ici l'importance de la mémétique dans l'étude moderne des langages et des réseaux de communication animaux et humains. Bornons nous seulement à indiquer que l'explication mémétique, conjuguée avec l'étude de l'apparition des langages dans des populations de robots, peut aider à comprendre comment se sont construits les cortex associatifs supports de la conscience supérieure humaine et comment ces cortex se sont peuplés de contenus langagiers symboliques ayant permis la diffusion des contenants de conscience au sein des groupes humains.

L'étude de l'émergence du langage chez les robots montre que contraints par la nécessité de communiquer pour répondre à des pressions de sélection sur le mode darwinien, les robots s'accordent spontanément sur un vocabulaire de symboles qui représentent l'amorce d'un véritable langage syntaxique. En rétroaction, l'usage de ce langage oblige les robots à réorganiser leurs systèmes computationnels pour optimiser le traitement de ces langages. On voit donc émerger simultanément le langage, le cerveau qui le manipule et les contenus cognitifs générés par la collaboration de ces deux agents différents.

On peut montrer que le même mécanisme, appliqué à des substrats biologiques et non plus informatiques, a pu produire le même résultat. Des organismes vivants dotés d'un système nerveux central, qu'il s'agisse d'animaux ou d'humains, ont, sous la pression du besoin de communiquer, généré des langages symboliques plus ou moins complexes. Les avantages sélectifs apportés par la communication utilisant ces langages ont encouragé le développement des organismes faisant appel à ces outils nouveaux. Ce succès lui-même a permis la sélection de cerveaux de plus en plus performants en matière de traitement symbolique – et donc de plus en plus riches en aires corticales associatives.

La mémétique montrera à son tour que ces langages sont constitués d'entités informationnelles, les mèmes, ayant la possibilité de se répandre et se multiplier sur le mode viral. Pour les méméticiens c'est leur prolifération dans les cerveaux d'animaux contraints à communiquer par la pression darwinienne qui a entraîné en retour le développement des aires associatives et langagières, ainsi que des divers processus de prise de conscience. Plus généralement, la logique des relations entre inconscience et conscience pourra être analysées en termes de traitement mémétique de l'information. C'est ainsi que, pour Susan Blackmore, théoricienne de la mémétique, le Je qui trône au centre des systèmes conscients est lui-même un même, capable de se reproduire et se complexifier dès qu'il trouve des conditions favorables. Les méméticiens pratiquant les neurosciences cognitives cherchent actuellement à mettre en évidence des entités neurales correspondant aux mèmes, qu'ils ont d&eac

Repost 0
JP Baquiast et Christophe Jacquemin - dans philoscience
commenter cet article
30 juillet 2006 7 30 /07 /juillet /2006 18:26

par Jean-Paul Baquiast 31/07/06

Le matérialisme, contrairement à ce que veulent laisser croire ses ennemis, est riche en valeurs morales. Nous pensons même qu'il surpasse sur ce point toutes les philosophies idéalistes et croyances spiritualistes. Mais encore faut-il qu'il les expose et qu'il accepte d'argumenter à leur propos. Le succès du matérialisme en tant que doctrine philosophique et d'attitude morale a toujours été, dès l'apparition de la science moderne, lié aux découvertes de celle-ci. Ce processus ne se dément pas. Pour nous, il y a donc un lien étroit entre matérialisme, matérialisme scientifique et science moderne.

Mais alors à quelles valeurs un tel matérialisme moderne pourrait-il se référer ? La question doit être posée, puisque le matérialisme refuse d'adopter sans droit à l'inventaire des valeurs définies en dehors de lui par les religions ou par de vagues conceptions humanistes ne reposant pas sur le socle solide des sciences expérimentales. Celles-ci ne prétendent pas avoir réponse à tout et laissent une grande part à l'interprétation philosophique et aux postulats métaphysiques. Elles peuvent donc retrouver des valeurs communes à d'autres philosophies et d'autres morales que celles issues du matérialisme. Mais elles peuvent aussi inciter le matérialisme à renouveler ses propres valeurs et en proposer d'autres.

Comment concrètement se pose la question des valeurs pour un scientifique matérialiste? Depuis que la science existe sous forme d'un pouvoir organisé, les scientifiques comme les organes de tutelle et les citoyens eux-mêmes se sont interrogés sur la meilleure façon de promouvoir auprès des chercheurs une déontologie d'autant plus nécessaire que ceux-ci manient des idées ou des objets pouvant présenter un caractère dangereux. Cette déontologie s'applique évidemment à tous, quelles que soient leurs croyances ou leurs philosophies politiques. Mais au-delà, les scientifiques matérialistes doivent considérer que des prescriptions supplémentaires s'imposent à eux, précisément parce qu'ils sont matérialistes, que le matérialisme est une philosophie se heurtant à de nombreux ennemis et qu'ils doivent donc l'honorer par une exemplarité incontestable. Tout ceci paraîtra naïf à ceux qui connaissent les compromissions et lâchetés auxquelles le souci de faire carrière ou de réaliser des profits expose inévitablement les personnalités faibles, lesquelles se rencontrent aussi bien chez les matérialistes que chez d'autres. Mais, ici, nous nous devons de le rappeler.

La défense de la science

La première valeur que sert un scientifique, sur le plan professionnel mais aussi humain (sinon il n'aurait pas choisi la recherche et lui aurait préféré le commerce ou la communication) est l'augmentation des connaissances. Que signifie ce terme ? Il postule (aux exceptions près) qu'il existe un corpus mondial de connaissances scientifiques, que celui-ci est à la disposition de tous les humains, que ces connaissances sont au plan pratique globalement utiles à l'humanité, qu'au plan théorique elles décrivent le monde en termes aussi objectifs que possible et qu'il est donc moral de chercher à les étendre. On négligera dans cette première approche le point de savoir si les « connaissances scientifiques » décrivent un monde réel existant en soi ou s'il s'agit seulement de constructions contribuant à l'émergence d'un monde relatif aux observateurs et acteurs qui y opèrent. L'essentiel est que le monde décrit soit celui dans lequel vivent les humains. On négligera de même la question, pourtant importante, de savoir quels intérêts particuliers financent les recherches et comptent donc les utiliser à leur profit. Dans un premier temps, l'impératif est d'accroître la masse globale et la cohérence des connaissances.

Les scientifiques, comme tous ceux qui s'intéressent à leurs travaux et acceptent de les voir financer par l'impôt, ont donc comme premier devoir de participer aux processus d'avancement de la science et de soutenir les efforts qui leurs sont consacrés, qu'il s'agisse de recherche fondamentale, appliquée, technologique ou qu'il s'agisse aussi d'enseignement et de vulgarisation. Ils ont donc pour devoir de combattre tous ceux qui, pour des raisons non scientifiques, par idéologie ou jeu de pouvoir(1), cherchent à freiner, détourner ou arrêter les recherches ou la publication de leurs résultats. Evidemment, cette position de principe doit tenir compte de diverses restrictions découlant par exemple de la protection de la propriété intellectuelle ou de la sécurité publique. Mais globalement elle représente un impératif clair et devrait donc figurer au premier rang des valeurs morales et professionnelles que s'assignent les scientifiques matérialistes.

Cette obligation générale qui s'impose à tous les scientifiques est encore plus forte à l'égard des scientifiques matérialistes. Ils doivent repousser les multiples intrusions et détournements que les intérêts politiques(2)et les idéologies religieuses(3) veulent imposer soit aux recherches soit à la diffusion de leurs résultats. Les adversaires de l'objectivité scientifique ne peuvent pas toujours interdire telles ou telles recherches mais ils s'efforcent d'en présenter les résultats d'une façon déformée permettant d'en faire des arguments au service de leurs intérêts. Les scientifiques matérialistes doivent donc combattre ces actions et ne pas hésiter à descendre dans l'arène politique et médiatique pour se faire entendre. Il ne s'agira pas de verser dans le dogmatisme en refusant toute critique ou tout débat. Il s'agira seulement d'éviter la récupération par des dogmatismes opposés.

Au-delà de cette défense élémentaire du territoire de la science, que pourraient faire les scientifiques matérialistes ? Voici quelques suggestions :

- Identifier et éliminer les survivances de ce que l'on pourrait appeler les interdits judéo-chrétiens qui continuent à peser sur l'imagination et empêchent de formuler des hypothèses réellement innovantes. La tâche est aussi immense que difficile car nous sommes tous empreints de cette culture judéo-chrétienne, sans même nous en apercevoir. Tout n'est évidemment pas à rejeter la concernant, surtout si c'était pour la remplacer par des métaphysiques tout aussi emprisonnantes provenant d'autres parties du monde(4). Il reste que dans des domaines essentiels abordés par les sciences fondamentales, la vie, la conscience, la cosmologie, de nombreuses « prescriptions à penser » implicites, quand il ne s'agit pas d'interdits, pèsent sur l'esprit des chercheurs ou de ceux qui dans la société financent ou jugent leurs travaux. Ceci empêche de traiter certains sujets, d'envisager certaines problématiques et finalement, de remettre en cause des croyances considérées comme relevant encore de l'intouchable, sinon du sacré. Les mêmes interdits se retrouvent dans des domaines plus pratiques, concernant le corps humain et sa sexualité, les animaux et, bientôt, les robots(5). Il y a quelques décennies, certains médecins, psychologues(6), sociologues, appuyés par les mouvements politiques dits de gauche, osaient s'élever contre ces persistances du sacré et de traditions ancestrales dans les sociétés modernes. Aujourd'hui, au prétexte de ne pas heurter les convictions intimes de tel ou tel, leur parole est bridée. La même interdiction pèse aussi sur l'art et la littérature. Les recours devant les tribunaux de personnes ou de mouvements s'estimant heurtés dans leurs croyances se multiplient(7).

Plus généralement, les matérialistes doivent absolument faire la chasse aux résurgences du Sacré qui, notamment sous la forme des fausses sciences(8), continuent à lier la pensée par des interdits se voulant inaccessibles à la critique rationnelle. Faire la chasse au Sacré ne signifie pas désenchanter le monde, comme on l'a dit. Cela signifie proposer d'autres rêves que ceux cachant en fait de profonds conservatismes ou de profitables commerces. Nous allons y revenir.

- Refuser l'espèce de divinisation de l'Homme qui remplace la référence au divin chez beaucoup de ceux qui par intérêt ou par peur refusent le changement. La place exorbitante donnée à ce concept d'Homme, pourtant vague et se prêtant à tous les abus, montre que l'anthropocentrisme étroit, lui-même mis au service des religions, qui avait dominé la pensée scientifique jusqu'aux Lumières, est loin d'avoir disparu. Certes, politiquement, il est plus que jamais utile de lutter contre ceux qui violent les droits de l'homme fondements de nos démocraties européennes. Mais d'une part les droits de l'homme ne doivent pas nous faire oublier ceux des autres créatures vivantes et, par extrapolation, faire pardonner les atteintes irresponsables aux milieux naturels. Ils ne doivent pas d'autre part être évoqués pour défendre des intérêts sordides, au nom notamment des libertés individuelles(9).

Il faut en fait admettre que le monde décrit par les nouvelles sciences est tout autant un monde sans l'homme qu'un monde sans dieux. Il est tout à fait légitime que les humains veuillent tenter d'y répandre, sur Terre comme à terme dans le cosmos, des formes futures d'intelligence, de conscience et de corporéité portant les meilleurs des valeurs que nous attribuons à l'humain – sous réserve du nécessaire respect d'autres formes éventuelles non humaines. Mais pour cela, il faudra faire descendre l'homme du piédestal où continuent à le mettre les conservateurs et qu'il ne mérite plus désormais d'occuper. Il faudra renoncer à diviniser un Homme brutal, ignorant, destructeur, symbole manipulé par de nouveaux prêtres, qui prendrait le relais du Dieu féroce dont l'Occident éclairé cherche à se débarrasser.

- Oser utiliser systématiquement l'arme de l'étude scientifique dans les affrontements avec les ennemis du matérialisme, d'autant plus que beaucoup de ceux-ci ne prennent aucunes précautions ni ne mettent aucune tolérance dans leurs attaques, en utilisant souvent de pseudo- arguments scientifiques. Pour les matérialistes, il est évident que les croyances, les mythologies et leurs excès relèvent de l'analyse scientifique. Les religions ont joué un rôle essentiel dans l'histoire humaine, comme le montre l'étude des civilisations et de leurs productions artistiques et intellectuelles. A cet égard, elles constituent le patrimoine de tous, comme d'ailleurs les autres héritages laissés par les civilisations passées. Etudier leur rôle, profondément imbriqué dans l'histoire du monde actuel, représente un objectif de recherche indispensable. Le matérialiste ne s'en trouvera pas agressé dans ses convictions – pas davantage qu'il ne l'est lorsqu'il visite les ruines d'un temple grec ou une église romane. Mais cela ne donne pas aux croyants d'aujourd'hui le droit de chercher à imposer sans aucun débat les religions et morales du passé.

Un tel débat, sous forme de droit d'inventaire, pour employer à nouveau ce terme, doit être éclairé par la science, non pas par des scientifiques sous contrôle des églises ou des sectes (comme il s'en trouve malheureusement) mais selon les procédures ouvertes et démocratiques de la communauté scientifique. Or là encore, il faut bien reconnaître que la critique scientifique de la religion est devenue quasiment impossible, y compris au sein des universités européennes financées par l'Etat. L'audacieux qui s'y livre, dans ses cours ou ses recherches, est vite mis à l'écart voir poursuivi devant les tribunaux comme coupable de conduite partisane et d'agression morale. Les oukases intellectuels des représentants des religions poussent progressivement à considérer qu'il est sacrilège d'étudier les comportements religieux de la même façon que d'autres comportements sociaux(10).

 

La critique scientifique des religions et des croyances

Nous pensons que le matérialisme scientifique, au-delà de l'histoire des religions qui n'est souvent qu'une apologie déguisée, devrait examiner les questions suivantes en s'appuyant sur les outils offerts par les nouvelles sciences. Certains chercheurs l'ont fait à titre individuel, mais ceci généralement dans l'hostilité générale.

- Pourquoi le fait de croire en un autre monde et une autre vie après la mort (y compris ad absurdum)s'est-il introduit il y a quelques millénaires (ou dizaines de millénaires ?) chez les hominiens et pourquoi a-t-il survécu depuis ? Est-ce vraiment parce que les hommes devenus conscients de leur propre fin avaient besoin de ceci pour survivre ?

- Corrélativement, pourquoi, si ce besoin de croyance était indispensable à la survie des individus et des sociétés, des athées ou incroyants ont-ils pu apparaître et survivre - le cas échant en transférant leur besoin de croire sur des objectifs de nature matérielle?

- Commenten termes neurologiques, l'idée de Dieu - et plus généralement le fait de croire en quelque chose sur le mode de la foi du charbonnier - se manifestent-ils dans l'anatomie et la physiologie du cerveau soumis aux moyens moderne de l'imagerie fonctionnelle et de l'exploration par drogues psychotropes ?

- Peut-on considérer que l'idée de Dieu soit un mème ou un mèmeplexe qui parasiterait nos cerveaux ?

- Comment les pouvoirs sociaux et politiques utilisent-ils à leur profit le besoin de croyance ? On sait depuis longtemps de quelles façons les classes dirigeantes traditionnelles se sont servies des religions pour aliéner les populations (l'opium du peuple). Mais il serait intéressant de voir aujourd'hui quels sont les intérêts précis, géostratégiques, politiques, commerciaux - qui sont derrière les fondamentalismes chrétiens ou islamiques et visent à mettre en tutelle l'esprit des hommes modernes ? On aimera aussi savoir, sans tomber dans les fantasmes de la théorie du complot, quels pouvoirs encouragent la prolifération des sectes au sein des sociétés occidentales?

- Ajoutons que la critique scientifique du bouddhisme n'est pas assez aiguisée, compte tenu notamment de la large diffusion des religions contemplatives(on y joindra l'hindouisme) et du fait que ces religions sont en principe reconnues officiellement par des Etats qui ne refusent pas la science occidentale mais qui sans doute la détournent de façon subtile.

- Les religions établies s'indigneraient si l'on affirmait que les sectes et les superstitions qui ont toujours proliféré dans les sociétés humaines devraient être analysées avec les mêmes instruments scientifiques que ceux appliqués aux religions, ne fut-ce que pour montrer les points sur lesquels les unes et les autres se distinguent. Pourtant, nous ne voyons pas de raison de soumettre les unes à l'observation scientifique et pasles autres.


Anciens et nouveaux impératifs moraux

La production d'impératifs moraux censés devoir s'appliquer à tous parait une activité inséparable de la vie en société. Elle précède certainement la définition d'obligations légales sanctionnées par le juge. Nous avons vu en étudiant les super-organismes dans d'autres articles de cette Revue que cela n'avait rien d'étonnant. Les «gardiens de la conformité», au même titre il est vrai que leurs opposés les «générateurs de variabilité», sont indispensables à la cohésion de tout organisation sociale, chez l'homme comme chez la plupart des espèces vivantes. Les impératifs moraux ainsi générés peuvent s'appliquer à certains groupes et pas à d'autres. Mais la volonté de faire de l'humanité une entité universelle a conduit les philosophes et les hommes politiques à édicter des morales de portée générale et, de ce fait, devant être respectées par tous les humains(11). Ces impératifs ne sont pas nécessairement liés aux prescriptions de telle ou telle religion, encore que les uns et les autres semblent inspirés par un fonds commun de religiosité.

Les scientifiques matérialistes, face aux impératifs moraux en vigueur dans la société à laquelle ils appartiennent, ont le droit le plus strict de les analyser – ou, si l'on préfère – de les discuter afin le cas échéant de les faire évoluer(12). Mais quelle est leur liberté interne face à de tels impératifs ? Nous voulons dire que toute personne, formée dans un milieu précis, avec des normes morales données, éprouve beaucoup de difficultés quand il s'agit de prendre du recul vis-à-vis de ces normes. Si, dans un mouvement de révolte propre à la jeunesse, elle s'en est écartée, elle risque d'y revenir avec la maturité. Les scientifiques sont comme les autres. Ils ont été élevés dans certaines valeurs morales qui continuent à les imprégner tout au long de leur vie. Sont-ils capables d'évaluer scientifiquement ces valeurs et ne pas les reproduire automatiquement dans leurs enseignements et leurs pratiques de recherche ? C'est une question qu'ils doivent se poser à eux-mêmes, à supposer qu'ils aient la capacité de s'auto-analyse(13). C'est aussi une question que les citoyens doivent leur poser

Un scientifique est constamment sollicité pour émettre des jugements moraux ou de nature morale. C'est d'abord le cas au sein de sa discipline, quand il y intervient à titre d'expert. C'est de plus en plus le cas sur n'importe quel problème, quand il est invité par les médias au prétexte que certains succès lui ont conféré de la réputation dans son domaine(14). Pourquoi pas ? Mieux vaut faire appel aux scientifiques qu'aux représentants d'associations de défense de tout et de rien, quand ce n'est pas à l'inévitable représentant de l'épiscopat et de la communauté islamique, qui se prononcera intrépidement à propos de questions sur lesquelles il n'a que des préjugés.

Chaque scientifique matérialiste devrait cependant s'interroger pour savoir qui «parle en lui» quand il se sent obligé de prendre la parole ou la plume pour défendre des valeurs morales ? Doit-il céder à l'urgence qu'il ressent de s'exprimer ? Doit-il consulter d'autres personnes afin d'élaborer des propositions moins subjectives et plus proches de l'objectivité scientifique ? Doit-il, comme certains le font (on le leur reproche parfois d'ailleurs, au lieu de les en louer) se taire et refuser les interviews, en estimant que « ce qui parlerait par sa voix » n'a pas été étudié suffisamment, ni par lui ni par d'autres, et ne mérite donc pas crédit, y compris à ses propres yeux.

Cependant, au-delà d'une nécessaire réserve, les matérialistes scientifiques peuvent-ils faire plus, c'est-à-dire proposer des normes morales et plus généralement des valeurs découlant, non d'un fonds commun dont ils auraient hérité, mais de l'interprétation qu'ils donneraient eux-mêmes de leurs sciences, notamment quand celles-ci s'apparentent à ce que nous avons appelé les nouvelles sciences ?

Dans ce cas, ils sortiraient des limites strictes de la démarche scientifique, pour laisser parler leur imagination, leurs sentiments, leurs rêves. Mais ce faisant, en même temps, ils esquisseraient de nouvelles valeurs qui pourraient rajeunir, compléter et le cas échéant transcender complètement ou remplacer les valeurs sociales actuelles, y compris celle de la science de demain. Ce travail à la limite entre la métaphysique et la science fiction aurait le grand avantage de rendre concrètes, d'humaniser, si l'on peut dire, des perspectives scientifiques et techniques qui pour beaucoup de personnes restent encore incompréhensibles et de ce fait effrayantes.

Nous avons noté dans d'autres articles de notre Revue les efforts faits en ce sens par les avocats de la Singularité et les militants du Transhumanisme. Mais de nombreux autres scientifiques, non encore engagés dans des démarches aussi ambitieuses, entretiennent pourtant dans leurs disciplines des projets à plus ou moins long terme, parfois des rêves, qui n'ont pas besoin des religions pour s'enrichir des plus hautes vertus morales. Nous avons eu le privilège, depuis que nous éditons la revue Automates-Intelligents, de connaître de véritables saints (et saintes) laïcs pour qui l'exploration du cosmos, le sauvetage de la bio-diversité, la protection des équilibres naturels, la réalisation de formes de conscience et de vie artificielles … constituent de véritables apostolats, dignes des plus grands sacrifices. Ceci, non pas comme on le dit souvent pour en obtenir des avantages personnels, mais pour servir à l'émergence d'un monde nouveau, différent et sans doute meilleur que l'actuel. Ils agissent comme s'ils étaient intimement convaincus de la pertinence de la belle devise des altermondialistes, malheureusement souvent détournée : «un autre monde est possible».

Les passionnés, scientifiques ou non, qui se consacrent à ces grands objectifs sont bien peu nombreux par rapport à tous les autres humains, ceux qui ne se réalisent que dans les guerres tribales ou les consommations matérielles. Mais c'est cette infime minorité qui, si notre monde échappe aux catastrophes que préparent les fanatiques et les jouisseurs, lui apportera le salut. Ils ne se prennent pas cependant pour des Messies. Ils se considèrent seulement comme les agents presque anonymes d'un univers nouveau en train de naître. Leur seul mérite, pensent-ils, est d'avoir su, ayant bénéficié de l'enseignement des sciences dispensé dans les écoles de la république (toutes les écoles de toutes les républiques), prendre conscience du vaste mouvement qui les entraîne, afin d'y apporter le meilleur de leur intelligence et de leur cœur.

Notes
(1) Dont nous avons un exemple récent avec le veto que vient de mettre le président G.W. Bush (18 juillet 2006) à la décision du Sénat d'autoriser les recherches sur les cellules-souches embryonnaires. L'argument (hautement électoral) de G.W. Bush est qu'utiliser de telles cellules-souches revient à sacrifier des vies humaines potentielles De nombreux biologistes américains, se déclarant chrétiens, refusent de soutenir ce point de vue. remonter d'où l'on vient
(2) L'interdiction de publication imposée par le gouvernement américain aux climatologues de ce pays dénonçant le rôle de la consommation des carburants fossiles dans la production du réchauffement climatique est un exemple typique. remonter d'où l'on vient
(3) Mentionnons une nouvelle fois les pressions des églises évangélistes en faveur de l'enseignement public de l'hypothèse du Dessein Intelligent. Ces exemples nous viennent des Etats-Unis, mais de semblables intrusions et pressions s'exercent aussi en Europe – sans parler de celles existant dans les pays encore soumis à des dictatures politiques. remonter d'où l'on vient
(4) Nous pensons ainsi à l'incroyable ferveur révérencielle dont jouit la «pensée» du Dalaï-lama dans les cercles intellectuels occidentaux, alors que cette pensée pourrait être résumée en trois ou quatre banalités. remonter d'où l'on vient
(5) On peut pronostiquer que les progrès prévisibles de la robotique autonome questionnant de plus en plus les limites prétendues entre l'homme et la machine seront vécus par certains, fussent-ils matérialistes, comme de véritables sacrilèges. remonter d'où l'on vient
(6) Freud lui-même…remonter d'où l'on vient
(7) Recours devant les tribunaux islamiques dans les Etats ayant instauré la Charia, devant nos propres tribunaux en Occident. Mais les consciences sont-elles véritablement blessées quand par exemple un médecin homme soigne une femme en l'absence de son conjoint (ou l'inverse) ? Les consciences se sentent blessées parce que des agitateurs décidés à prendre le pouvoir dans nos sociétés laïques et y instaurer leur loi (islamique ou évangélique) les persuadent qu'elles se doivent de l'être. remonter d'où l'on vient
(8) Ces fausses sciences, astrologie, médecines alternatives, prospèrent d'autant plus qu'elles rapportent beaucoup d'argent à ceux qui les promeuvent en encourageant le vieux fonds irrationnel des hommes. remonter d'où l'on vient
(9) Liberté d'abuser du tabac, de l'alcool, de la vitesse sur la route ; droit aux armes à feu ou à des prises de risques pénalisant la société toute entière. remonter d'où l'on vient
(10) Là encore, nous ne faisons pas seulement allusion à la situation régnant dans des universités du Tiers-monde. Aux Etats-Unis, en Europe et même en France, le même « terrorisme intellectuel » commence à se répandre, avec la bénédiction, c'est le cas de le dire, d'autorités politiques voulant éviter des conflits avec une opinion publique supposée majoritaire en plan électoral. remonter d'où l'on vient
(11) Ainsi les impératifs catégoriques proposés par Emmanuel Kant. remonter d'où l'on vient
(12) Le même droit est reconnu à chaque citoyen, dans les démocraties, à l'égard des impératifs légaux. Les citoyens ont le droit de discuter la loi pour le cas échéant obtenir sa modification. Mais, tant qu'elle n'a pas été abrogée, ils n'ont pas le droit d'y déroger. Ce n'est pas le cas concernant des impératifs moraux plus généraux, (par exemple ne pas abuser de situations dominantes) devant lesquels chacun demeure libre face à sa conscience, selon l'expression consacrée. remonter d'où l'on vient
(13) Rappelons, en ce qui concerne le libre-arbitre, c'est-à-dire la liberté de choisir entre un Bien et un Mal prétendus, que les neurosciences y voient en général une illusion. Si le Je conscient fait tel choix, même en se donnant beaucoup de raisons apparemment objectives pour le faire, il y est déterminé par des chaînes complexes de causalité qui lui échappent en partie. Le scientifique qui a admis cela ne s'estimera pas particulièrement méritant s'il se met au service d'un objectif considéré par lui ou par d'autres comme une valeur positive. Il admettra qu'il est « agi » par des forces qui le dépassent. Il en sera de même s'il choisit ce que d'autres considéreraient comme un mal. Il se sentirait sans doute légitimé à le faire…sans cela il ne le ferait pas. remonter d'où l'on vient
(14) L'Institution Nobel, comme on sait, est particulièrement fertile dans la production d'émetteurs d'avis et de conseils. remonter d'où l'on vient

Repost 0
30 juillet 2006 7 30 /07 /juillet /2006 16:04
Couverture du livre "Sur le tissage de la connaissance", de Miora Mugur-Schächter

Collection : Ingénierie représentationelle et constructions de sens
Hermes Lavoisier 2006

Présentation et commentaire par Jean-Paul Baquiast (28/07/06)


 


Présentation par l'éditeur
L'humain prélève de l'information de son environnement et bâtit des systèmes complexes de représentations abstraites. Néanmoins, quel rapport y a-t-il entre ces systèmes représentationnels et le réel ?

Sur le tissage des connaissances propose une réponse à cette question. La méthode de conceptualisation relativisée qui en constitue le coeur comporte un saut épistémologique décisif, remettant en question l'existence d'objets et de propriétés qui préexisteraient aux descriptions que nous en élaborons, et faisant de la connaissance un construit dont le rapport avec le réel est essentiellement (inter)subjectif et finalisé.

Ce livre secoue les fondations de l'édifice fragile construit autour de l'information depuis Shannon. Il permet de cerner de façon tangible la substance même de la connaissance, fournissant les bases d'une nouvelle théorie plus appropriée pour comprendre ce que nos cerveaux et nos machines manipulent lorsqu'ils traitent de l'information. Il éclaire de façon inédite le concept de sens, notamment dans ses dimensions partageables et communicables. Il change ainsi par là même notre vision de la "réalité du monde".

Au sommaire
Une méthode générale de conceptualisation relativisée
Source de la méthode
La méthode de conceptualisation relativisée (MCR)
Quelques illustrations majeures de la méthode de conceptualisation relativisée
Introduction à la deuxième partie
Logique classique versus logique-MCR
Reconstruction-MCR du concept de probabilité
Unification-MCR de la logique et des probabilités
MCR versus la théorie des transmissions de messages de Shannon
Unification entre probabilités et l'entropie informationnelle de Shannon : la fonctionnelle d'opacité
Estimations de complexité selon MCR
Représentation-MCR du concept de temps
Conclusion générale


Introduction

Due à la physicienne et philosophe des sciences Mioara Mugur-Schächter, la Méthode de Conceptualisation Relativisée (dite MCR) a été élaborée progressivement à partir de 1982 . Ce travail constitue selon nous une révolution dans la façon de se représenter les processus d'acquisition de la connaissance et par conséquent, la "réalité" ou le "monde" objet de cette connaissance. La question de la consistance du réel s'impose dans pratiquement tous les domaines des sciences macroscopiques: mathématiques, biologie, science des organisations, théorie de la communication, robotique et vie artificielle. Elle est évidemment aussi à l'ordre du jour dans la philosophie des connaissances ou épistémologie. Elle se situe d'une façon claire dans le débat entre le réalisme et le constructivisme. Enfin, elle intéressera très concrètement les regards que la politique de demain voudra poser sur le monde.

Aujourd'hui, il faut admettre que la réalité, tout au moins les modèles et produits de toutes sortes résultant de l'activité humaine, sont "construits" par cette dernière, d'une façon jamais terminée mêlant inextricablement le constructeur et son œuvre. C'est la physique quantique qui a imposé ce nouveau regard, mais celui-ci, nous dit Mioara Mugur-Schächter, devrait s'étendre désormais à l'ensemble des connaissances, qu'elles soient scientifiques ou qu'elles soient véhiculées par les langages empiriques assurant la communication inter-humaine. Dès les débuts de la physique quantique dans les années 1930 du XXe siècle, les physiciens quantiques avaient annoncé que les manifestations observables des micro-entités qu'ils étudiaient étaient "construites" au cours du processus d'investigation. Mais il aura fallu de nombreuses décennies pour que l'on puisse clairement distinguer entre les méthodologies d'étude de la physique quantique et celles des sciences du macroscopique, c'est-à-dire de toutes les autres sciences. Il faudra encore beaucoup de temps pour que, grâce à des ouvrages comme celui-ci, les premières puissent enrichir les secondes et les débarrasser de leurs adhérences métaphysiques.

Comme l'indique Mioara Mugur Schächter, ce délai a tenu en partie (et tient encore) au caractère apparemment ésotérique du formalisme quantique ainsi qu'au peu d'intérêt des physiciens vis-à-vis des questions épistémologiques et philosophiques. Peu leur importait, sauf exceptions, d'étudier le type de méthodologie qu'ils utilisaient au regard de la philosophie des connaissances. Ils avaient également renoncé, faute de réponses évidentes, à définir ce qu'il y avait ou non derrière les observables, pourvu que les prévisions faites sur les phénomènes se révèlent justes. Ce souci de pragmatisme est encore dominant. Ainsi demain, les ingénieurs pourront réaliser un ordinateur quantique sans se poser la question de la consistance métaphysique de l'intrication et de la décohérence, pourvu qu'ils puissent tirer parti de ces deux phénomènes avec un taux d'erreur acceptable dans des technologies applicatives.

Pourtant, les succès dorénavant éclatants de la physique quantique, qui en font véritablement la science des sciences, impose de sortir de cette indifférence quant à ses méthodes. La méthode MCR vient véritablement à temps, comme le dit Mioara Mugur Schächter, pour sortir l'entendement commun de ses impasses et des pièges où il s'enlise dorénavant. MCR propose ce qui aurait déjà du être entrepris depuis longtemps par les scientifiques et les épistémologistes s'ils avaient davantage réfléchi à ces impasses et à ces pièges, au lieu d'en prendre parti soit par paresse intellectuelle soit par aveuglement. Elle met chacun d'entre nous à même d'apprécier, sans être physicien, les implications de la physique quantique sur les méthodes d'acquisition de la connaissance : généraliser à l'ensemble des sciences les processus de représentation (ou plutôt de “ construction du réel ”) utilisés par la physique quantique et y ayant fait leurs preuves.

Mais la révolution conceptuelle est cependant si forte, le déboulonnage des anciennes idoles du réalisme positiviste si radical et si exigeant, que beaucoup de gens continueront à "faire de la science" et "faire parler la science" sans avoir encore la moindre idée de l'effort qu'ils devraient faire pour commencer à être crédible dans l'effort de construction des connaissances scientifiques auquel cependant ils s'imaginent participer.

Nous avons dans cette revue, dès que nous avions pris connaissance des travaux de Mioara Mugur Schächter, signalé leur importance à nos lecteurs(1). Mais le handicap de MCR était jusqu'à présent le fait, outre la complexité intrinsèque de la présentation, qu'elle avait été publiée en anglais et qu'il n'existait pas de traduction française(2). Beaucoup des correspondants de Mioara Mugur Schächter la pressait d'en rédiger une version française, malgré l'important travail que représentait la nécessaire refonte des premiers textes et le fait que l'auteure dans l'intervalle n'avait pas cessé de travailler en développant de nouvelles applications de sa théorie. Le travail a cependant été fait. Du fait des compléments apportés et des nouvelles perspectives ouvertes, il s'agit d'une véritable oeuvre originale. C'est cette oeuvre, "Sur le tissage des connaissances", que nous souhaitons vous présenter dans cet article.

Nous pensons qu'il s'agit d'un événement majeur de la pensée scientifique et philosophique comme d'ailleurs de la pensée empirique quotidienne. Mais combien de gens passeront encore à côté de ce travail? Il heurte trop d'habitudes et même trop d'intérêts égoïstes, professionnels et politiques, pour bénéficier de l'accueil médiatique qu'il mériterait.

«Sur le tissage des connaissances» est malheureusement un livre difficile. On peut craindre qu'une lecture superficielle en décourage plus d'un. La difficulté tient d'abord au caractère révolutionnaire de l'approche méthodologique. Mais sur ce plan l'auteure procède pas à pas et de façon claire et constructive, pour celui qui veut bien entrer dans le livre. La principale difficulté tient à la notation et au caractère abstrait du texte, trop dépourvu d'exemples simples. La notation exclut les équations et autres démonstrations mathématiques, mais elle utilise abondamment la symbolique mathématique et logique, dans l'espoir de gagner du temps et de la clarté dans la formulation. Cette notation serait indispensable si l'on voulait «informatiser» la méthode, mais dans la lecture courante, pour peu que les enchaînements se complexifient, le lecteur voit son attention faiblir. C'est dommage(3).

Ici, il n'est pas question de résumer, même sommairement, un ouvrage considérable. Il faut absolument que ceux qui s'intéressent à la science fassent l'effort de l'acquérir, le comprendre et, si besoin était, le mettre en œuvre dans leurs propres recherches. Nous allons pour notre part présenter rapidement le contenu des principaux chapitres du livre et amorcer quelques commentaires, déjà abordés dans les précédents articles consacrés par notre revue à MCR.

Contenu

Le tissage des connaissances comprend deux parties, la première consacrée à la présentation de la méthode et la seconde à quelques uns des applications majeures pouvant en être faites. C'est évidemment par la première partie qu'il faut commencer la lecture, puisque on y trouve énoncé en détail tout ce qu'il faut savoir de MCR. Les applications présentées dans la seconde partie sont intéressantes et révélatrices. Examiner celles proposées par l'auteure éclairera beaucoup son propos, mais les chapitres qui y sont consacrés sont particulièrement ardus. Nous nous bornerons pour notre part à évoquer leur contenu en quelques phrases.

Première partie du livre. Présentation de MCR

Le chapitre 1 est à lire absolument. Il est d'un accès facile. L'auteure rappelle les sources du nouveau regard sur le monde proposé par la physique quantique. C'est sur cette base et pour la rendre applicable à l'ensemble des connaissances, qu'elle a voulu construire MCR de façon systématique. Mioara Mugur-Schächter était particulièrement légitime à faire ce travail, ayant conduit elle-même des recherches brillantes en physique et ayant travaillé, jeune, avec les plus grands scientifiques de la génération précédente.

Le nouveau regard apporté par la physique quantique, tout le monde le sait désormais, a signé, tout en moins dans cette discipline, la mort du « réalisme des essences », selon lequel il existerait une réalité indépendante de l'observateur, composée d'« objets » que l'observateur pouvait décrire « objectivement », en s'en approchant de plus en plus grâce à des instruments de plus en plus perfectionnés. Les physiciens de la grande époque de l'Ecole de Copenhague s'étaient aperçus qu'ils ne pouvaient absolument pas rendre compte de ce que montraient leurs instruments s'ils continuaient à faire appel au réalisme. Mais s'ils ont jeté les bases d'une nouvelle méthode, ils n'en ont pas tiré toutes les applications épistémologiques. Beaucoup de leurs successeurs ne l'ont d'ailleurs pas encore fait(4). Mioara Mugur-Schächter fut véritablement la première à proposer de généraliser cette méthode à l'ensemble des sciences. Son mérite est au moins aussi grand que celui de ses prédécesseurs.

Nous pouvons observer à ce stade, même si l'auteure n'aborde pas explicitement ce point, que c'est en premier lieu le perfectionnement des instruments d'observations appliqués aux phénomènes de l'électromagnétisme et de la radioactivité qui a obligé les physiciens utilisateurs de ces instruments à regarder autrement des phénomènes qu'ils ne s'expliquaient pas dans le cadre des anciens paradigmes, les contraignant par exemple à ne pas choisir entre le caractère ondulatoire et le caractère corpusculaire de la lumière. Or ces instruments étaient apparus, sur le «marché des instruments de laboratoires», si l'on peut dire, non pas du fait de géniaux inventeurs convaincus qu'ils abordaient de nouveaux rivages de la connaissance, mais du fait de modestes techniciens. Ceci correspond à l'intuition selon laquelle les super-organismes technologiques se développent selon des modes de vie propres, proche de la mémétique, et que c'est leur évolution quasi biologique qui entraîne celle des conceptualisations et connaissances organisées en grands systèmes dans les sociétés humaines.

Mais comme le rappelle Mioara Mugur-Shächter, l'évolution technologique n'aurait pas suffi à provoquer seule la révolution conceptuelle. Il a fallu aussi que des mutations dans les modes de représentation du monde hébergées par les cerveaux de quelques précurseurs de grand talent les obligent à voir les incohérences, plutôt que continuer à buter contre elles pendant encore des décennies. Nous estimons pour notre part, la modestie de l'auteure dut-elle en souffrir, que celle-ci a fait preuve d'un génie précurseur aussi grand, en sachant passer d'une pratique mal formulée et mal systématisée, inutilisable ailleurs qu'en physique, à une méthodologie rigoureuse applicable par toutes les sciences.

Les sources de la stratégie de conceptualisation proposée par MCR, présentée dans le chapitre 1, sont abondamment développées dans le chapitre 2, qui constitue l'exposé détaillé de la méthode. L'auteure procède de façon pédagogique, en faisant suivre l'énoncé des bases ou postulats de la méthode de commentaires permettant de lever les obscurités et ambiguïtés. Ce chapitre, cependant, est beaucoup plus difficile que le précédent. Nous conseillons néanmoins à nos lecteurs de l'étudier en détail, crayon à la main si nécessaire. Rappelons que dans les articles cités en note, nous avons essayé de fournir deux exemples imagés d'application de la méthode, qui rendront, espérons-le, la compréhension du chapitre plus aisée.

Evoquons ici en quelques lignes les grandes étapes indispensables à la construction des connaissances selon MCR. Il s'agit en fait d'une méthodologie pour la production des descriptions, car il n'y a de science que de descriptions, les «phénomènes en soi» étant réputés non-existants.

- Le Fonctionnement-conscience. On postule au départ l'existence d'un observateur humain, doté d'un cerveau lui-même capable de faits de conscience. Ce cerveau est tel qu'il peut afficher des buts au service desquels mettre une stratégie. Mioara Mugur-Shächter considère que l'organisme vivant, ceci à plus forte raison s'il est doté de conscience, est capable de téléonomie(5). Nous pensons pour notre part que le concept de Fonctionnement-conscience peut être étendu au fonctionnement de tous les êtres vivants, et peut-être même à celui de précurseurs matériels de la vie biologique, aux prises avec la Réalité telle que définie ci-dessous. Nous y reviendrons dans nos commentaires. Les concepteurs de robots véritablement autonomes espèrent que ces robots pourront procéder de même afin de se doter de représentations ayant du sens pour eux.

- La Réalité. On postule qu'il existe quelque chose au-delà des constructions par lesquelles nous nous représentons le monde, mais (pour éviter les pièges du réalisme), qu'il est impossible – et sera à jamais impossible - de décrire objectivement cette réalité. Peut-être pourrait-on (la suggestion est de nous) assimiler cette réalité à ce que la physique contemporaine appelle le Vide quantique ou l'énergie de point-zéro, à condition d'admettre que ce Vide est et demeurera indescriptible, d'autant plus qu'il ne s'inscrit ni dans le temps ni dans l'espace propres à notre univers. Seules pourront en être connues les fluctuations quantiques en émanant, si elles donnent naissance à des particules qui se matérialiseraient par décohérence au contact avec notre matière.

- Le Générateur d'Entité-objet et l'Entité-objet ainsi générée. Il s'agit d'un mécanisme permettant au Fonctionnement conscience, dans le cadre de ses stratégies téléonomiques, de créer quelque chose (un observable) à partir de quoi il pourra procéder à des mesures. Il n'y aurait pas de science sans ce mécanisme. Nous procédons de cette façon en permanence dans la vie courante, comme nous l'avons montré à propos des entités objets psychiques (Ma fiancée m'aime-t-elle ?). Nous construisons des « objets » d'étude, qui n'existaient pas avant notre intervention.

- Les Qualificateurs. Il s'agit des différents points de vue par lesquels nous décrivons d'une façon utilisable par nous les Entités-objets que nous avons créée. Ces Qualificateurs sont les moyens d'observation et de mesure, biologiques ou instrumentaux, dont nous disposons. Il n'y a qu'une qualification par mesure et celle-ci n'est pas répétable car généralement l'Entité-objet a changé. Mais la multiplication des qualifications donne ce que MCR appelle des Vues-aspects proposant des grilles de qualifications effectives et intersubjectives. L'opération peut conduire à la constatation de l'inexistence relative de l'Entité-objet créée aux fins d'observation (inexistence relative car il serait contraire à MCR de parler de faux absolu). Ceci montre que l'on ne peut pas inventer n'importe quelle Entité-objet et construire des connaissances solides à son propos. Il faut qu'elle corresponde à quelque chose dans la Réalité telle que définie plus haut et qu'elle puisse être mise en relation avec les grilles de qualification déjà produites. Ainsi les connaissances construites s'ajoutent-elles les unes aux autres.

- Le Principe-cadre. Il s'agit du cadre d'espace-temps dans lequel on décide d'observer l'Entité-objet afin de la situer.

Tout ceci permet d'obtenir un canon général de description, utilisable dans n'importe quel domaine. Il repose sur le postulat de la non-possibilité de confronter la description avec un réel en soi ou réel métaphysique quelconque. Il débouche par contre sur une « description relativisée », individuelle ou probabiliste, à vocation inter-subjective, c'est-à-dire partageable par d'autres Fonctionnements-consciences, à travers ce que MCR appelle des Descriptions relativisées de base Transférées. La somme de celles-ci devrait, correspondre à la somme des connaissances scientifiques relativisées que grâce à MCR nous pouvons obtenir sur le monde.

Deuxième partie du livre. Quelques illustrations majeures de MCR

Les chapitres constituant cette deuxième partie présentent le plus grand intérêt pour les lecteurs connaissant déjà MCR. Ils illustrent en effet des recherches menées sans désemparer par Mioara Mugur-Shächter dans ces dernières années, et jamais présentées à ce jour de façon synthétique. Ils apportent la preuve de l'intérêt de la révolution épistémologique qui découle de la généralisation de MCR à d'autres domaines de la représentation des connaissances. On y voit en effet remis en cause, d'une façon qui sera certainement fructueuse, l'essentiel de ce que l'on considérait jusqu'ici comme les bases de la conceptualisation dans les disciplines évoquées. Il ne devrait plus jamais être possible, dans ces disciplines, de continuer à raisonner selon les précédentes méthodes, sauf à le faire intentionnellement dans le cadre de recherches limitées. Malheureusement, ces chapitres sont véritablement difficiles. Nous les estimons hors de portée des non-spécialistes. Il est dommage que l'auteure n'ait pas essayé de les résumer sous une forme plus accessible, quitte à réserver l'exposé complet aux professionnels.

Nous n'avons ici ni le temps ni la compétence pour résumer l'argumentaire de chacun de ces chapitres, consacrés respectivement à la logique, aux probabilités, au concept de transmission des messages chez Shannon, à la complexité et finalement au temps, vu sous l'angle des changements identité-différence qui peuvent s'y produire.

Bornons nous à dire que, dans chacun de ces cas, on retrouve le postulat de MCR selon lequel on ne peut pas imaginer et moins encore rechercher une prétendue réalité ontologique ou en soi de phénomènes qui sont en fait des constructions du Fonctionnement-conscience et du Générateur d'Entité-objet tels que définis dans la première partie du livre. Prenons l'exemple de la logique. Si celle-ci était considérée comme un instrument du même type que les mathématiques (dont la plupart des mathématiciens n'affirment pas qu'elles existent en soi), on pourrait lui trouver quelque utilité, mais seulement pour donner de la rigueur aux raisonnements abstraits. Elle ne servirait pas à donner de meilleures descriptions du monde. Or la logique prétend au contraire décrire des classes d'objets, auxquelles elle applique des prédicats. Mais ces objets et ces prédicats sont présentés comme existant dans la réalité ou traduisant des relations réelles entre éléments de la réalité. La logique ne se pose donc pas la question du processus de construction par lequel on les obtient. Elle suspend dont quasiment dans le vide l'ensemble de ses raisonnements. Faire appel à ceux-ci risque alors d'être inutile, voire dangereux, en égarant l'entendement dans des cercles vicieux (comme le montre le paradoxe du menteur). La logique ne retrouvera de bases saines qu'en utilisant MCR pour spécifier les objets de ses discours.

Il en est de même du concept de probabilités tel que défini notamment par le mathématicien Kolmogorov. L'espace de probabilité proposé par ce dernier ne devrait pas être utilisé dans les sciences, sauf à très petite échelle. Il ne peut que conduire à des impasses. Si l'on pose en principe qu'il existe des objets en soi difficilement descriptible par les sciences exactes, dont la connaissance impose des approches probabilistes, le calcul des probabilités est un outil indispensable. Ainsi on dira que la probabilité de survenue d'un cyclone dans certaines conditions de température et de pression est de tant. Mais si, pour analyser plus en profondeur les phénomènes de la thermodynamique atmosphérique et océanique, on admettait que le cyclone n'existe pas dans la réalité, pas plus que l'électron ou le photon, mais qu'il est la construction ad hoc unique d'un processus d'élaboration de qualification selon MCR, le concept de probabilité changera du tout au tout. On retrouverait, à une échelle différente, l'indétermination caractéristique de la physique quantique et la nécessité de faire appel à des vecteurs d'état et à la mathématique des grands nombres pour représenter concrètement de tels phénomènes.

La mesure de la complexité oblige aux mêmes restrictions. Pour la science « classique » de la complexité, il existe des entités réelles (en soi) dont les instruments classiques de mesure ne peuvent pas donner, du fait de leur imperfection, de descriptions détaillées et déterministes. D'où une impression de complexité. Il faut donc tenter de mesurer les systèmes ainsi prétendus complexes par des méthodes détournées. Mais si l'on admettait que l'objet, complexe ou pas, est une création du Fonctionnement-conscience et relève dont de MCR dans la totalité de son étude, les choses se simplifieraient. On cesserait en fait de parler de complexité. On se bornerait à dire que l'on a créé une Entité-objet accessible aux opérations de qualifications, qui n'aurait pas d'intérêt en soi, mais seulement comme élément d'un processus plus général de construction de connaissances.

Mioara Mugur-Shächter ne le dit pas, mais le même raisonnement pourrait selon nous s'appliquer au concept de système. La science des systèmes s'évertue à identifier ceux-ci dans la nature et se noie évidemment dans le nombre immense des candidats-systèmes qu'elle peut identifier. Mieux vaudrait admettre d'emblée que le système en général, tel système en particulier, n'existent pas en soi, mais doivent être spécifiés en tant qu'Entités-objets créées par un Générateur ad hoc.

Le même type de raisonnement s'appliquera à la théorie de Shannon et au concept de temps, tels que présentés dans l'ouvrage.

Commentaires

Plusieurs questions se posent, une fois le livre refermé. En voici quelques unes, rapidement évoquées :

Prolongements médiatiques?

Si l'on considère, comme nous le faisons, qu'il s'agit d'une œuvre maîtresse, le premier souci qui devrait incomber, non seulement à l'auteure mais à ses disciples et lecteurs, serait de lui donner des prolongements. Mais pour cela, il faudrait que MCR soit mieux connue, discutée, amplifiée, enrichie dans les nombreuses directions, tant épistémologiques qu'applicatives, ouvertes par Mioara Mugur-Shächter. Est-ce le cas ? Sans doute pas pour le moment, hormis un cercle très étroit.

S'agit-il d'une question de communication ? L'auteure fait-elle appel comme il le faudrait aux nouveaux médias. A priori, la réponse est négative. Google donne environ 240 références sur son nom, ce qui est infime. Son site personnel, http://www.mugur-schachter.net/ n'a reçu que 230 visiteurs depuis sa création en février 2006. Les seules références critiques en français sont nos précédents articles. C'est très honorable pour nous mais ce n'est pas à la hauteur de l'oeuvre. Il faudrait donc que Mioara Mugur-Shächter fasse un effort considérable de meilleure diffusion par Internet. Celle-ci est aujourd'hui la clef du succès dans le monde scientifique et surtout dans le grand public Notre expérience nous montre que les journalistes scientifiques, notamment, ne vont pas directement aux sources mais s'appuient sur les références qu'ils trouvent en ligne.

Mais alors se pose à nouveau la question de la forme déjà signalée. Il faut absolument que MMS soit déclinée dans des versions diversifiées, attrayantes, éventuellement pour certaines d'entre elles dramatisées ou illustrées. Ceci suppose un effort considérable, qui n'est sans doute pas à la portée d'une personne seule, mais qu'il faudrait faire.

Prolongements scientifiques et méthodologiques?

MCR restera un exposé théorique dense et peu utilisable par les scientifiques, ingénieurs et autres concepteurs de systèmes cognitifs si la méthode n'est pas transformée en une sorte de langage de programmation (ou tout au moins pour commencer en un langage d'analyse fonctionnelle) qui puisse être utilisé de façon indifférenciée. La difficulté à vaincre est en effet la résistance des chercheurs et concepteurs. Même s'ils estimaient que les postulats réalistes qui sous-tendent leurs travaux ne résistent pas à la critique, ils ne feraient pas l'effort de changer de méthodologie si le coût d'investissement dépassait les bénéfices attendus d'une nouvelle méthode. En effet, le réalisme n'entache pas d'erreurs pratiques (en dehors pour le moment de la physique quantique) les résultats obtenus dans la plupart des applications. Certes, le postulat réaliste bloque les développements ultérieurs dans la plupart des cas. Mais les concepteurs ne se soucient pas en général du futur, mais de la rentabilité à court terme.

Il nous semble qu'un travail d'aide à la programmation analogue à celui réalisé par Stephen Wolfram avec son logiciel Mathematica serait réalisable et trouverait des clients. Les premiers utilisateurs, comme l'indique d'ailleurs Mioara Mugur-Shächter, devraient être les concepteurs de robots autonomes, désireux de doter ceux-ci d'une capacité interne (non programmée de l'extérieur) pour se doter de représentations de leur environnement ayant du sens pour eux.

Prolongements épistémologiques ?

Nous estimons, à tort ou à raison, que MCR si brillamment conçue par Mioara Mugur-Shächter comme une méthode canonique de description susceptible de s'appliquer non seulement aux sciences mais à l'ensemble des langages descriptifs, est bien plus que cela. Il s'agirait de la formalisation spontanée, réalisée pour la première fois, sinon dans l'histoire de l'univers, du moins dans l'histoire de la Terre, d'un processus de construction de toutes les formes organisées existant dans le monde. Si en effet nous considérons que l'univers s'est construit à partir du Vide Quantique par matérialisation aléatoire réussie de particules quantiques nées des fluctuations dudit Vide, il faut bien qu'un processus très puissant ait poussé à la complexification des composants élémentaires de matière et à l'apparition, par émergence, des complexités biologiques et mentales que nous connaissons. Cette idée rejoint, nous semble-t-il, celles présentées par les physiciens selon lesquelles l'univers serait un calculateur – et qui plus est, selon Seth Lloyd qui vient de donner à cette hypothèse une forme rigoureuse, un calculateur quantique(6).

Dès qu'une entité matérielle organisée, sous forme d'une molécule fut-elle simple, extrait du Vide une particule quantique (où ce qui correspond à ce terme dans la théorie quantique des champs) et l'intègre à sa structure, elle transforme ce qui n'était alors pas descriptible en une Entité-objet Qualifiable. En effet, se faisant, l'entité matérielle considérée se transforme, pour reprendre les termes de Mioara Mugur-Shächter, en Générateur d'Entité-objets. La nouvelle Entité-objet ainsi crée est Qualifiée par les relations qu'elle entretient avec le Générateur. L'opération répétée le nombre de fois qu'il faut aboutit à l'émergence d'un Fonctionnement (in)conscience, avec ses téléonomies, qui entrera dans la grande compétition darwinienne entre molécules primordiales. Le même schéma se reproduira lorsque apparaîtront les premières entités biologiques et que celles-ci, elles-mêmes, se doteront d'aptitude à la conscience(7). Les constructions matérielles et intellectuelles de la société scientifique terrestre feraient ainsi partie d'un univers beaucoup plus vaste, celui des Descriptions relativisées de base Transférées (pour reprendre le terme de MCR) cosmologiques.

Mais alors, demanderont les esprits curieux, pourquoi, si MCR représente un mouvement cosmologique aussi profond, a-t-il fallu attendre Mioara Mugur-Shächter et, avant elle, les premiers physiciens quantiques, pour qu'il prenne une forme langagière enfin intelligible ? C'est tout le problème de la construction de l'univers en général et du rôle de la science, processus constructif méthodique en particulier qui est alors posé. Pourquoi serait-ce seulement à notre époque (et par la voix de Mioara Mugur-Shächter) que les Terriens prendraient conscience de leurs aptitudes à construire cet univers et lui donner (éventuellement) des finalités compatibles avec leur survie ? Et, plus généralement, est-ce que d'autres Fonctionnement conscience existeraient ailleurs dans l'univers pour proposer des perspectives convergentes (ou divergentes) ? Nous laissons à la sagacité de nos lecteurs le soin de répondre à ces questions.

 

Notes
(1) Voir http://www.automatesintelligents.com/echanges/2004/avr/mioara.html ainsi que http://www.automatesintelligents.com/echanges/2004/juin/mrc.html et http://www.admiroutes.asso.fr/larevue/2004/55/mrc.htm On lira également un interview de l'auteure http://www.automatesintelligents.com/interviews/2004/juin/mugurschachter.html
Un article sur MCR a été présenté sur notre blog Philoscience: http://philoscience.over-blog.com/article-1542920-6.html remonter d'où l'on vient
(2) Method of Relativized Conceptualisation. Quantum Mechanics, Mathematics, Cognition and Action (Kluwer Academic, 2002). Un article de la revue Le Débat mars avril 1997 avait précédemment posé le problème: http://ns3833.ovh.net/%7Emcxapc/docs/conseilscient/mms1.pdf
(3) Nous pensons avoir montré qu'en paraphrasant dans le langage courant et sur des exemples simples les algorithmes proposés par le livre, il était possible de le rendre plus accessible (voir note 1). Mioara Mugur-Shächter annonce qu'elle a entrepris la rédaction d'un ouvrage destiné au grand public. Il s'agit d'une très bonne initiative. Mais que nos lecteurs n'attendent pas la parution de ce dernier pour s'intéresser au présent livre.
(4) Ceci apparaît, comme le note d'ailleurs Mioara Mugur-Shächter, dans le fait que beaucoup de physiciens quantiques continuent à trouver la physique quantique compliquée, voire incompréhensible. On cite toujours Feynman qui aurait dit que celui qui prétend comprendre la physique quantique montre qu'il n'y a rien compris. En fait, si le formalisme mathématique de la mécanique quantique est compliqué, il n'est pas le seul. Ce qui est compliqué, voire impossible, c'est de prétendre mettre derrière le formalisme des réalités en soi contradictoires, incompréhensibles par l'entendement humain. Mais à ce titre les Ecritures sont également compliquées voire incompréhensibles quand elles évoquent un Dieu en trois personnes. MCR vise précisément à éviter cette tentation métaphysique sinon mythologique appliquée à une science, la physique quantique, qui est devenue celle de tous les jours. La même observation vaudrait évidemment aussi pour ce qui concerne la cosmologie théorique. remonter d'où l'on vient
(5) Selon Wikipedia (http://fr.wikipedia.org/wiki/T%C3%A9l%C3%A9ologie), la téléologie est l'étude des systèmes finalisants acceptant différentes plages de stabilité structurelles et capables, en général, d'élaborer des buts ou de modifier leurs finalités, (en anglais:purposeful systems"). Dans les systèmes humains psycho-socio-politique, cette téléologie peut très bien se nommer de "autodétermination". La téléonomie est l'étude des systèmes finalisés par une stabilité; recherche de la stabilité structurelle et non du changement, (en anglais: "goal seeking systems"). En psychologie et en sociologie, la téléonomie peut très bien se nommer de "autonomie". Ces mots sont suspects pour les matérialistes. Mais il est tout à fait possible d'accepter les définitions ci-dessus sans se référer à des causes finales imposées par une divinité quelconque. remonter d'où l'on vient
(6) Voir notre article http://www.automatesintelligents.com/biblionet/2006/avr/lloyd.html remonter d'où l'on vient
(7) Nous renvoyons sur ce point au livre de Gilbert Chauvet http://www.automatesintelligents.com/biblionet/2006/fev/comprendre_vivant.html remonter d'où l'on vient

Repost 0

Articles Récents

Liens