Overblog Suivre ce blog
Administration Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

24 janvier 2010 7 24 /01 /janvier /2010 20:20
Des hommes et des robots
Jean-Paul Baquiast

Une question souvent posée à propos des robots, que ceux qui nous lisent se posent peut-être aussi, consiste à se demander si le développement rapide, sinon exponentiel, de la robotique dans les sociétés modernes présente un danger pour l'homme. Cette question était dans l'esprit d'Isaac Azimov, ce romancier de Science Fiction qui avait exploité le thème du robot dans ses oeuvres, à une époque où la robotique n'avait évidemment pas atteint le degré de développement actuel. La réponse qu'il proposait était simple: établir une grande loi que les roboticiens et les robots eux-mêmes devraient respecter: ne pas faire de mal aux humains. Aujourd'hui, la même réponse est suggérée par ceux qui se préoccupent de l'éthique de la science et de la technologie, c'est-à-dire des règles morales élémentaires que, sans référence particulière aux religions, mais en termes de morale sociale laïque, les scientifiques devraient s'efforcer de respecter.


En application de cette règle, ne pas faire de mal aux humains, les ingénieurs qui conçoivent les robots devraient éviter de réaliser des robots potentiellement prédateurs, susceptibles de faire des victimes et provoquer des dégâts. Mais toute technologie est dans ce cas. Il n'y a pas plus prédateur que l'automobile aujourd'hui. Il est donc demandé aux concepteurs de robots de prévoir des dispositifs, câblés dans le corps du robot ou intervenant sur ordre de programmes spécifiques, capables de désactiver le robot en cas de comportements dangereux. Nous évoquons ici par ce terme des comportements dangereux non voulus par les humains travaillant avec le robot. Il est bien évident que si un robot militaire tue par erreur des civils dans le cadre de missions assignées par le commandement, ce ne sera pas le robot qui devra être blâmé. Ce sera le commandement qui avait commandé la mission tout en connaissant pertinemment le risque de destructions collatérales. Le risque dont il faut se prémunir, en ce cas, est celui d'un robot dont les fonctions de contrôle interne se désactiveraient ou s'affoleraient, ce qui pourrait le conduire à sortir des limites prévues par le constructeur et l'utilisateur, pour s'adonner à des conduites dangereuses, aléatoires ou ciblées.


En quoi dans ce cas le robot pose-t-il un problème particulier? Toutes les machines complexes peuvent à un moment ou un autre se désorganiser, entraînant des catastrophes. On l'a vu à l'occasion de la perte en 2009 du vol Air France Rio-Paris, dont les causes restent inconnues mais qui sont probablement imputables à des défaillances du système de contrôle. Pour s'en prémunir, les ingénieurs multiplient ce que l'on nomme les redondances, c'est-à-dire les commandes de secours. Pourquoi ne pas faire de même, à propos des robots? On peut très bien l'équiper d'instructions qui le déconnecteraient au cas où son comportement le ferait entrer dans des zones rouges, c'est-à-dire des zones où il deviendrait potentiellement dangereux, pour lui-même et pour les autres.


C'est bien évidemment ce que font les ingénieurs. Les cahiers des charges visant la réalisation des robots modernes, qu'ils soient militaires ou civils, comportent de telles clauses. Mais, disent les esprits inquiets, que se passera-t-il si le robot, devenu suffisamment intelligent, trouve moyen de désactiver lui-même les commandes lui fixant des barrières à ne pas franchir. Azimov n'avait pas cru devoir évoquer sérieusement cette possibilité, car de son temps, l'hypothèse d'un robot pleinement intelligent et conscient capable de se dresser contre les humains en échappant aux règles morales qui lui auraient été imposées relevait d'un niveau supérieur de science-fiction qu'il n'avait pas abordé. Aujourd'hui, la perspective mérite de l'être. La robotique n'est pas encore capable de produire des robots pleinement autonomes, leur autonomie s'exerçant, comme nous l'avons indiqué plus haut, dans le cadre de contraintes fixées à l'avance et supposées être indépassables. Mais les robots et leur environnement deviendront rapidement si complexes qu'il sera difficile de prévoir ce qui leur passera, si l'on peut dire, par la tête.


Un robot peut devenir dangereux sans être devenu véritablement méchant, ou « malicieux » au sens américain, termes incluant la référence à des valeurs morales quasi religieuses transcendant la technologie. Comme il est constitué de nombreux composants qui évoluent sans cesse et de façon plus ou moins aléatoire, notamment au niveau des interaction entre les agents logiciels qui commandent son comportement, il peut parfaitement muter, au sens propre du terme, c'est-à-dire prendre la forme d'une version imprévue par les concepteurs et les utilisateurs humains. Certaines de ces nouvelles versions pourraient se révéler utiles à ses missions initiales et donc bienvenues. Ainsi il pourrait améliorer spontanément tel ou tel de ses programmes afin de fonctionner sur un mode plus économe en énergie. Mais à l'inverse, une mutation pourrait le rendre, non seulement dangereux, mais capable de désactiver durablement les contraintes internes fixées à son comportement et destinées à limiter sa dangerosité.


Que se passerait-il alors? Il faut bien se persuader que les robots ne sont (ou ne seront) pas très différents de tous les autres organismes évolutionnaires apparus sur Terre depuis les premiers pas de la vie. Ces organismes mutent sans cesse, sans préoccupations morales a priori. Les nouvelles versions d'organismes résultant de ces mutations se heurtent à un univers déjà constitué, qui leur impose ce que l'on nomme en évolution des barrières sélectives. Ou bien les mutants se révèlent plus efficaces que leurs prédécesseurs et peuvent échapper aux barrières sélectives. En ce cas ils survivent et donnent naissance à de nouvelles lignées. Ou bien au contraire ile ne le peuvent pas et disparaissent, rejoignant l'immense cimetière des inventions fussent-elles géniales mais rejetées par le milieu.


Très bien direz-vous. Nous voici rassurés. Comme ce sont des humains qui fixent les barrières sélectives, il suffirait ainsi que le demandait Azimov, qu'ils provoquent l'élimination de tous les éventuels robots mutants susceptibles de devenir dangereux. Les humains auront donc toujours affaire à des populations de robots domestiques, aussi inoffensifs pour eux que le sont devenus les animaux ex-sauvages domestiqués depuis plusieurs millénaires.


Nous pensons pour notre part que s'imaginer que les humains veulent ou même peuvent contrôler les machines, robotisées ou non, qu'ils fabriquent depuis quelques siècles relèvent de ce que nous appelons une illusion humaniste. C'est oublier le fait que les humains et leurs technologies se développent d'une façon quasi symbiotique, dans le cadre d'échanges entre caractères fondateurs qui en font de nouvelles espèces mutantes, entrant en compétition darwinienne les unes avec les autres 1). Ceci a été dit depuis quelques temps à propos de l'automobile ou des ordinateurs. Les usagers et à plus forte raison les concepteurs et constructeurs de ces machines ne sont pas capables, quoiqu'ils prétendent, d'orienter leur développement à partir de décisions rationnelles qu'ils s'estiment capables de prendre. Depuis des années, on a voulu limiter la dangerosité des voitures. Certains résultats ont été obtenus, mais le prélèvement en vies humaines ne cesse de croître, du simple fait de l'extension quasi virale du nombre de ceux que nous pourrions appeler des « homo-automobilis ». Si la croissance de ce nombre s'arrêtait, ce ne serait pas du fait de la volonté des humains, mais parce que des limites physiques empêcheraient désormais leur prolifération, manque d'espace, manque de carburant ou de matières premières.


Les ordinateurs et produits électroniques divers ne sont pas aussi dangereux que les automobiles, mais dans certains cas, ils peuvent le devenir. C'est le cas du téléphone au volant et de la consultation des écrans multiples que les constructeurs veulent insérer sur les tableaux de bord, soi-disant pour améliorer la sécurité et le confort de conduite, en fait pour faire du profit et, plus en profondeur, contribuer à des mutations favorables à la dissémination de l'espèce automobile+homo-automobilis. Les autorités réglementaires qui étaient intervenues, sans grand succès, pour limiter le téléphone au volant auront beaucoup de souci à se faire, car le poids des lobbies conjugués de l'automobile et de l'électronique n'empêchera pas la prolifération de l'internet au volant. Les accidents se poursuivront donc, dans l'indifférence générale.


Peut-on transposer cette réflexion à l'avenir des robots et des hommes qui d'une façon ou d'une autre, s'associeront à leur développement? Certainement. Plus encore que les automobiles et autres machines faiblement intelligentes, les robots disposent, par définition, de capacités d'adaptation aux humains considérables. Nous avons rapidement évoqué ce point en décrivant l'avenir de la robotique domestique ou conviviale. De même qu'un propriétaire de chien choisit celui-ci et l'élève en fonction de son caractère, à lui propriétaire, faisant de l'animal un agneau sympathique ou une bête fauve, de même procédera le propriétaire ou l'utilisateur d'un robot domestique. Mais de même que dans le couple homme-chien, ce n'est pas seulement l'homme qui déteint sur le chien mais le chien qui déteint sur l'homme, de même dans le couple homme-robot les caractères s'échangeront très vite. Ils ne le feront pas d'une façon statique, puisque l'homme et le robot sont deux entités évolutionnaires. Ils le feront d'une façon dynamique. Autrement dit, l'homme et le robot développeront par interaction des déterminismes évolutifs communs ou corrélés. Chez l'homme, ce sera un certain type d'organisation du cerveau ou de l'ordre cellulaire, pouvant se répercuter à certains niveaux du génome. Chez le robot, il s'agira de réorganisations principalement logicielles se transmettant par résaux. L'humain dans ce cas pensera sans doute qu'il restera maitre du sens pris par l'évolution globale du couple, mais ce sera une illusion.


Les moralistes s'indigneront. Que restera-t-il de l'humain dans ce que vous décrivez? Il restera, pour prendre une image de plus en plus utilisée, du post-humain. Mais ce post-humain sera-t-il bon ou sera-t-il mauvais? Les deux, mon capitaine. Plus exactement il sera ce que sa confrontation avec un environnent de plus en plus imprévisible, du fait du développement exponentiel des technologies et de leurs usages, lui permettra de devenir. Bien malin qui pourrait aujourd'hui le prévoir.


1) Nous développons ce thème dans l'essai précédemment annoncé sur ce site, à paraître en mars 2010, Le paradoxe du Sapiens (JP. Bayol)

Repost 0
7 janvier 2010 4 07 /01 /janvier /2010 16:53

L'actualité politique et le Paradoxe du Sapiens

Avertissement: cet article s'éloigne un peu des considérations habituelles à ce site. Il fait allusion à un prochain essai de l'auteur, et les applications qu'il en tire ne prétendent pas à l'objectivité à laquelle visent généralement les articles publiés ici. Jean-Paul Baquiast

Notre essai, Le Paradoxe du Sapiens, à paraître en février 2010 chez Jean-Paul Bayol, offre une hypothèse de travail visant à étudier l'évolution actuelle de nos sociétés avec des outils plus efficaces que ceux proposés chacune dans son domaine par les différentes sciences traitant de cette question : économie, science politique, anthropologie, biologie et bien d 'autres. Pour nous, les agents moteurs dans cette évolution sont des entités jamais encore identifiées en tant que telles, que nous avons nommées les systèmes anthropotechniques. Il s'agit de superorganismes associant de façon intime les processus évolutionnaires biologiques, dont l'homo sapiens sous sa forme actuelle est un des produits, et les processus évolutionnaires technologiques nés il y a plus d'un million d'années par l'utilisation systématique de certaines forces naturelles par les hominidés.

La difficulté de cette approche tient à ce que les systèmes anthropotechniques sont aussi nombreux et foisonnants aujourd'hui que le sont les filières technologiques modernes. Chacun d'eux peut en principe être étudié dans sa singularité. Mais l'observation de leurs comportements collectifs et des conséquences de ces comportements sur l'évolution de la planète ne peut se faire que de façon statistique. Dans ce cas alors, la rigueur scientifique impose de rappeler que c'est l'oeil (ou l'esprit) de l'observateur qui découpe dans le continuum des faits observables ceux qui lui paraissent significatifs. Les motivations de cet observateur sont donc à prendre en compte, si cela se peut, lorsqu'il s'agit de juger de la généralisation possible des descriptions ainsi proposées. Mais cette précaution s'impose à toute science. Aucune aujourd'hui ne pourrait prétendre à une objectivité ne tenant pas compte de la situation de l'observateur et des moyens dont il dispose pour observer.

1. Rappel des bases théoriques envisagées

Nous montrons dans notre essai que les capacités cognitives des systèmes anthropotechniques sont par définition limitées. Même lorsqu'ils disposent des instruments d'observation les plus fins et des moyens de traitement de l'information les plus développés, ils en peuvent se représenter le monde extérieur que dans la limite de capacité de ces divers outils. Or le monde est infiniment vaste, complexe et rapidement évolutif. Les appareils cognitifs des systèmes anthropotechniques n'en fournissent donc que des représentations partielles et toujours en retard sur le flux des évènements. De plus ces représentations ne peuvent pas provoquer immédiatement les changements de comportement qui seraient nécessaires pour tenir compte des modifications du monde qu'elles ont pu faire apparaître. Les appareils moteurs ont nécessairement un temps de retard, plus ou moins long, lorsqu'il s'agit de tenir compte de la modification des représentations se produisant au niveau des appareils cognitifs. Les décisions finales que prennent les systèmes anthropotechniques pour s'adapter au monde sont donc toujours fragiles. Certaines sont cependant plus pertinentes que d'autres. Dans la compétition darwinienne incessante qui oppose les systèmes anthropotechniques, ceux qui prennent les décisions les plus pertinentes, fondée sur des représentations du monde extérieur plus exactes que celles des autres, mises en œuvre par des appareils moteurs plus réactifs, obtiennent des avantages compétitifs grâce auxquels ils l'emportent sur leurs rivaux.

Il ne s'agit là que d'évidence, dira-t-on. Il serait illusoire de penser qu'un système, fut-il doté des instruments sensoriels et moteurs les plus efficaces possible, fut-il doté d'un cerveau capable de prendre des décisions les plus rationnelles possible, puisse se représenter la situation du monde dans sa globalité et traiter des problèmes du monde comme s'il était ce monde lui-même. Même si nous limitions par principe ce monde à la planète Terre seule, l'impossibilité demeurerait. Pour qu'un système anthropotechnique cognitif puisse obtenir une représentation pertinente de la planète et des prévisions pertinentes relatives à son avenir, il faudrait que ce système puisse s'étendre aux dimensions de la planète elle-même, en prenant en compte l'infinité des facteurs agissant sur elle. Comme aucun système anthropotechnique n'a pour le moment cette dimension, il ne peut produire que des représentations limitées et incertaines. Les prévisions qu'il en retire et les décisions qu'il prend sont donc par définition entachées d'erreurs.

Par ailleurs, un système anthropotechnique ne peut prendre en compte que ses seuls intérêts, définis par les informations que ses capteurs lui donnent du monde relativement à ses états internes et aux relations entre ces états et ce qu'il perçoit du monde. Autrement dit, il est fondamentalement « égoïste » ou « auto-centré ». Certes, il ne faut pas exclure que, par ce que l'on nomme en biologie l'altruisme, il puisse très momentanément adopter le point de vue et servir les intérêts d'un autre système, mais ceci ne peut qu'être marginal au regard du flux permanent d'informations qu'il reçoit relativement à lui-même. Quand la représentation des intérêts nécessairement lointains et diffus de la planète pénètre son appareil cognitif, elle ne pèse que faiblement au regard de la représentation de ses intérêts propres. Un altruisme étendu à la planète toute entière et permanent n'est pas envisageable, sauf de façon théorique.

Or comment se définissent les comportements, généralement égoïstes et plus rarement altruistes, des systèmes anthropotechniques ? Ceux-ci étant le produit de la symbiose d'agents biologiques et d'agents technologiques, deux séries de déterminismes se font jour au niveau de ceux-ci et se conjuguent de façon imprévisible : les déterminismes biologiques et anthropologiques pesant sur les humains et ceux résultant des contraintes de développement des machines et des techniques au sein du monde matériel dont elles tirent leurs composants. L'essentiel des déterminismes biologiques a été mis en place au long de dizaines de millions d'années d'évolution et reste encore aujourd'hui très peu adaptable. Les déterminismes technologiques évoluent au contraire très vite, tout en se heurtant aux contraintes d'un monde matériel fini auquel les technologies doivent inévitablement s'adapter. Les déterminismes croisés qui en résultent et dont découle à tout moment l'action singulière d'un système anthropotechnique individuel sont si complexes que leur effet est très rarement prévisible, même en termes statistiques. A plus forte raison est-ce le cas quant des milliers de systèmes anthropotechniques différents interagissent dans la compétition darwinienne permanente qui les oppose.

Egoïsme et imprévisibilité

Mais pourquoi rappeler ces évidences ? Elles ne font que traduire en leur donnant une base scientifique nouvelle ce que savent quelques rares philosophes des sciences et scientifiques : les politiques humaines sont essentiellement égoïstes, d'une part, imprévisibles d'autre part. Il s'ensuit qu'elles ne peuvent en général faire l'objet d'un pilotage par ce que l'on nomme la conscience volontaire rationnelle, comme peuvent l'être (en général) des systèmes anthropotechnique de très petite dimension : par exemple le journaliste associé à son clavier d'ordinateur. Certes les systèmes anthropotechniques disposent, au regard des sociétés animales n'intégrant que très peu de techniques et n'ayant pas développé beaucoup de facultés cognitives, de capacités d'anticipation suffisantes pour ne pas subir tout è fait passivement les évènements du monde, mais leurs capacités d'action dite rationnelle (explicitement raisonnée) et volontariste (je décide de faire telle chose et par conséquent je la fais) restent très limitées.

Or malheureusement, cette impuissance fondamentale est ignorée par les opinions publiques, notamment en Occident. L'illusion selon laquelle l'espèce humaine dispose d'une capacité, l'esprit, qui lui permet d'aborder tous les problèmes, d'envisager toutes les solutions et finalement de mettre en œuvre toutes celles qu'il juge pour des raisons pratiques ou morales les meilleures, reste extrêmement répandue, malgré les démentis que lui inflige quotidiennement l'expérience. Il s'agit d'un héritage de la mythologie spiritualiste selon lequel l'homme, à l'image d'une entité divine située en dehors du monde, généralement nommée Dieu, est libre de faire des choix bons ou mauvais. Pour qu'il fasse de bons choix, il suffit de le convaincre que des intérêts supérieurs, moraux ou de simple survie, lui imposent d'éviter les choix contraires, qualifiés de mauvais choix. La puissance de son esprit le mettra à même de définir les bons choix et de se laisser guider par eux. La mise en œuvre de ces choix s'ensuivra d'elle-même. Quant aux technologies, n'étant que des productions de l'homme, elles seront par définition obéissantes et n'imposeront que très rarement des comportements qui ne seraient pas conformes aux objectifs définis par la raison des hommes. Cette illusion, concrètement, conduit à penser que le monde est prévisible et gouvernable par l'homme armé de son esprit. Si des erreurs se produisent, c'est parce que certains humains se sont laissés envahir par des motivations que la morale altruiste réprouve, par exemple le besoin de dominer et de détruire. Il faut donc par diverses actions de formation préventive, civique ou religieuse, redresser les esprits momentanément égarés. Sinon, une répression éclairée pourrait s'en prendre aux auteurs de dysfonctionnements et corriger leurs mauvaises conduites.

Les systèmes anthropotechniques sont tous imbibés, au niveau des cerveaux des humains qui les composent et des idées ou connaissances qu'ils produisent, de cette illusion humaniste, relative à la puissance de l'esprit humain. D'une part, ils se l'appliquent à eux-mêmes. D'autre part ils l'appliquent à leurs actions collectives. Dans les deux cas, ils sont incapables de voir leurs limites. Ils ne peuvent pas admettre qu'ils sont ingouvernables ou faiblement gouvernables, d'abord en ce qui concerne leurs propres intérêts, ensuite et à plus forte raison en ce qui concernerait la gouvernabilité d'ensemble de la planète. Même lorsque des indices sérieux résultant d'observations scientifiques répétées leur montrent que leurs comportements et décisions de fait divergent de ce qu'ils avaient prévu, ils ne sont pas capables d'en tenir compte. Ces indices ne sont pas recevables par eux car ils vont trop à l'encontre de leurs intérêts immédiats. C'est ainsi pensons nous que se manifeste le paradoxe du sapiens décrit dans notre livre : le sapiens se croit, non sans raisons, un peu plus sapiens que les autres animaux. Mais, imbriqué dans des systèmes anthropotechniques complexes, il reste impuissant à prendre les grandes décisions collectives qui sauveraient la planète des agressions qu'il lui inflige. La catastrophe est donc, plus que probablement, au bout du chemin.

Mais alors, dira-t-on, que faire ? Si l'hypothèse de l'anthropotechnique résumée ci-dessus présente quelque sérieux scientifique, ne faudrait-il pas en déduire qu'aucune action rationnelle n'est possible, au moins à grande échelle ? L'observateur enfermé dans sa petite sphère anthropotechnique ne verra que les évènements accessibles aux instruments d'observation dont dispose cette sphère. Si les faits observés induisent chez lui des réactions et régulations correctrices, celles-ci ne commanderont que les instruments d'action ou effecteurs nécessairement limités dont cette sphère anthropotechnique est équipée. L'évolution globale de la planète, que chaque système anthropotechnique contribuera à perturber et qu'aucun système ne sera capable d'observer avec l'ampleur nécessaire, se poursuivra donc sur sa pente actuelle. Or nous l'avons rappelé, cette évolution, autant que l'on puisse juger, même en se limitant aux instruments d'observation aujourd'hui disponibles, semble catastrophique.

Des systèmes cognitifs se connectant spontanément


Nous avons cependant fait l'hypothèse que les principaux systèmes anthropotechniques modernes sont des systèmes cognitifs, générant au niveau de leurs cerveaux des connaissances certes limitées, mais résultant d'un processus d'élaboration de type scientifique. Ceci pourrait permettre l'émergence progressive de nouvelles connaissances de type scientifique. Nous pensons en effet que le premier comportement scientifique à la portée d'un observateur, fut-il enfermé dans les limites de connaissance que lui impose le système anthropotechnique particulier auquel il appartient, consiste à interpréter les données qu'il reçoit de ses sens à la lumière d'hypothèses produites par son cerveau. Ne sont conservées que les hypothèses vérifiées par les expériences à la portée des moyens d'action ou effecteurs dont dispose ce système anthropotechnique. Si ce processus est suffisamment collectif, impliquant de nombreux observateurs-vérificateurs opérant en réseau, des contenus cognitifs que nous pourrons qualifier de scientifiques apparaîtront et généreront de nouvelles interprétations, plus « scientifiques » que les précédentes, dans les cerveaux des observateurs ultérieurs. Cette évolution se produira évidemment d'abord dans le système anthropotechnique auquel appartiennent ces observateurs. Mais si plusieurs systèmes anthropotechniques coopèrent de fait et échangent leurs informations grâce à des réseaux communs, un réseau d'acteurs raisonnant selon les mêmes logiques et agissant de façon plus ou moins coordonnée pourra se mettre en place spontanément.

Nous indiquons dans notre essai qu'avec le développement de l'instrumentation scientifique en réseau impliquant un nombre croissant de cerveaux d'observateurs humains, un système anthropotechnique d'un nouveau genre pourrait se superposer aux systèmes plus spécialisés. Il disposera de cognitions plus étendues et de moyens d'action plus efficaces. Ses mises en garde et recommandations visant à éviter les risques identifiés pourraient peut-être mobiliser un nombre plus élevé de systèmes anthropotechniques jusqu'alors égoïstes. Dans le cas de la course supposée de la planète à la crise systémique, un tel système anthropotechnique scientifique (nous dirions plutôt dans ce cas hyper-scientifique car faisant appel à des sciences différentes) se mettra–t-il en place suffisamment vite pour que le pire soit évité ? Il est impossible aujourd'hui de faire cette hypothèse optimiste. Tout au plus peut-on penser que le drame final se produirait beaucoup plus tôt si les observateurs enfermés dans leurs propres systèmes anthropotechniques préscientifiques comptaient sur les vertus d'un prétendu esprit humain divinisé pour prendre les choses en mains.

2. Quelques vérifications expérimentales


Notre essai a été rédigé dans le courant des années 2008 et 2009. Depuis ces dates, bien des évènements sont survenus et surviennent tous les jours, devant lesquels les interprétations apportés par les médias et, en amont, par les scientifiques, apparaissent aussi nombreuses que contradictoires. L'optimisme mesuré le dispute au pessimisme le plus profond. Nous serions tentés de dire que ce désordre n'a rien d'étonnant, puisque ces divers observateurs et commentateurs n'utilisent pas la méthode que nous proposons et que nous considérons comme indispensable, le recours à l'hypothèse de l'anthropotechnique et l'abandon des illusions humanistes et spiritualistes. Mais, comme de juste, ceux à qui nous faisons cette remarque nous demandent comment notre hypothèse nous permettrait, mieux que d'autres, d'analyser l'évolution des sociétés humaines et plus largement celle de la planète, telles du moins que ces évolutions nous apparaissent.

Pour répondre à cette question, il faut prendre des exemples concrets. Nous présentons donc ici, dans une seconde partie, sommairement résumés quelques uns des évènements majeurs récents qui confirment selon nous la pertinence de l'analyse anthropotechnique. Ceci ne veut pas dire, bien évidemment, que l'analyse anthropotechnique résolve toutes les difficultés de compréhension. Elle permet tout au moins d'éviter les illusions idéalistes et, dans les meilleurs des cas, de proposer des pistes de recherche aux différentes sciences s'intéressant à l'évolution de la planète.
Il n'est pas question d'envisager de faire ici une liste un tant soit peu complète des évènements politiques récents. Mentionnons seulement ceux qui nous paraissent, en ce début d'année 2010, émerger par leur importance de la marée constamment renouvelée de l'actualité.

La raréfaction des ressources terrestres ne ralentit pas les compétitions destructrices entre systèmes

Au sein d'une planète aux ressources de plus en plus finies, on observe le maintien d'une compétition darwinienne aveugle entre systèmes anthropotechniques. On aurait pu penser qu'avec le développement des réseaux de connaissance scientifique correspondant aux progrès des technologies d'observation et de communication scientifique, les systèmes anthropotechniques seraient progressivement devenus plus « cognitifs », au sens que nous avons donné dans notre livre au concept de système cognitif et rappelé ci-dessus. Autrement dit, ils auraient de plus en plus pris conscience de l'impact dévastateur de leurs actions sur le monde global et auraient été par conséquent enclins à mettre en place des régulations communes protectrices. L'échec du sommet de Copenhague à l'automne 2009 a montré qu'il n'en était rien. Certes, tous les Etats du monde étaient présents lors de cette réunion organisée par l'ONU. Mais, comme on le sait, les intérêts nationaux l'ont emporté sur les objectifs de régulation coordonnée. Ceci est du au fait qu'au sein de chacun d'eux, des systèmes anthropotechniques « égoïstes », souvent extrêmement puissants, sont incapables de modifier leurs comportements dangereux. Il en est ainsi des industries charbonnières, pétrolières et gazières. Les experts prévoient que, pour compenser la diminution des réserves aisément accessibles, ces industries, tout au long du prochain siècle, extrairont jusqu'à la dernière molécule les combustibles fossiles actuellement inexploitables du fait des coûts et des destructions environnementales impliquées : sables bitumineux, gaz de schistes (shale-gaz), etc. Il en sera de même de ceux qui exploitent jusqu'à extinction les milieux vivants : forêts, océans, biodiversité. Rien ne semble capable de les arrêter.

D'une façon plus générale, on constate qu'à grande ou petite échelle, les activités visant à consommer jusqu'à épuisement les ressources naturelles inertes, eau, air, sols, espace, se poursuivent. Les quelques mesures de protection décidées ici et là restent insuffisantes. Les sociétés humaines sont toujours régies par le droit des organisations dominantes à agir comme elles l'entendent au service de leurs intérêts spécifiques. Il en résulte immédiatement une aggravation des inégalités entre riches et pauvres, qui renforce la dilapidation des ressources naturelles. Les riches consomment de plus en plus de biens de plus en plus rares, mais les pauvres, incapables de réguler leur développement démographique et exprimant des besoins de survie qu'ils estiment légitimes, se comportent de plus en plus de leur côté en facteurs de destruction des équilibres éco-environnementaux naturels.

On objectera, précisément à propos du développement démographique, qu'une grande partie des excès d'exploitation prévisibles dans les années prochaines proviendra d'une population mondiale condamnée à atteindre, quoique l'on puisse faire par ailleurs, les 11 milliards d'humains vers le demi-siècle, sinon plus. Or ce développement démographique, dira-t-on, n'est pas du aux technologies, mais au jeu des réflexes génétiques et sociaux visant à multiplier les descendants pour se garantir de l'avenir, ceci jusqu'à épuisement des ressources. Toutes les espèces réagissent ainsi, et l'homme comme les autres. Il n'y a rien d'anthropotechnique dans ce phénomène. On pourrait cependant montrer que les populations humaines pauvres caractérisées par des taux de reproduction excessifs ne doivent pas être considérées isolément, indépendamment de l'élévation du niveau technologique caractérisant les parties du monde où elles vivent. Elles constituent avec les techniques, aussi insuffisantes soient-elles, destinées à prévenir la surmortalité infantile, les épidémies, les famines dévastatrices, avec aussi les médias en réseau qui transmettent au monde entier les images de la misère extrême, un système anthropotechnique certes particulier, mais aussi dangereux pour les équilibres naturels que les grands ensembles techno-industriels identifiés par ailleurs. Ce système, impliquant plus d'un milliard d'humains, se reproduit et s'étend en effet, alors que les sociétés animales soumises depuis des millions d'années aux contraintes de la rareté et obligées de facto de réguler leur croissance du fait de la mortalité n'ont jamais bénéficié de telles techniques.

Les systèmes anthropotechniques de la communication en réseau ne contribuent pas nécessairement à la mise en place de systèmes cognitifs de type scientifique.

L'observation de la façon dont les technologies de l'information sont utilisées par ceux qui s'y expriment de façon volontariste et par ceux qui en subissent plus passivement l'influence fait apparaître une course de vitesse entre le développement de systèmes cognitifs scientifiques structurants et celui de contenus archaïques perpétuant des représentations déstructurantes du monde. Nous disons, conformément à la définition donnée dans le livre au concept de système cognitif scientifique, que de tels systèmes mettent à la disposition des cerveaux humains les résultats des pratiques scientifiques expérimentales. Malgré les critiques justifiées que l'on peut faire à la science, celle-ci demeure dans notre esprit la seule et unique façon d'obtenir du monde les descriptions les mieux à même d'orienter des actions collectives de protection de la nature et de l'humanité. On ne peut pas nier le développement actuel des systèmes anthropotechniques de nature scientifique, dont l'influence se répand – trop lentement sans doute – tant au niveau des décideurs que des populations. C'est d'ailleurs là selon nous le seul facteur capable de jouer à long terme un rôle dans l'évolution des comportements en faveur d'une régulation rationnelle de l'évolution du monde.

Mais il faut mettre en parallèle le fait que ces mêmes réseaux technologiques véhiculent des images de surconsommation et des messages publicitaires visant à étendre à l'ensemble des populations les modes de vie des quelques centaines de millions d'humains favorisés. Plutôt qu'inciter ceux-ci à réduire leur prélèvement écologique, ces réseaux sont utilisés par les représentants des systèmes anthropotechniques dominants et prédateurs – tels que ceux du monde des industries dite de consommation - pour étendre sans restrictions leurs activités. D'un ordre différent mais tout aussi nocifs sont les réseaux techniques permettant la spéculation boursière et financière. Celle-ci est de plus en plus reconnue comme un facteur majeur d'aggravation des inégalités, de mauvaise gestion des ressources naturelles et de distorsion des processus spontanés de consommation et de production. Or ces réseaux spéculatifs, liés à la mondialisation des échanges, sont présentés comme indispensables à la « croissance ». Ils se développent donc de façon irrésistible. Les Etats sont incapables de les réguler comme ils le prétendent parfois. Au contraire ils s'appuient sur eux et en deviennent les captifs.
.
Un cas particulier : la déstructuration progressive du complexe militaro-industriel américain (MICC)

Nous avons dans notre essai fait de ce complexe, symbolisé de façon sommaire par la figure du Pentagone, un exemple particulièrement représentatif des grands systèmes anthropotechniques modernes. Il avait déterminé autour de ses intérêts et de ses pratiques une grande partie de l'histoire visible du monde depuis un demi siècle. Or aujourd'hui, il semble en pleine décomposition. La puissance technologique qui le caractérisait n'a en rien diminué, mais les processus de décisions politiques par lesquels il s'imposait semblent perdre de leur efficacité, ce qui ouvre la porte à des dérives de plus en plus dangereuses. C'est que les grands systèmes anthropotechniques ne sont pas éternels. Comme toutes les structures biologiques et technologiques, ils passent par des cycles de croissance, de stabilisation et de décroissance. C'est peut-être ce qui est en train de se produire dans le cas du MICC américain.
D'autres grands systèmes anthropotechniques sont apparus dans le monde depuis quelques années et menacent désormais sa domination. On pourrait penser cependant  que la puissance du MICC est plus grande que jamais. Aujourd'hui en effet, loin d'avoir été réfréné comme les naïfs l'espéraient par la venue au pouvoir du président Obama, le MICC a conquis l'esprit de ce dernier. Il l'a rallié à la poursuite de la guerre en Afghanistan et le pousse actuellement à affronter le Yémen. Mais ce faisant, va sans doute se trouver vérifiée l'adage du "qui trop embrasse mal étreint". Le MICC va donc se trouver engagé dans des conflits plus ou moins ouverts avec 7 Etats du Moyen-orient et d'Afrique. Or ses forces sont de plus en plus affaiblies pour différentes raisons que nous ne rappellerons pas ici. Poursuivre dans la voie actuelle pourrait aboutir à un effondrement général de la puissance américaine. Mais peut-on raisonner un complexe anthropotechnique tel que le MICC ?

Le maintien d'un terrorisme systémique


Il est certain que les Etats-Unis, face à la menace d'un attentat terroriste provenant d'un « combattant suicide » supposé inspiré par la branche yéménite d'El Qaida, sont tentés de « sur-réagir » catastrophiquement, en engageant au Yémen une guerre aussi vouée à l'échec que les précédentes au Moyen Orient. C'est ce que déplorait le chroniqueur Patrick Cockburn cité par Dedefensa http://www.independent.co.uk/opinion/commentators/patrick-cockburn-threats-to-yemen-prove-america-hasnt-learned-the-lesson-of-history-1853847.html Mais peuvent-ils ne pas le faire ? Si l'attentat manqué du « pantybomber » de Northwest Airlines le 25 décembre avait réussi, si d'autres attentats de même nature suivaient, Barack Obama pourrait-il rester calme ? Pourrait-il même rester au pouvoir ? Si des attentats identiques frappaient les lignes aériennes européennes, celles assurant par exemple la liaison avec le Maghreb, que feraient les Européens ?

Nous sommes là en face semble-t-il d'enchaînements systémiques. La puissance inégalitaire non partagée, celle des Etats-Unis, mais aussi celle de l'Europe, suscite désormais des actes terroristes individuels. Il n'est guère besoin d'une structure Al Qaida forte pour les organiser, ni même d'un hypothétique complot des néo-conservateurs américains visant à déstabiliser Obama. Les populations mondiales, même dans les pays riches, sont assez pourvues en déséquilibrés et fanatiques religieux pour que, à tous moments, des individus voulant se grandir par un acte suicidaire entraînant des conséquences spectaculaires ne passent à l'acte en utilisant les outils dits de la guerre du faible au fort, à la portée de tous. La généralisation des moyens de communications mondiaux ne fait que favoriser leurs recrutements. Les fondamentalismes islamiques en font un usage considérable.

La fragilité intrinsèque des puissances dominantes, reposant sur leur complexité technologique, ne peut qu'encourager les agressions de type viral, du type de celles du pantybomber nigérian. De la même façon, pour prendre une image en fait peu transposable, l'extrême complexité de certains systèmes technologiques, tel l'actuel LHC du CERN, peut augmenter d'une façon exponentielle la probabilité de survenance de bugs informatiques assimilables à la prolifération de virus.

Pour s'en prévenir, au niveau des pays riches, il faudrait en principe soit multiplier à l'infini les mesures de sécurité, jusqu'à finir par ne plus bouger et ne plus rien faire (y compris en coupant l'Internet et la télévision). Soit accepter la suppression complète des inégalités mondiales...toutes mesures totalement infaisables ...En fait, on ne voit pas très bien de solutions envisageables, sauf à laisser faire (avec cependant le minimum indispensable de mesures de police et de justice) et s'armer de philosophie. Il en est ainsi semble-t-il des évolutions systémiques, de celles que nous appelons anthropotechniques. Elles ne sont ni prévisibles ni bien entendu contrôlables. Prétendre le contraire serait encourager l'irréalisme.

(A suivre )
Repost 0
15 décembre 2009 2 15 /12 /décembre /2009 10:51

Grippe. Se faire vacciner ou non. Qui prend la décision ?
par Jean-Paul Baquiast 12/12/2009


Je me crois libre de choisir de me faire vacciner ou non contre la grippe. Or, ce sont peut-être d'autres agents qui choisissent pour moi, mais pas ceux que j'imagine en lisant les campagnes de presse sur Internet.

Confrontés à l'actuelle pandémie de grippe AH1N1, les divers gouvernements et l'OMS ont décidé fin 2009 de laisser chacun libre de choisir de se faire vacciner ou non. Plusieurs raisons sont avancées pour justifier ce choix : le fait que la grippe soit relativement bénigne et n'impose donc pas des mesures préventives contraignantes, notamment en terme de vaccination. Il s'agit aussi de la difficulté, même dans les pays bien préparés, à fournir immédiatement les millions de doses individuelles qui seraient nécessaires en cas d'obligation à se faire vacciner. On fait aussi valoir que les autorités ne souhaitent pas affronter les peurs viscérales des populations face à l'acte vaccinal, même si les effets secondaires dangereux de celui-ci sont extrêmement rares.


Il s'en suit cependant que l'on se trouve dans une situation fréquente en évolution, où les individus sont conduits à choisir entre l'altruisme et l'égoïsme. Les altruistes se dévouent, éventuellement à leurs risques et périls, laissant ainsi les égoïstes profiter de la sécurité relative résultant du dévouement des altruistes. Accepter de se faire vacciner contre la grippe, avec les sujétions et les éventuels risques que cela suppose, est présenté par les autorités de santé comme un choix à la fois égoïste (on se protège) mais aussi et surtout altruiste (on protège les autres en limitant les risques de propagation du virus). Ne pas se faire vacciner est au contraire totalement égoïste. On compte sur la vaccination des autres pour diminuer les risques que l'on pourrait courir soi-même, non seulement risques vaccinaux mais aussi risques d'attraper la grippe. Reste cependant une faible probabilité de contamination, que l'égoïste accepte pour son compte, se complaisant apparemment à vivre des situations à risques. .


Cette situation est proche de celle étudiée par la théorie des jeux sous le nom de Dilemme du prisonnier. Deux prisonniers suspectés d'un crime ont à choisir entre coopérer avec la justice (plaider coupable dans le système judiciaire américain) ou ne pas coopérer et se déclarer innocent, obligeant la police à rechercher le coupable. Celui qui coopère en plaidant coupable n'est puni que de 2 ans de prison, mais celui n'ayant pas coopéré, innocent ou pas, est condamné à 6 ans. Si tous les deux plaident coupables, ils n'obtiennent que 4 ans de prison. Si tous les deux se déclarent innocents, ils sont tous deux libérés. Aucun prisonnier n'est averti de la décision prise par l'autre. Chacun sera tenté de plaider innocent, mais si l'autre plaide coupable, il se retrouvera condamné au maximum. Il pourra donc avoir intérêt à plaider coupable, pour diminuer sa condamnation.


Dans le cas des campagnes de vaccination, il semble que les individus se répartissent avec une certaine constance entre ceux qui se font vacciner, à la fois pour leur bien et pour celui des autres, et ceux qui courent le risque de ne pas se faire vacciner en espérant que la vaccination des autres minorera leurs propres risques. Les premiers sont indéniablement des altruistes. Même s'ils estiment agir dans leur propre intérêt, ils ne veulent pas faire courir à la collectivité les risques qu'égoïstement ils accepteraient pour eux-mêmes. On pourrait penser que les choix dans un sens ou dans l'autre sont aléatoires, ou dépendent de circonstances chaque fois différentes : sévérité de l'épidémie, facilité d'accéder aux vaccins, risques vaccinaux, information donnée au public par les autorités de santé, etc.



La coopération entre bactéries


Il n'en est peut-être rien. Des études menées sur des populations de bactéries soumises à des stress collectifs montrent qu'en fait, des déterminismes dont les causes sont encore mal identifiées conduisent à des répartitions stables entre altruistes et égoïstes.
Mais en quoi, nous dira-t-on, des bactéries pourraient-elles faire preuve de qualités que l'on pourrait croire réservées à des espèces supérieures ?

Des chercheurs américains et israéliens se sont livrés à des analyses complexes portant sur des colonies de milliards de bacilles subtils, bactéries très communes. Ils ont montré que les bactéries individuelles, face au risque pesant sur une de ces colonies du fait d'une diminution des ressources, ont le choix entre deux attitudes, l'altruiste et l'égoïste. Les bactéries altruistes choisissent de sporuler (créer un spore, espèce d'oeuf comportant l'ADN de la mère et capable de résister longtemps en attente de conditions meilleures). Mais de ce fait, en tant qu'individus, elles se suicident et leurs restes sont dispersés dans le milieu où vit la colonie, au profit des autres.

Cependant un petit nombre de bactéries peuvent faire un choix contraire, un choix égoïste consistant à survivre en adoptant un mode de vie au ralenti - dit état de compétence intermédiaire (competence intermediate state) - dans lequel une modification de la perméabilité de leur membrane leur permet d'absorber les résidus nutritifs provenant de la mort des bactéries altruistes, en attendant que le milieu redevienne favorable. Ainsi, en tant qu'individus, elles réussissent à faire face à la crise, en profitant du sacrifice de leurs voisines. Mais le nombre des bactéries faisant ce choix égoïste est nécessairement réduit, puisqu'il est limité par le nombre des bactéries s'étant sacrifiées.


On ajoutera que les bactéries ne se précipitent pas pour faire tel ou tel choix. Elles prennent le temps d'informer leurs voisines. Ainsi les égoïstes ne procèdent pas de façon clandestine (en trichant), mais de façon ouverte. La colonie peut donc adopter un comportement globalement aussi rationnel que possible, face à des conditions d'environnement changeantes.


On se demandera pourquoi l'ensemble de la population de bactéries ne fait pas un choix commun à tous les individus, soit sporuler soit tenter de survivre. Pour une raison très simple : un tel choix minorerait les chances de survie de la colonie. Si toutes les bactéries sporulaient, la population ne pourrait pas profiter rapidement d'un éventuel retour des conditions favorables. La «germination» d'une spore demande plus de temps et des conditions plus favorables que n'en a besoin une bactérie en état de latence pour se réactiver. Mais à l'inverse, si toutes les bactéries décidaient de se mettre en état de compétence intermédiaire et si les conditions favorables ne se rétablissaient pas, la colonie risquerait de disparaître sans avoir produit de spores, c'est-à-dire sans espoir de descendance capable de transmettre ses gènes. Les contraintes de l'évolution darwinienne ont donc favorisé, depuis sans doute des milliards d'années, une solution hautement rationnelle et morale.


Dans une population humaine soumise à de telles contraintes, on pourrait concevoir que les choix vitaux auxquels les individus seraient confrontés, entre :
- accepter de mourir pour permettre la survie de quelques-uns en laissant ses provisions à la communauté,
ou- tenter de survivre en profitant des provisions des altruistes mais en courant le risque de ne pas le moment venu disposer de provisions suffisantes,

feraient l'objet de délibérations mettant en oeuvre les ressources morales les plus élevées ou les calculs d'intérêt les plus savants.

Mais peut-être serait-on surpris de constater que, comme chez les bactéries étudiées par les équipes précitées, de tels choix seraient de facto déterminés par des communications chimiques inconscientes entre individus du groupe, déclenchant des réseaux complexes de gènes et de protéines qui se livreraient à l'équivalent de la théorie des jeux. Il en résulterait que la répartition entre les altruistes et les égoïstes ne découlerait pas de la bonne volonté ou du désir de survivre de chacun, mais d'échanges entre effecteurs chimiques et activateurs de gènes définissant au cas par cas la solution, certes probabiliste, mais aussi adéquate que possible grâce à laquelle seraient maximisées les chances de survie de la population.


Nous laisserons nos lecteurs philosophes méditer à partir de ce cas sur les différences distinguant les colonies humaines des colonies bactériennes...N'oublions pas que les bactéries ont eu 4 milliards d'années pour mettre au point des solutions retrouvées aujourd'hui par les cerveaux des organismes supérieures.


Source

Proceedings of the National Academy of Sciences, University of California, San Diego's Center for Theoretical Biological Physics et Tel Aviv University en Israel.
http://www.physorg.com/news179521562.html

 

Repost 0
11 décembre 2009 5 11 /12 /décembre /2009 16:42

 
Transformer les scientifiques en zombies sans histoire ?
par Jean-Paul Baquiast et al.
11/12/2009

Source: img.dailymail.co.uk/.../ZombieWalk_468x604.jpg


Le zombie est une entité à visage et comportement apparemment humains, mais incapable de la moindre émotion et du moindre jugement. Le système capitaliste libéral étroitement productiviste qui domine encore l'ensemble du monde, à l'ouest comme à l'est, au nord comme au sud, n'a pas besoin de scientifiques capables de penser et de se souvenir. Il suffit qu'ils puissent résoudre, le plus rapidement et le plus économiquement possible, les questions bassement techniques se posant aux grands systèmes de pouvoir en compétition pour dominer le monde.


Les scientifiques n'ont donc pas à faire de politique, ce serait du temps perdu. Par conséquent ils n'ont pas besoin de connaître l'histoire politique, qui pourrait les conduire, comme dit le langage courant, à « faire des histoires » c'est-à-dire faire des rapprochements mal venus entre les leçons du passé et les événements d'aujourd'hui. Certains scientifiques ou techniciens, quelles que soient leurs spécialités, refusent de se laisser ainsi traiter en outils. Ou, du moins, ils s'y essaient. C'est le cas de nos amis britanniques du groupe SGR, Scientists for Global Responsability (http://www.sgr.org.uk/) à qui nous donnons à l'occasion la parole. Beaucoup travaillent pour la défense, mais ils tiennent à conserver leur liberté d'expression.


En France, le président et la majorité actuellement au gouvernement, sans expliquer clairement aux scientifiques qu'ils n'ont pas à s'intéresser à l'histoire parce que celle-ci serait la source de critiques politiques mal venues, semblent avoir décidé de passer le même message subliminal à la totalité de la nation, étudiants en sciences et scientifiques compris. Quelles que soient les raisons invoquées, tenant notamment à l'encombrement des programmes en terminale scientifique, la décision d'en exclure l'histoire est lourde de sous-entendus. Elle fait partie de l'entreprise générale de décervèlement de la nation actuellement en cours.


Bien évidemment, ce ne sont pas 2 heures de plus ou de moins avant la fin des études secondaires qui rendront les étudiants en sciences et technologies aveugles aux réalités politiques. Néanmoins le message reste fort. L'histoire relève des sciences humaines. Les sciences humaines constituent des pertes de temps voire des foyers de contestation. Donc, vous, qui êtes ou serez des professionnels sérieux, garder le nez sur vos guidons, sinon la machine déraillera.


Ce message est évidemment scandaleux, lorsqu'il s'adresse à des jeunes qui peuvent se laisser impressionner. Mais il l'est encore plus du fait que, finalement, il semble aussi s'adresser à l'ensemble des scientifiques, de tous âges et de toutes disciplines. Comme si la science, appliquée ou fondamentale, n'avait pas besoin de connaître l'histoire. Le propre même de la recherche, le propre même des applications réussies, suppose une connaissance historique approfondie des découvertes et des conditions dans lesquelles elles ont été reçues (et souvent détournées) par les milieux et forces politiques dont elles étaient contemporaines. Au plan académique, et, risquons le mot, épistémologique, elles supposent également le retour aux sources et leurs critiques, c'est-à-dire un véritable travail d'historien.


Le temps n'est plus certes où il fallait posséder sur le bout des doigts Aristote – et la Bible – pour être reconnu au sein des communautés savantes. Mais aujourd'hui celui qui arrive vierge de toute connaissance en histoire des sciences et en histoire générale se condamne à être une proie passive pour de multiples récupérations commerciales, idéologiques et religieuses.


Mais c'est sans doute ce à quoi rêve le système de déstructuration qui est le nôtre.

Repost 0
8 décembre 2009 2 08 /12 /décembre /2009 19:19


Entretien avec Michel Gondran
Expériences EPR, interaction d'échange et non-localité
propos recueillis par Jean-Paul Baquiast 03/12/2009

 

MIchel GondranMichel Gondran, est président de l'Académie européenne interdisciplinaire des science (AEIS), dont nous avez plusieurs fois relaté les manifestations Parallèlement à une carrière consacrée à la Direction des Etudes et Recherches d'Electricité de France, il a approfondi les questions liées à l'interprétation de la mécanique quantique.

Pour les lecteurs physiciens, Michel Gondran a bien voulu nous confier le chapitre de son futur livre portant sur l'EPR http://www.admiroutes.asso.fr/larevue/2009/101/gondran1.pdf
ainsi qu'un article publié sur Archiv.
http://www.admiroutes.asso.fr/larevue/2009/101/gondran2.pdf

Sur l'actualité du thème de l'onde pilote et du déterminisme dans le monde quantique, nous conseillons à nos lecteurs de relire l'article que nous avions publié en mars 2008 «Et si le monde quantique était déterministe»

 

Jean-Paul Baquiast, pour Automates Intelligents, AI : Cher Michel Gondran, merci d'avoir accepté cet entretien pour le compte des lecteurs de Automates Intelligents. Vous êtes le président depuis 3 ans de l'AEIS, Académie européenne interdisciplinaire des sciences, dont vous nous avez plusieurs fois relaté les manifestations(1). Ceci vous donne des responsabilités importantes dans le domaine de la promotion et de la diffusion des travaux scientifiques. Mais par ailleurs, parallèlement à une carrière consacrée à la Direction des Etudes et Recherches d'Electricité de France, vous avez approfondi les questions liées à l'interprétation de la mécanique quantique. Vous soutenez aujourd'hui une hypothèse considérée par la majorité des physiciens comme probablement non pertinente, celle qui avait été présentée par le physicien français Louis de Broglie(2) en 1927 et reprise par David Bohm(3) en 1952, popularisée par le concept d'onde pilote(4). Elle est également connue sous le terme de théorie des «variables cachées» dite aussi de l'ordre implicite, selon laquelle les particules, au lieu d'être soumise à l'indétermination quantique, sont déterminées à chaque instant, en position et en impulsion, par des variables cachées. Louis de Broglie, père de la mécanique ondulatoire, avait au début de sa carrière, développé cette hypothèse. Il l'avait ensuite abandonnée, puis reprise à la fin de sa vie(5).


Nous avons plusieurs fois évoqué dans cette revue la question du réalisme en science physique, c'est-à-dire celle qui postule l'existence d'une réalité indépendante des observateurs. Selon ce réalisme, dit aussi des essences, la science peut espérer approcher de plus en plus précisément la réalité mais ne peut prétendre la décrire de façon exhaustive. Très proche de l'essentialisme philosophique, platonicien ou kantien, le réalisme a été remis en cause pas l'interprétation de Copenhague dominant la physique quantique aujourd'hui. Au réalisme des essences, cette dernière oppose le constructivisme, selon lequel le réel ne peut être décrit que de façon probabiliste, dans la relation entre un réel inconnaissable en soi, l'observateur (ou ses instruments) et son cerveau. Comme cependant l'interprétation probabiliste donne des résultats applicatifs très satisfaisants, la question de savoir ce qu'est le monde microscopique en soi, si par exemple les particules (photon, électron, etc.) existent ou non et peuvent donc être observées à titre individuel, a été laissée de côté.


Nous sommes donc curieux de savoir pourquoi vous-même avez pris le risque de reprendre et actualiser la théorie de Broglie-Bohm sur les variables cachées. Comment la situez vous aujourd'hui au regard de l'interprétation de Copenhague et quelles conséquences pensez vous pouvoir tirer de votre approche. Nos lecteurs apprendront avec intérêt que vous avez rédigé un ouvrage sur cette question qui devrait paraître prochainement. Il comportera deux parties, une discussion en termes de philosophie des sciences, destinée à tous publics, et la présentation des équations qui vous permettent d'appuyer vos hypothèses, que se réserveront les spécialistes.


Michel Gondran MG.
: Revenons un peu en arrière. Vous savez qu'aux débuts de la physique quantique s'était instauré un grand débat qui s'était concrétisé au Congrès Solvay de 1927. Vous aviez d'un côté Bohr, Born, Heisenberg, Pauli…et de l'autre côté Einstein, de Broglie, Schrödinger…. L'objet du débat était de savoir s'il fallait renoncer au déterminisme et à la réalité objective. C'était un choix fondamental. Finalement l'équipe menée par Bohr a renoncé au déterminisme et à l'existence d'une réalité en soi, indépendante de la mesure. Ses membres se sont mis d'accord sur l'interprétation qu'ils avaient présentée un peu auparavant au congrès de Côme, après d'ailleurs de longues discussions entre eux. Les autres sont arrivés au congrès Solvay en ordre dispersé. De Broglie avait deux interprétations, Schrödinger une. En fait tous les membres étaient implicitement d'accord sur l'interprétation statistique.


AI
: Celle selon laquelle on peut décrire les phénomènes du réel physique en termes de populations statistiques, indépendamment de ce que sont ou non en soi les particules générant ces phénomènes…


MG. :
Oui. Ce que les seconds réfutaient était que celle-ci soit l'unique interprétation possible. Ce qui est intéressant en terme d'histoire des sciences, et qui rapproche un peu celle-ci de l'histoire des relogions, est qu'une fois la séparation acquise entre les deux écoles, il fut impossible de revenir en arrière. Einstein a toujours réfuté l'approche probabiliste en tant que décrivant objectivement la réalité. On connaît son expression : «Dieu, autrement dit la nature, ne joue pas aux dés». De Broglie, jeune maître de conférences à Paris et enseignant la physique quantique à Paris, a d'abord renoncé à son interprétation pour se rallier au point de vue de Pauli et de ses collègues, dite de Copenhague. Schrödinger de même. Par contre, de Broglie, dans les années 55, est revenu à son interprétation première.


AI.
: C'est là qu'était intervenu Bohm…


MG.
: Oui. Quand de Broglie a appris qu'un jeune américain, David Bohm, venait de retrouver l'interprétation qu'il avait proposée en 1927, il s'est relancé dans cette approche et l'a approfondie jusqu'à la fin de sa vie. Bohm avait inventé seul une interprétation voisine de celle de de Broglie, qu'il avait présentée à Einstein. Celui-ci lui a indiqué qu'il s'agissait en fait de la théorie de de Broglie de 1927. Précisons que le jeune Bohm était un esprit indépendant. Attaqué par le Maccarthisme, il a été obligé de quitter Princeton pour l'Amérique du Sud, en sacrifiant sa carrière à ses idéaux.


AI. :
Précisément, quel était le débat ?


MG.
: Le débat était le suivant : Est-ce que la mécanique quantique était complète, l'équation de Schrödinger suffisant à représenter toute l'information ? Fallait-il au contraire affirmer, avec la théorie de l'onde pilote, celle de de Broglie, elle-même reprise par Bohm et plus tard par Bell, qu'elle n'était pas complète et qu'il fallait rajouter la possibilité de connaître instantanément la position et la vitesse de la particule, l'onde pilotant la particule. Cela permettait de retrouver la dualité onde particule, la particule pouvant être individualisée à tous moments au sein de l'onde. Ce que l'on appelle la variable cachée correspond à la position de la particule. Ce qui est intéressant, comme le disait Bell, est qu'en fait, la plupart du temps, la variable que l'on mesure est la position. La fonction d'onde, description probabiliste de l'état quantique de la particule dans la base de dimension infinie des positions, résultant de l'application de l'équation de Schrödinger, n'est jamais mesurée. En pratique, c'est l'impact de la particule sur un écran, c'est-à-dire la position, qui est mesurée. Il s'agit en fait de la variable cachée dans la théorie. A l'inverse, la vraie variable cachée, dans cette approche, est la fonction d'onde, puisqu'elle n'est jamais mesurée directement. Elle n'est mesurée que par sa densité, celle-ci étant déterminée par l'impact de plusieurs particules.


AI.
: Que pouvez-vous dire dans ces conditions des expériences faites par Aspect et autres pour vérifier les inégalités de Bell(6)?


Les deux EPR


MG
. : C'est un des points fondamentaux. Si l'on n'a pas une interprétation de ces inégalités, s'appuyant sur le type de particules intriquées en cause, on se perd. Je vais peut-être rappeler deux choses. La question a été lancée en 1935 par Einstein, Podolsky et Rosen, sous le nom de paradoxe EPR(7) . Ils ont imaginé deux particules manifestant une certaine intrication. Si on mesure la position de l'une, on devrait avoir la position de l'autre, ce qui parait contraire à la physique quantique. Il s'agissait évidemment à l'époque d'une expérience de pensée. A partir de là, Bohm a défini une 2e expérience, que l'on peut appeler EPRB, prenant en considération le spin des particules. Il envisage deux particules intriquées par le spin(8). Bohm a donc proposé de conduire l'expérience EPR avec spin. Ce point de vue a été généralisé. Aujourd'hui, lorsque l'on fait des expériences d'intrication, on ne parle que du spin. Cette différence, expérience sans spin et avec spin, va avoir au point de vue de l'interprétation, un rôle essentiel.


Or le point que je veux rappeler est qu'en 1920, Einstein a écrit plusieurs articles sur l'interprétation de la relativité générale. Ils sont peu connus mais essentiels pour le débat. Einstein revient sur l'existence d'un éther. Il rappelle qu'il avait éliminé l'éther en ce qui concernait la relativité restreinte. Mais pour la relativité générale, il avait du introduire un éther, une sorte de tenseur d'espace, qui n'est pas sensible à la position ni à la vitesse, mais qui est sensible à l'accélération et à la rotation. C'est l'éther de la relativité générale. Il développe ce point dans un grand cours qu'il donne à l'université de Leyde, où il refait l'historique de tous les éthers.

Si maintenant on reprend les expériences EPR et EPRB (avec des spins), on voit en faisant une simulation numérique de EPRB que la position ne bouge pas. Il n'y a pas d'interaction à distance entre les positions non plus qu'entre les vitesses, il n'y a que des interactions à distance entre les spins. Cela justifie l'affirmation selon laquelle cette interaction ne peut pas transporter de l'information.


AI
. : L'expérience EPRB est donc très différente de l'expérience EPR ?


MG.
: Absolument. Quand Einstein dit qu'il ne peut pas y avoir de transmission à distance, il se place dans l'expérience EPR qu'il avait définie en 1935. Or les inégalités de Bell porte sur EPRB et ont été proposées en 1964. Les expériences d'Aspect ont eu lieu en 1980. Donc Einstein ne les avait jamais connues. Selon le paradoxe EPR, il ne peut y avoir d'interaction à distance portant sur la position et la vitesse. C'est conforme à ce qu'Einstein dit lui-même dans son article de 1920. Par contre, l'interaction instantanée peut se faire pour la rotation et l'accélération. Or le spin, c'est de la rotation. Je dis donc pour ma part que l'interaction à distance entre des particules définies par leurs spins n'est pas en contradiction avec l'interprétation de la relativité générale présentée par Einstein lui-même en 1920.


C'est un point qui a été soulevé par Karl Popper en 1982(9). Juste après les expériences d'Aspect, Popper a réécrit la préface de son livre sur la physique quantique. Il y dit ce que je viens de dire : il faut distinguer entre l'EPR et EPRB. Il montre donc qu'Einstein n'était pas en contradiction avec lui-même puisque son expérience EPR n'était pas l'expérience EPRB. Selon Popper, Einstein n'aurait jamais dit que dans le cas de l'EPRB avec spin, s'il l'avait connue, il ne pouvait pas y avoir de transmission à distance.


Cela me donne une explication réaliste de l'expérience EPRB : il y a bien réalisme et interaction à distance, mais cette interaction à distance n'est pas en contradiction avec la relativité générale. Elle ne viole pas la relativité. La vitesse de la lumière n'est une limite que pour les positions et les vitesses, pas forcément pour les rotations dans l'espace. C'est très subtil, mais on ne peut pas éliminer d'emblée un texte d'Einstein de 20 pages donnant son interprétation de la relativité générale. Il est vrai que dans les textes suivants, il n'a jamais été aussi net.


Les expériences d'Aspect sont très intéressantes, mais, comme le dit Popper, il faut les interpréter comme justifiant l'existence de l'éther dont Einstein n'avait pas besoin pour la relativité restreinte mais dont il a besoin pour la relativité générale, pour la rotation et l'accélération. Les expériences d'Aspect peuvent donc être considérées comme un test de l'existence de la vitesse.


Concilier réalisme et non réalisme


AI.
: C'est la thèse que vous reprenez personnellement ?


MG. :
Oui, c'est mon interprétation de l'EPR et de l'EPRB en cohérence avec la relativité générale. Il y a deux réels, un réel ontologique non mesurable déterministe et réaliste et un réel mesurable non déterministe et non réaliste qui vérifie les relations d'incertitude d'Heisenberg. En effet, on ne voie quelque chose que par l'intermédiaire de photons. Or les photons vont perturber le système que l'on observe. On ne verra donc jamais la réalité exacte. Elle sera invisible. Ce que je mesure n'est pas exactement la réalité mais cela commence à s'en rapprocher très fort.


AI.
: Comment dans ces conditions conciliez-vous non réalisme et réalisme ?


MG.
: Très simplement. Si je garde l'équation de Schrödinger, j'ai le réel statistique. Pour les particules libres indiscernables, je dois ajouter la position de la particule, que je ne connais pas mais qui existe; j'ai alors le déterminisme et j'ai le réel. Pour les particules liées, c'est plus complexe: on peut encore proposer des modèles déterministes et réalistes compatibles avec les expériences, mais ils ne sont encore pour moi qu'hypothétiques.


AI.
: Quelles conséquences tirez-vous de cette façon de voir le réel ? On peut facilement voir les commentaires que pourront en faire les philosophes des sciences. Mais qu'en serait-il en pratique ?


MG.
: J'y vois trois conséquences pratiques. La première, pratique mais théorique, me permet de faire avec ce postulat la liaison avec la relativité générale. Je m'explique. Actuellement la mécanique quantique est supposée être non réaliste, la relativité générale est supposée être déterministe et réaliste. Dans l'état actuel, ces deux grandes théories, prouvées dans leurs domaines par de nombreuses expériences, ne peuvent pas collaborer. Pour les rapprocher, les théoriciens explorent deux voies : soit rendre non déterministe et non réaliste la relativité générale. C'est ce que vise à faire la théorie des cordes. Beaucoup de gens y travaillent. Ils développent des hypothèses plus spectaculaires les unes que les autres. Laissons-les travailler. La deuxième voie propose de garder la relativité générale déterministe et réaliste, mais elle propose une interprétation déterministe et réaliste de la mécanique quantique. J'obtiens un autre cadre plus simple pour faire le rapprochement entre quantique et relativité. C'est sur ce cadre que je travaille actuellement.


Conséquences pratiques


AI.
: Qu'en est-il au plan des applications ?


MG.
: Regardons l'ordinateur quantique. Celui-ci suppose que le qbit existe et que la fonction d'onde soit complète pour représenter ledit qbit. Dans l'interprétation de de Broglie, ce n'est pas vrai. Le qbit n'existe pas. Plus exactement, la fonction d'onde du qbit existe mais il faut y ajouteIsaac Chuangr la position de la particule. Quand on veut obtenir le spin, dans l'interprétation de de Broglie, il faut disposer de deux particules afin de représenter un même qbit, c'est-à-dire revenir à des particules classiques. Or on vous dira que l'ordinateur quantique existe. On en a même fabriqué et Isaac Chuang d'IBM a proposé en 2001 un ordinateur quantique théoriquement à 7 qbits factorisant le nombre 15 en utilisant l'algorithme du mathématicien Shor de factorisation des grands nombres(10).


Mais voyons ce qu'a fait Chuang après cela. Il a indiqué par la suite qu'il arrêtait ce type de recherche. Pourquoi ? Son ordinateur quantique (utilisant la technique RMN) n'utilisait pas des objets quantiques individuels, mais un ensemble statistique de plus de 100 millions de molécules. Or il a constaté que chaque fois qu'il ajoutait un qbit, le signal était divisé par 2. Ceci confirme l'interprétation de de Broglie, puisque dans ce cas, le qbit n'existant pas, il faut le simuler par 2 bits. Donc, affirmer que l'ordinateur quantique existe me parait inexact.

Ce type d'ordinateur, basé sur le spin, en tous cas, n'existe pas. Chaque fois que quelqu'un annonce avoir fabriqué un ordinateur quantique, je regarde la proposition en détail et je constate qu'elle ne vérifie pas les propriétés d'un ordinateur quantique supposé. On explique qu'en fait, l'ordinateur quantique doté d'un nombre suffisant de qbits n'est pas réalisable, pour des raisons techniques liées à la décohérence. Pour moi, il ne s'agit que de raisons accessoires. Il n'est pas réalisable, mais pour des raisons fondamentales.


AI.
: Vous pensez donc que l'ordinateur quantique ne sera jamais possible. Cela va mettre au chômage beaucoup de laboratoires qui travaillent sur cette question, et ruiner les espoirs en une augmentation quasi infinie des puissances de calcul…


MG.
: L'ordinateur quantique faisant appel au spin ne sera en effet, selon moi, jamais possible. Je pense qu'il en est de même des autres approches comme celles basées sur les ions piégés. Ceci dit les travaux des laboratoires dont vous parlez ne sont pas inintéressants et pourront avoir d'autres retombées que celles des prétendus calculateurs quantiques.


Mais je vais prendre une autre application pratique de ce que j'avance, concernant les nanotechnologies. Les physiciens qui travaillent dans ce domaine supposent implicitement que leurs objets existent. Ils ne tiennent pas compte des points de vue théoriques. Par contre, ils tiennent compte du fait que la mécanique quantique joue aux petites échelles. Elle ajoute à la mécanique classique le fait que les particules à ces échelles ne sont pas indépendantes. Il y a donc une dépendance découlant de la physique quantique qui leur impose des comportements inhabituels. Mais ceci n'a rien de bloquant. Nous ne sommes pas là face à une impossibilité comme dans le domaine de l'ordinateur quantique. Il suffit d'étudier ce qui se passe. Pour utiliser les nanotechnologies, on peut considérer que l'on manipule des états ou réalités classiques « augmentés » par le quantique.


AI. :
Concernant la cosmologie, ce que vous proposez peut-il avoir des implications permettant de mieux comprendre ce qui se produit aux états extrêmes de la matière, ou concernant des formes encore mystérieuses, noires, de matière et d'énergie ?


MG
. : J'en ai bien quelques petites idées, mais je les considère encore comme un peu farfelues. Je préfère ne pas en parler. De toutes façons, je pense que les cosmologistes observationnels n'en savent pas assez pour faire des hypothèses théoriques susceptibles de vérifications pratiques. Mais, encore une fois, je suis là trop loin de mes bases pour me prononcer.


AI.
: Cela vous honore.


Garder à la fois de Broglie/Bohm et Schrödinger


MG.
: Pour en revenir à de Broglie-Bohm, je voudrais préciser que je diffère un peu d'eux. Je montre, mais c'est assez mathématique, que dans certains cas, leur interprétation est obligatoire, mais que dans d'autres cas, elle n'est pas possible. Dans les cas où les particules sont libres et qu'il n'y a pas de champs, je démontre mathématiquement l'exactitude de l'interprétation de de Broglie-Bohm. C'est en particulier le cas de l'expérience des fentes de Young. Dans d'autres cas tels que la transition de l'atome d'hydrogène, l'on peut montrer qu'elle est inapplicable. Dans le premier cas, je suis alors là en contradiction avec l'interprétation de Copenhague. Cela est mon point de départ, celui dont je suis sûr, autant que l'on puisse l'être en sciences. Je montre ensuite que l'on peut étendre l'interprétation de Broglie-Bohm à des expériences comme celles de Stern et Gerlach et de l'EPRB. Dans l'interprétation de de Broglie-Bohm, la fonction d'onde, le champ, se calcule en passant par les deux fentes bien que la particule ne passe que par une des fentes. J'ai même proposé une petite expérience à cet égard.

C
eci pour moi a été rendu encore plus évident à la suite des expériences faites en 1999 concernant le C60 ou fullerène. En nanotechnologie, on désigne ainsi le petit ballon de foot-ball constitué d'atomes de carbone, d'une taille d'un nanomètre. Si vous faites l'expérience des fentes de Young avec le fullerène, la taille des fentes doit être de 60 nanomètres (rapport de taille entre un terrain de foot-ball et le but). Dans ce cas, il parait évident que le fullerène ne passe que par l'une des fentes. Il ne se coupe pas en deux morceaux. Or il produit des franges d'interférences sur l'écran. Les interférences sont le résultat des impacts individuels. Ceci se simule très bien en utilisant l'interprétation de de Broglie/Bohm. Cette expérience montre clairement qu'il n'y a pas de limites entre le quantique et le macroscopique dans le cas des particules libres. Tout est quantique. Je suis très assuré là-dessus.


Par contre, je suis très assuré aussi du fait que je ne peux pas interpréter à la manière de Broglie/Bohm l'équation de Schrödinger dans le cas de la transition entre deux états de l'atome d'hydrogène. Cela veut dire que de Broglie/Bohm est faux dans certains cas. Dans le cas où la particule est peu liée, on peut avoir d'autres interprétations, mais là je ne suis pas certain de la validité de ces interprétations. Dans ces cas, on peut comprendre l'attrait de l'interprétation de Copenhague.


Mon interprétation finale est que l'on avait à la conférence Solvay deux groupes de chercheurs de très haut niveau. Chacun était sûr d'avoir raison dans une certaine classe de problèmes. Mais ils ont peut-être sur-généralisé leurs conclusions, ce qui les a rendues incompatibles. C'était naturel et inévitable. Mais pour moi s'explique ainsi le renforcement de leurs désaccords et leurs incompréhensions ultérieures. En simplifiant un peu, je dirais que chaque groupe avait raison sur la moitié des cas, selon qu'il s'agissait soit de particules libres soit de particules liées. Cela peut correspondre à l'opposition spectre continu des équations/spectre discret. Mais là je ne suis pas certain de ce que j'avance.


AI.
: Voici donc résumé très rapidement l'hypothèse que vous proposez aujourd'hui. En avez-vous discuté avec des collègues ?


MG.
: J'ai écrit quelques articles que j'ai eus un peu de mal à publier. Certains cependant sont parus dans l'American Journal of Physics. Je vous en donnerai les références. Ceci est intéressant car ces documents sont utilisés pour l'enseignement. Cela prouve que mes idées sont reconnues par au moins une petite partie de la communauté. Dans les discussions, la difficulté à laquelle je me heurtais jusqu'à présent est que je n'avais pas encore élaboré une théorie complète, grâce à laquelle j'aurais pu expliquer l'EPR et toutes les autres expériences, fentes de Young et autres.


AI.
: Je pense que vous sous-estimez la portée de vos travaux. Vous vous êtes engagé dans ce que l'on pourrait appeler la grande unification entre déterminisme et réalisme.


MG
. : Disons que, si j'ai raison, tous les gens qui s'étaient braqués sur le non-déterminisme devront au moins voir ce que recèlent les points que j'évoque. Le problème est que le coût d'entrée mathématique dans le paradigme plus ouvert que je propose n'est pas nul. J'ai pour ce qui me concerne établi une petite corde pour démontrer l'équation de Schrödinger, avec un principe de moindre action. Mais je ne suis pas du tout sûr de l'intérêt de cette voie. Il s'agit seulement d'une hypothèse me permettant de penser que la direction que je propose n'est pas totalement illusoire. Il s'agit d'une autre façon d'approcher la mécanique quantique et la relativité. Cela m'a aussi aidé à redécouvrir des auteurs plus anciens, tels que Newton, dont peu de gens savent qu'il avait déjà pressenti les différentes questions évoquées ici.


AI. : Je retiens de notre entretien que les hypothèses que vous proposez sont extrêmement séduisantes au plan théorique. Elles permettent de rapprocher des points de vue différents, d'où le terme effectivement d'unification. Vous avez eu le mérite d'aller les chercher dans les écrits originaux des scientifiques en question. De plus, au plan pratique, vous posez des questions qui ne devraient pas rester sans provoquer de réactions. Je pense en particulier à vos propos sur l'ordinateur quantique.

Je vous propose de nous en tenir là aujourd'hui, mais je suis persuadé qu'il y aura des suites à cet entretien. Vous pourrez peut-être vous appuyer sur notre revue pour y aider – hors formalismes mathématiques évidemment. Lorsque vous aurez publié votre livre et mis en place un site, nous serons en tous cas heureux d'y faire écho.


Notes (NDLR : notes proposées par Automates Inteligents)
(1) AEIS : http://www.science-inter.com/
(2) Sur Louis de Broglie, voir wikipedia : http://fr.wikipedia.org/wiki/Louis_de_Broglie
(3) Sur David Bohm, voir wikipedia : http://fr.wikipedia.org/wiki/David_Bohm
(4) Sur l'onde pilote, voir wikipedia : http://wapedia.mobi/fr/Th%C3%A9orie_de_l%27onde_pilote
(5) Comme l'indique l'article de Wikipedia cité en référence,
« à l'origine, de Broglie pensait qu'une onde réelle (c'est-à-dire ayant une interprétation physique directe) était associée aux particules. Il s'est avéré que l'aspect ondulatoire de la matière est formalisé par une fonction d'onde gouvernée par l'équation de Schrödinger qui est une pure entité mathématique ayant une interprétation probabiliste, sans support d'éléments physiques réels. Cette fonction d'onde donne à la matière les apparences d'un comportement ondulatoire, sans pour autant faire intervenir des ondes physiques réelles. Cependant, de Broglie est revenu vers la fin de sa vie à une interprétation physique directe et réelle des ondes de matière, en reprenant les travaux de David Bohm. La théorie de de Broglie-Bohm est aujourd'hui la seule interprétation donnant un statut réel aux ondes de matière et respectant les prédictions de la théorie quantique. Mais présentant un certain nombre de problèmes de fond, et n'allant pas plus loin dans ses prédictions que l'interprétation de Copenhague, elle est peu reconnue par la communauté scientifique».
(6) Sur le paradoxe EPR, voir wikipedia : http://fr.wikipedia.org/wiki/Paradoxe_EPR
(7) Sur le spin, voir wikipedia : http://fr.wikipedia.org/wiki/Spin
(8) Sur les inégalités de Bell, voir wikipedia :
http://fr.wikipedia.org/wiki/In%C3%A9galit%C3%A9s_de_Bell
(9) Sur Popper, voir wikipedia : http://fr.wikipedia.org/wiki/Karl_Popper#.C5.92uvres
(10) Sur l'algorithme de Shor, voir wikipedia : http://fr.wikipedia.org/wiki/Algorithme_de_Shor

Voir aussi notre article : "Pour un grand programme européeen, l'ordinateur quantique".

 

Repost 0
27 novembre 2009 5 27 /11 /novembre /2009 18:31
Comprendre et simuler l’esprit : la voie royale ?
par Jean-Paul Baquiast, 27/11/2009

Esprit es tu là. Salon de Londres 2008

article en discussion

Dans les nombreux articles que nous avons consacrés aux activités mentales, naturelles ou artificielles, depuis 2000, date à laquelle ce site a été lancé, nous n’avons pas beaucoup utilisé le terme d’esprit. Nous avons évoqué la conscience (et l’inconscient), évoqué les diverses activités cognitives du cerveau et leurs manifestations externes s’exprimant par le langage, les divers comportements produits par ces activités telles que l’imagination créatrice ou la recherche scientifique. Mais ni les auteurs dont nous avions choisi de présenter les travaux, ni nous-mêmes ne nous sentions très à l’aise avec le concept d’esprit. Une première raison en tenait à l’accaparement qu’avaient faite du terme les religions et philosophies se disant spiritualistes. Le dualisme implicite sous-entendu par certains utilisateurs du mot, selon lequel l’esprit et la matière ne participent pas de la même substance, ne pouvait être le nôtre. Une autre raison tenait à la difficulté de préciser, même s’en tenant à l’approche matérialiste, ce que l’on pouvait entendre par ce terme. Faut-il désigner par esprit l’ensemble des valeurs ou des symboles autour desquels s’organise un organisme social. Faut-il tout à l’opposé nommer esprit la façon bien spécifique dont telle personne humaine, consciemment ou inconsciemment, se manifeste aux autres. Mais on pourrait alors plus explicitement parler de sa personnalité ou de son caractère ? Faut-il, entre les deux extrêmes, le groupe et l’individu, tenter de situer à partir de l’activité du cerveau en situation, la génération de pensées qui constitue l’essentiel des échanges dans les sociétés animales évoluées que sont les sociétés humaines, et nommer esprit le sens implicite donné à ces pensées. On dira alors de quelqu’un qu’il a perdu l’esprit lorsqu’il se révèlera inapte à produire des pensées susceptibles de faire l’objet de tels échanges.


Les biologistes et neuroscientifiques matérialistes qui centrent leurs analyses sur le fonctionnement du cerveau, les roboticiens qui s’efforcent de simuler celui-ci sur des systèmes artificiels de plus en plus performants, se verront cependant taxer de réductionnisme s’ils évacuent complètement le concept d’esprit. On leur reprochera de sous-estimer la dimension spirituelle que devrait avoir une philosophie matérialiste si elle se voulait exhaustive, si elle voulait tenir compte, tout en restant scientifique et sans verser dans l’ésotérisme, de ce qui fait finalement une grande partie de l’activité éveillée des humains et sans doute aussi des animaux : la rêverie, l’empathie avec la nature, les sentiments, l’imagination créatrice sous ses formes encore natives et non concrétisées. En fait chacun d’entre nous est intimement persuadé qu’il existe une propriété des individus humains, la plus importante sans doute, qui pourrait être nommée son esprit. Il la rencontre quotidiennement dans les contacts avec les autres et en lui-même dans ses propres réflexions introspectives. S’agit-il, comme le sens du soi, de ce que certains évolutionnistes considèrent comme une hallucination sur le mode du bootstrap grâce à laquelle les individus se projettent hors de leurs limites d’ici et de maintenant pour s’engager dans des aventures constructivistes ? S’agit-il d’une véritable réalité, mais alors comment la définir en termes objectifs, alors qu’une autre propriété du cerveau, plus facilement objectivable, la conscience, reste encore très difficile à localiser et caractériser ?


Il se trouve qu’une catégorie professionnelle bien définie, les psychiatres, auxquels on pourra ajouter les psychologues et les psychanalystes, traitant quotidiennement les troubles mentaux, ne met pas en question la validité du concept d’esprit. Pour la psychopathologie, celui-ci a un sens bien précis. Cela tient au fait que les dérèglements psychiques profonds mettent en évidence le non fonctionnement ou au contraire la suractivité d’un certain nombre des composantes de l’esprit d’un individu sain, qui chez ce dernier demeurent noyés sous la banalité des expressions quotidiennes. Confronté à des phénomènes persistants tels que le délire, l’aliéniste est obligé de s’interroger sur la provenance ou sur la fonction de ce trouble, en le mettant en relation avec les autres composantes de l’activité cérébrale du patient. Il est conduit alors à se demander en quoi le délire pathologique diffère d’une aimable propension à l’affabulation que l’on rencontre chez tout un chacun. Ce sont d’ailleurs des aliénistes qui, dans l’histoire de la médecine et de la psychologie, ont été conduit à rechercher, y compris par l’autopsie post mortem, d’éventuels dégâts dans l’anatomie du cerveau pouvant expliquer tel ou tel dérèglement.

Cependant, la plupart des psychiatres, y compris dans les époques récentes, se sont bornés, faute d’instruments d’investigation facilement disponibles, à dresser des typologies des symptômes, auxquelles ils associaient les remèdes, généralement chimiques, susceptibles de les atténuer. Cette orientation, qui est celle de la facilité, est devenue aujourd’hui prédominante, y compris en France, avec la généralisation de l’approche DSM 1). On peut reprocher à celle-ci d’imposer sous la pression indiscutable des industries pharmaceutiques américaines et de l’American Psychiatric Association (dont les orientations politiques conservatrices sont indéniables) des modes de diagnostic et de traitement à la chaîne qui conduisent à considérer comme du temps perdu toute réflexion en profondeur sur l’esprit, le cerveau et leurs dysfonctionnements respectifs. Mais d’autres psychiatres, de plus en plus rares malheureusement, cherchent à aller plus loin. Dans la tradition de la psychiatrie française illustré par les travaux de Philippe Pinel (1801) 2), ils cherchent à construire une « approche médico-philosophique de l’aliénation mentale », selon les termes de ce dernier. Aujourd’hui, ils s’efforcent de sortir du point de vue étroitement clinique pour faire appel aux diverses sciences modernes susceptibles d’éclairer la connaissance du sujet souffrant.


Ce fut le cas du docteur Pierre Marchais, neuropsychiatre, chef de service à l’hôpital Foch, qui en complément de ses activités cliniques, eut la persévérance de publier des dizaines d’articles et d’ouvrages consacrés à l’analyse interdisciplinaire du psychisme, normal ou pathologique. Le dernier de ces ouvrages, dont nous rendrons compte par ailleurs, intitulé l’Esprit, vient d’être édité 3). Comme l’indique son titre, le livre vise à réhabiliter le quelque chose que selon l’auteur il convient plus que jamais d’appeler « esprit », ensemble de comportements aujourd’hui volontiers dispersés entre modalités et techniques d’analyse qui en font perdre de vue le caractère spécifique et unitaire. Pour cela il cherche malgré les difficultés, à construire des modèles, nécessairement frustes mais néanmoins éclairants, du fonctionnement du cerveau, producteur des grandes activités psychiques et de leurs manifestations, la conscience et l’esprit humain. Il fait appel à diverses représentations, notamment mathématiques, permettant de proposer un peu d’ordre dans ce qui reste pour le profane un profond mystère, le fonctionnement quotidien d’une machine, le cerveau, dont on se plait à rappeler qu’avec ses 100 milliards de neurones et trillions de synapses, elle est la plus complexe de l’univers connu.

Parmi les disciplines appelées au secours de la connaissance de l’esprit figurent celles, bien connues de nos lecteurs, de l’imagerie cérébrale fonctionnelle 4). En psychiatrie, en complément des autopsies, les premiers essais d’imagerie ont parfois donné de bons résultats, en permettant d’identifier les aires cérébrales précises responsables de certains troubles. Mais les désordres mentaux plus généraux, relevant, non d’accidents cérébraux mais de la psychopathologie générale, sont plus difficiles à caractériser. Dans certains cas, ils semblent provenir de dysfonctionnements affectant l’ensemble du cerveau ou l’ensemble des aires associatives. De plus, ils se produisent selon des rythmes ou en suivant des vagues dont l’origine est difficile à localiser, provenant de flux énergétiques aux sources difficilement localisables. Il manque alors un modèle d’ensemble simulant le fonctionnement du cerveau, en relation avec les informations venues de l’intérieur du corps ou de l’extérieur.


La rencontre avec Alain Cardon


Il se trouve que les hasards d’une rencontre au sein de l’Académie européenne interdisciplinaire des sciences, dont notre revue a toujours suivi avec intérêt les activités, bien dans la ligne épistémologique que nous essayons pour notre part d’adopter ici, ont conduit Pierre Marchais a découvrir les travaux de notre ami Alain Cardon. Nos lecteurs savent que, dès la première année de fonctionnement de notre revue, nous avions signalé le caractère profondément innovant (unique à notre connaissance au regard de ce qui a été publié en ce domaine), de ses recherches sur ce qu’il avait nommé la Conscience artificielle. Inutile d’y revenir ici. Bornons nous à rappeler que Alain Cardon 5) en plus de 10 années de recherche et développements conduites au sein de divers laboratoires universitaires d’intelligence artificielle, a développé un modèle complet du fonctionnement cérébral animal et humain, sur la base d’un système évolutionnaire massivement multi-agents, aussi proche que possible de l’architecture également multi-agents qui est celle du cortex cérébral. Alain Cardon avait réalisé et raffiné ce modèle, d’une part sous la forme de descriptions fonctionnelles de plus en plus précises, d’autre part sous la forme d’un cahier des charges d’analyse-programmation qui ne demandait que quelques centaines d’heures de travail pour devenir un démonstrateur extrêmement efficace.


Nous avions pensé, en notre enthousiasme naïf, que la France, très en retard par ailleurs dans le domaine de l’intelligence artificielle et de la robotique évolutionnaires, tenait en Alain Cardon le chercheur exemplaire qui lui aurait permis de rattraper ce retard. Malheureusement, ni le CNRS, ni l’Europe, ni même des entreprises françaises investissant dans les systèmes de sécurité et de défense, n’ont jugé bon de consentir à Alain Cardon les quelques crédits qui lui auraient permis de réaliser ce démonstrateur. L’expérience que nous avons de ces questions nous conduisent à dire qu’en fait les prétendus experts auxquels Cardon s’était adressé n’avaient pas compris grand-chose à son système, à supposer qu’ils n’aient pas été effrayés par le terme de conscience artificielle bien propre à susciter des craintes métaphysiques. Des organismes d’intelligence économique étrangers que nous ne nommerons pas avaient au contraire manifesté un vif intérêt pour les travaux de Cardon. Ils les auraient sans doute achetés, en dépossédant l’auteur de tous droits sur la suite, dont ils auraient fait un élément « covert » ou « confidentiel-défense ». Alain Cardon a eu le grand mérite de refuser leurs approches. Il a cherché au contraire à développer le champ analysé par son système en l’élargissant à des domaines qui n’étaient pas initialement les siens, notamment, grâce au docteur Marchais et à ses collaborateurs, à ceux de la psychopathologie. Cette nouvelle fera sûrement plaisir à nos nombreux lecteurs qui s’inquiétaient de l’avenir des recherches d’Alain Cardon. Elles ne sont pas abandonnées.


Aujourd’hui, il en est résulté un manuscrit dont les éditions Vuibert viennent d’accepter la publication, à paraître prochainement, préfacé par le Docteur Marchais. Le titre en est « Système psychique artificiel, une modélisation constructible ». On voit que l’auteur a renoncé au terme de conscience artificielle, un peu trop lourd à porter, même dans un pays réputé laïc comme la France. Nous en rendrons compte quand il sera en librairie. Un second ouvrage est en préparation, évoquant la clinique des troubles mentaux et leur transcription informatique. Dans l’immédiat, nous souhaitons par cet article approfondir la « voie royale vers l’esprit » qui donne son titre au présent article.


La coopération entre la modélisation informatique et la psychiatrie


Le docteur Marchais avait vu d’emblée les apports que pouvaient apporter à sa propre réflexion interdisciplinaire sur l’esprit et la conscience les références et simulations découlant de la construction d’un modèle artificiel tel que celui proposé par Alain Cardon. Il avait d’ailleurs cosigné avec lui deux articles, en 2007 et 2008, dans la revue Ann.Med.Psychol. Dans la préface du livre cité ci-dessus d’Alain Cardon, il s’en explique plus en détail. Ce que vise en effet le modèle proposé par ce dernier, que l’on peut résumer par le concept de système générateur de pensées artificielles, est très proche de l’exploration d’une pensée naturelle, que nous pourrions qualifier de biologique, laquelle se caractérise aussi bien par ses aspects normaux que pathologiques.


La pensée humaine s’élabore spontanément au cours de l’évolution de l’individu, tout en se donnant des outils pouvant l’aider à se reconstruire en cas de conflits. C’est précisément ce à quoi peut viser un générateur de vie psychique artificiel. Rien n’oblige la démarche informatique à se limiter à la réalisation de séquences algorithmiques linéaires, d’autant plus que l’architecture en multi-agents évolutionnaires offre toutes les souplesses nécessaires. En s’ouvrant sur la sensibilité et la richesse affective des psychismes humains, elle peut elle-même s’enrichir dans le cadre de boucles rétroactives illimitées. Elle le fait encore plus facilement lorsqu’elle est éclairée par la richesse des processus cliniques, dont nous avons indiqué plus haut qu’ils étaient parfois plus faciles à caractériser que les processus de la pensée dite normale. Ces processus ne sont pas pour autant dépourvus d’imagination et de créativité, au contraire, bien plus d’ailleurs que ceux de la normalité, freinés par les exigences de la vie en société. Celle-ci impose une nécessaire sécheresse à l’expression de ce que les matérialistes eux-mêmes nomment la spiritualité.


La démarche d’un psychiatre tel que Pierre Marchais vise, à partir de la caractérisation des troubles, à induire, voir « abduire » (induction étendue) l’existence de propriétés permanentes du fonctionnement psychique qui se situeraient en amont et dont il suppose l’existence, avant de la vérifier par l’expérience. La démarche de l’informaticien part de l’activité des agents logiciels mis en situation de produire des formes de pensée en faisant appel à leurs propres ressources. Des propriétés permanentes du comportement psychique artificiel apparaissent alors, qu’il est possible de comparer de façon croisée avec ce que suggère l’observation clinique et les inductions faites par le psychiatre. On retrouvera des mécanismes que la psychologie a qualifiés depuis longtemps d’inconscients, pré-conscients et conscients, à l’œuvre dans le vivant et dans la machine. Il s’agira en fait dans chaque cas de catégories radicalement différentes, en ce qui concerne les composants ou agents mis en œuvre, comme aussi les relations entre ces agents. Mais comme toujours, les résultats finaux apparaîtront comme fonctionnellement très comparables et seront donc capables de s’expliciter réciproquement. C’est là un des enseignements permanents découlant des recherches dites de la bionique : la comparaison permanente des solutions naturelles avec les solutions artificielles fait apparaître des éléments parfois totalement méconnus existants dans les premières et suggère des solutions nouvelles inattendues mais fructueuses, implémentables dans les secondes.


On objectera que dans beaucoup de cas, le regard du bio-informaticien risque d’être obscurci par ce qu’il sait
des solutions biologiques à l’œuvre depuis des millénaires d’évolution darwinienne. Il s’efforce alors d’introduire dans la machine des contraintes permettant de reproduire ces solutions le plus possible à l’identique. Dans ce cas, le processus d’aide à la création tourne vite court, voire conduit à des échecs. C’est ainsi que les pionniers du plus lourd que l’air s’étaient enferrés en tentant d’imiter le vol battu des oiseaux. Dans le domaine de l’intelligence artificielle courante, la tentation est la même : reproduire le connu. Le risque est évité dans le cas des systèmes multi-agents développés par Alain Cardon, car ils évoluent de façon volontairement imprévisibles à l’intérieur de champs de contraintes très larges. L’objectif est d’obtenir un cerveau véritablement autonome. Couplé à un robot performant, il pourrait, ont prétendu certains critiques, devenir tellement imprévisible qu’il en serait dangereux. Dans le cas du générateur de pensées artificielles défini par Alain Cardon, ce risque n’existe pas encore. Par contre, le dialogue entre ce système et un spécialiste du cerveau humain tel que le docteur Marchais se révèle très fructueux et constructif. Ce sont, si l’on peut dire, deux philosophies différentes de la génération de pensée qui se rencontrent.


N’en disons pas davantage ici. Le livre d’Alain Cardon donne de nombreux exemples de cette démarche croisée, d’où résultera nécessairement un enrichissement considérable du modèle initialement proposé. La programmation effective des fonctions ainsi analysées donnerait à l’automate encore virtuel qui figure dorénavant dans les archives de son inventeur des propriétés qui seraient certainement très proches de celles, non seulement d’un cerveau sèchement intelligent, mais d’un psychisme, d’une spiritualité (reprenons le mot) aussi riche que ceux d’un humain, si du moins le système pouvait se connecter à des bases de données lui apportant une histoire et des mémoires que par définition, au démarrage, il ne possèderait pas.


Elargir les domaines de recherche


Nous venons de voir comment la conjugaison de deux approches au départ radicalement différentes, celle de l’intelligence artificielle répartie et celle de la clinique, ont déjà permis et permettront mieux encore dans l’avenir de cerner ce phénomène encore très évanescent de l’esprit. Mais nous pensons qu’il faudrait sans attendre élargir les recherches en intégrant deux autres domaines peu encore ou insuffisamment explorés par ceux qui sont « à la recherche de l’esprit », sous ses formes normales ou pathologiques. Le premier déjà cité ci-dessus, concerne l’utilisation des technologies d’imagerie cérébrale et d’exploration non invasive du cerveau. Le second, qui l’est beaucoup moins, consiste à faire appel à la biologie évolutionnaire pour comprendre comment les bases neurales servant de support aux activités cognitives se sont mises en place tout au long de l’évolution et comment ces mêmes bases neurales se sont trouvées chez l’homme profondément modifiées par l’usage de plus en plus poussé des outils techniques.


En ce qui concerne l’imagerie cérébrale fonctionnelle, la difficulté tient au champ d’observation encore très étroit qu’elle permet à chaque cas et à la lourdeur de l’appareillage d’instrumentation qu’elle exige, tant pour le praticien que pour le patient – sans mentionner le coût des opérations. Ce ne sont que des aires réduites qui peuvent être observées. Elles intéressent en général le cerveau superficiel, c’est-à-dire les couches supérieures du cortex, et ne dépassent pas quelques millimètres carrés de surface. Changer les hypothèses de départ oblige à modifier tout l’appareillage expérimental. Les comparaisons d’un individu à l’autre sont par ailleurs très difficiles. Cependant les enseignements de ces techniques d’observations sont si grands, comme le montrent les travaux des neuroscientifiques français que nous avons référencés sur ce site, Stanislas Dehaene, Lionel Naccache et leur père spirituel Jean-Pierre Changeux, que l’enthousiasme pour ces méthodes demeurent très grand.


De plus, pour différentes raisons tenant en partie aux investissements de recherche conduits dans le domaine de la défense, les différentes technologies actuellement utilisées ne cesseront pas de se perfectionner. Dans certains cas, elles pourront être combinées pour mieux s’expliciter respectivement. Il n’est pas exclu qu’assez vite, ce soient des images du cerveau entier en action qui puissent être obtenues. Un autre point important est à souligner. L’imagerie cérébrale ne se limite pas à l’observation du système nerveux humain. Elle peut être appliquée à divers animaux, y compris de petite taille, tels des oiseaux. On mesure la richesse des images en mouvement qui pourront ainsi être obtenues. Mais on voit aussi la nécessité de disposer de modèles théoriques de plus en plus ambitieux et diversifiés permettant de les interpréter ou de suggérer de nouvelles situations observationnelles. C’est la raison pour laquelle nous évoquons là une 3e voie très fructueuse dans l’effort gigantesque qu’impose la compréhension et la simulation de l’esprit.


Ajoutons y une 4e voie, qui là aussi nécessiterait de meilleurs dialogues entre praticiens de disciplines différentes. Il s’agit de celle de la biologie évolutionnaire, notamment lorsqu’elle s’efforce de montrer les évolutions génétiques et phénotypiques qui ont affecté les différentes espèces utilisant un appareil nerveux central et un cerveau comme arme dans la compétition darwinienne. Des travaux tels ceux, bien connus, de Gerald M. Edelman 6) ou du neuroscientifique américain Michael Gazzaniga 7) montrent bien comment, au long de l’évolution, se sont précisées les bases neurales nécessaires à la cognition caractéristique de l’homo sapiens moderne. Ils servent aussi à comprendre les raisons des éventuels dysfonctionnement.


Les neuroscientifiques tels que ceux cités ici ne s’appesantissent cependant pas beaucoup sur les processus ayant permis l’évolution des génomes des espèces considérées, sur le mode darwinien de la mutation sélection. Ils considèrent comme des données l’apparition de gènes ou groupes de gènes tels que le FoxP2 dit (à tort) de la parole. Cela ne permet pas de rechercher les raisons pour lesquelles certaines fonctionnalités ou certains dysfonctionnements du cerveau, affectant les performances de l’esprit, sont apparus récemment et continuent même à apparaître ou se développer aujourd’hui. C’est pour préciser ces poins cruciaux qu’il faut selon nous faire appel, dans l’approche pluridisciplinaire recherchée par le docteur Marchais, à la théorie toute récente de l’ontophylogenèse présentée par le biologiste français Jean-Jacques Kupiec, que nous avons plusieurs fois analysée sur ce site. Cette théorie montre que les organismes ou phénotypes évoluent en permanence sous l’influence de la compétition darwinienne et que ces évolutions peuvent très vite s’inscrire dans les génomes, sans attendre d’hypothétiques mutations au hasard. Les gènes ou portions d’ADN responsables de l’organisation des neurones en sont évidemment affectés, ainsi que les performances des cerveaux correspondants.


Nous avons nous-mêmes proposé, comme le résume un article publié par ailleurs dans ce numéro, que les contraintes évolutives auxquelles doivent s’adapter, de façon aléatoire, les humains modernes et leurs cerveaux comprennent la nécessaire cohabitation avec des outils et techniques de plus en plus complexes et invasifs. L’home sapiens « augmenté » qui en résulte est donc déjà affecté de comportements psychiques différents de ceux des générations précédentes. Ils présentent des formes de dysfonctionnement, addictions, manies spécifiques découlant de l’usage et de l’abus de ces technologies. Le psychiatre ou le psychanalyste d’aujourd’hui, ne peuvent donc selon nous faire l’abstraction du fait que le patient n’est plus celui que considérait la clinique il y a seulement quelques décennies. C’est le représentant d’une nouvelle espèce que nous avons nommé anthropotechnique. Le générateur de pensée artificielles proposé par Alain Cardon pourra peut-être alors permettre de mieux comprendre les ressorts profonds de cet être hybride, dont le « techno-esprit » est encore largement méconnu.


Notes

1) DSM. Voir wikipedia Diagnostic and Statistical Manual - Revision 4 http://fr.wikipedia.org/wiki/DSM-IV#cite_note-2
* Sur la critique du DSM, voir
http://pharmacritique.20minutes-blogs.fr/conflits-d-interets-en-psychiatrie-dsm/
2) Histoire de la psychiatrie française. Voir
http://psychiatrie.histoire.free.fr/psyhist/gene.htm#chrono
3) Pierre Marchais. L’esprit. Essai sur l’unité paradoxale des flux énergétiques de la dynamique psychique. .L’Harmattan, 2009
4) L’imagerie cérébrale (structurelle et fonctionnelle) et ses différents outils : Voir wikipedia
http://fr.wikipedia.org/wiki/Imagerie_c%C3%A9r%C3%A9brale
Concernant l’imagerie fonctionnelle, ces outils sont l’IRM(f), la TEP, l’EEG et la MEG.
5) Alain Cardon. Site. www.alaincardon.net
6) Voir notamment, en français, Gerald M. Edelman, Biologie de la conscience, Odile Jacob 2008, dont nous rendrons compte prochainement.
7) Voir Michaël Gazzaniga Human - The Science behind what makes us unique,
Harper Collins – 2008 et notre présentation
http://www.automatesintelligents.com/biblionet/2008/sept/human.html

Repost 0
2 novembre 2009 1 02 /11 /novembre /2009 21:50
Nous ne partageons pas toutes les opinions de Howard Bloom, loin s'en faut, que ce soit sur la science ou sur l'américanisme.  Néanmoins nous avons pensé qu'il serait intéressant - et fair play - de lui donner la possibilité de répondre à quelques questions. Voici l'interview.

Interview.
Howard Bloom

Réalisé par mail. Traduit et commenté par Jean-Paul Baquiast
02/111.2009

Howard Bloom est l'auteur de
- The Lucifer Principle: A Scientific Expedition Into the Forces of History. Voir notre présentation
http://www.automatesintelligents.com/biblionet/2002/fev/principe.html
- Global Brain: The Evolution of Mass Mind From The Big Bang to the 21st century. Voir notre présentation
http://www.automatesintelligents.com/biblionet/2002/mar/bloom.html
- How I Accidentally Started The Sixties Téléchargeable
http://www.amazon.com/s/ref=nb_ss?url=search-alias%3Dstripbooks&field-keywords=-%09How+I+Accidentally+Started+The+Sixties&x=17&y=16

Pour en savoir plus
voir http://howardbloom.net/
voir aussi http://www.scientificblogging.com/howard_bloom

 

Jean-Paul Baquiast, pour Automates Intelligents. JPB.
Cher Howard Bloom, nous avons beaucoup apprécié vos divers ouvrages, y compris le dernier d'entre eux, The Genius in the Beast, dont nous venons de faire la présentation sur notre site:
http://www.automatesintelligents.com/biblionet/2009/nov/geniusofthebeast.html

Comme certains de nos lecteurs pourraient souhaiter approfondir certains points ou formuler des objections, nous avons pensé, vous comme moi, que la meilleure formule dans un premier temps consistait à anticiper leurs interrogations. Vous avez donc bien voulu accepter de répondre à quelques questions. Je vous en remercie. Voici donc la première de ces questions

JPB.: Ne craignez- vous pas avec The Genius in the Beast, d'apparaître, au nom de la connaissance scientifique, comme un avocat du capitalisme, et plus particulièrement du capitalisme financier américain, autrement dit de Wall Street, pour faire court ?


Howard Bloom, HB.
: Votre question a quelque chose de terrifiant. Mais voici une première réponse :

Les deux premières règles que doit selon moi se fixer un scientifique sont :
• Rechercher la vérité à n'importe quel prix, y compris au prix de sa vie et
• Regarder le monde qu'il a sous les yeux comme s'il ne l'avait jamais vu, afin de renouveler le regard porté sur lui.

Ces deux règles dotent ceux d'entre nous qui s'adonnent à la réflexion scientifique de deux personnalités superposées. D'un côté on trouve celui qui est à la recherche d'une vérité «objective». De l'autre on trouve un «activiste» homme ou femme qui fait de son mieux pour changer et si possible améliorer le monde.

Mais ceci nous confronte à un dilemme. Comment peut-on être un scientifique qui regarde le monde comme s'il ne l'avait jamais vu si l'on ignore ses propres passions et celles de son entourage ? Y compris les passions politiques qui vous positionnent à gauche ou à droite. Y compris en amont les forces qui font émerger une gauche et une droite.


Un autre principe de la science enseigne que celle-ci doit faire des prédictions et essayer de contrôler leurs réalisations éventuelles. Si cela est vrai, comment ignorer le besoin de prédire les directions que doit prendre la société ? Et comment ignorer l'importance des sociétés modernes, pluralistes, démocratiques, ces sociétés qui permettent à la science de prospérer ? Comment ignorer les réalisations et le destin de la Civilisation Occidentale ? Comment ignorer les réalisations et le destin du capitalisme. Plus important encore, comment ignorer le rôle du travail, de cette activité à laquelle nous dédions l'essentiel de notre vie éveillée ? Et comment ignorer le rôle de la monnaie, cette force qui gouverne nos émotions selon des modes dont nous ne percevons qu'une faible partie ? Autrement dit, en résumé, comment se satisfaire de l'idée simpliste et largement fausse que l'ensemble du capitalisme est représenté par une unique institution, Wall Street ?


Pour moi, rechercher la vérité à n'importe quel prix, y compris au prix de sa vie» signifie s'opposer aux activités criminelles quand je les rencontre. S'opposer aux beuveries, aux bagarres, aux vols divers, toutes choses que j'ai faites depuis mon arrivée à New York en 1964. S'opposer aux massacres de masse – quelque chose que j'ai essayé de faire en 1981 quand deux ethnies africaines s'affrontaient d'une façon que je sentais potentiellement génocidaire. Il s'agissait en fait des Hutus et des Tutsis dont les conflits ont provoqué un million de morts dans les années 1990. Si le rôle du scientifique est de prévoir et prévenir, quand il prévoie le risque de génocides potentiels, il doit faire de son mieux pour l'empêcher. Il ne suffit pas de déplorer les morts une fois qu'ils se sont produits. Il ne suffit pas d'en tirer profit ensuite comme l'on fait les auteurs de films et de livres sur le Ruanda. Si vous exploitez à votre profit un massacre de masse que vous auriez pu et du prévoir et dénoncer, vous devenez un complice des meurtriers.


Ce n'est pas ainsi que s'exprime la grandeur, la spiritualité de la science. Par contre étudier les circonstances d'un massacre de masse afin de prédire l'éventuel suivant et faire ce que l'on peut pour tuer celui-ci dans l'œuf, c'est là l'esprit de la science.


Le crime que je prévoyais lorsque j'ai commencé à composer The Genius of the Beast: A Radical Re-Vision était le massacre de masse de la civilisation occidentale. Massacre dont seraient responsables les propres représentants de cette civilisation, ceux qui avaient perdu confiance en elle. Ceux qui étaient prêts à faire ce que les profiteurs du génocide ruandais avaient fait. Ceux qui applaudissaient le massacre de masse au nom de la morale. Mais qu'est-ce que j'entends par applaudir un massacre de masse au nom de la morale ? Aucun des critiques de la civilisation occidentale ou de la civilisation américaine, à notre connaissance n'a jamais appelé au génocide, n'est-ce pas ? Et pourtant ? En sommes nous bien certains ?


Quand l'Empire romain s'est effondré, la moitié de la population européenne mourut. Les gens sont morts de faim et de maladie. Les politiques qui avaient identifié les points faibles de Rome et appelé à sa chute plutôt qu'à sa réforme et à sa transformation furent les complices de ces massacres de masse. Les « sociaux-critiques » extrémistes de l'époque ont appelé à la chute d'une infrastructure qui nourrissait, logeait et habillait des millions d'hommes. Une infrastructure qui donnait à des millions d'hommes la liberté de créer et d'innover. Dans le cas de la Romanité, le résultat fut plus qu'un massacre de masse. Ce fut une mort cérébrale culturelle. L'Europe a cessé d'innover pendant six cent ans. Elle a perdu la capacité d'améliorer la vie de ses citoyens. Et ce ne fut que 1.200 ans plus tard qu'elle a retrouvé la qualité de vie de ceux qui vivaient au temps de l'Empire romain. Ce furent1.200 ans, soit soixante générations, de misère humaine. Pour ceux qui veulent « rechercher la vérité à n'importe quel prix, y compris au prix de sa vie », ne pas reconnaître ce que fut un tel recul est inexcusable.

Il y a aussi le fait tout simple que je suis Juif. Ceci fait une grosse différence. En 2001, j'ai regardé les Twin Towers du WTC brûler à partir du toit de mon immeuble dans Park Slope, Brooklyn, à environ deux milles de là. En tant que Juif je savais que les hommes ayant attaqué ces Tours voulaient ma mort, pour deux raisons. Ils me voulaient mort comme Américain et ils me voulaient morts comme Juif. L'interprétation qu'ils se faisaient de leur religion imposait un génocide. Et j'étais l'une de ces cibles de ce génocide.


Je veux bien mourir pour quelque chose d'important. Mais je ne veux pas mourir pour la destruction de la civilisation qui nous a donné, à vous comme à moi, le fruit de la science. Or faites moi confiance, les militants islamistes ne SONT PAS les représentants de l'islam pluraliste qui a encouragé le rapprochement des sciences entre l'Asie et l'Europe au 10e siècle. Je le sais personnellement car j'ai passé cinq ans à étudier chacun des mots composant les déclarations publiques de Ben Laden. J'ai étudié aussi le Hadith, les témoignages oculaires rapportant la vie de Mahomet et ses paroles. J'ai étudié aussi les premières biographies de Mahomet rapportées par Ibn Ishaq et al Tabari. J'ai étudié enfin les travaux des étudiants islamiques modernes dont Ben Laden et ses semblables ont tiré leurs idées. J'étudie le travail de sape des Salafistes conduits dans le monde entier.


J'ai été profondément troublé quand des amis à moi que je respecte ont commenté la chute des Tours comme s'ils l'avaient eux-mêmes planifiée. Quand ils m'ont dit : « La civilisation Occidentale est la pire des civilisations de l'histoire. Elle mérite de périr» . J'ai alors commencé à écrire The Genius of the Beast pour leur répondre. Je ne voulais pas initialement faire de ce livre un ouvrage scientifique. Je voulais en faire un Hymne. Je voulais célébrer les miracles invisibles de la civilisation occidentale. Une Ode aux réalisations stupéfiantes que nous sommes trop aveugles pour percevoir. Mais ce travail s'est transformé en une œuvre d'inspiration scientifique.


Cela m'a conduit en effet à faire ce que j'ai défini comme l'une des caractéristiques du travail scientifique : «Regarder le monde que l'on a sous les yeux comme si on ne l'avait jamais vu, afin de renouveler le regard porté sur lui». Pour moi c'était aussi rechercher la vérité à n'importe quel prix, y compris en l'espèce le prix de l'impopularité. Y compris celui d'apparaître comme complètement démodé, complètement réactionnaire, un défenseur des crimes de la civilisation occidentale. Pour moi la vérité consiste à voir les crimes et faire en sorte qu'ils ne puissent se renouveler. Mais parallèlement la vérité me demande de voir les triomphes. La vérité exige de faire ce que fait un neurochirurgien quand il tente d'extraire une tumeur cérébrale. Il doit soigneusement identifier les aires qui vous permettent de parler et de rêver, afin de ne pas les sectionner en enlevant la tumeur.


Aussi vous avez raison. The Genius of the Beast était à l'origine conçu comme un travail polémique, ne reculant pas devant les points de vue subjectifs. Mais plus j'approfondissais les origines de la civilisation occidentale et sa contribution à l'histoire de l'espèce humaine, plus m'apparaissaient des choses que j'avais sous les yeux et que je ne voyais pas. Et plus alors le travail scientifique l'emportait en moi sur le travail du polémiste. Un nombre grandissant de nouveaux concepts scientifiques et de nouveaux puzzles scientifiques à résoudre me venaient à l'esprit. J'ai découvert alors que, dès le début, ce livre était destiné à changer la façon dont vous et moi nous voyons le monde. Et c'est ce qu'il est devenu, je l'espère.


JPB
: Personnellement, je n'en doute pas et je le prends comme tel, même si nécessairement certains de vos arguments appellent discussion. Mais, en dépassant la question de la civilisation occidentale, n'êtes vous pas excessivement optimiste, messianique pour utiliser un de vos termes, quand vous expliquez que l'évolution en général, de la cosmologie à l'anthropologie en passant par la biologie, tend à promouvoir de meilleures solutions que celles existantes. Beaucoup d'évolutionnistes considèrent que l'évolution ne tend à rien du tout. Elle serait, si je puis dire, stochastique et neutre. Elle peut conduire à des catastrophes aussi bien qu'à des progrès (pour ne pas mentionner l'inévitable disparition finale de notre univers telle que la prédisent les cosmologistes actuels).


HB. :
L'évolution s'accomplit dans la catastrophe. Elle utilise les cataclysmes pour créer. Notre rôle est d'arrêter son addiction à la destruction, son addiction à la souffrance et à la mort.

Mais approfondissons un peu ce que sous tend votre dernière phrase. Il s'agit de deux erreurs scientifiques très répandues, si vous me permettez de le dire : la neutralité et la stochasticité. Construisez une simple courbe des évolutions cosmologiques et le fait que l'univers n'est pas stochastique et moins encore neutre vous apparaîtra comme plus qu'évident. L'univers est une machine en constante croissance et complexification. Son origine à partir de la singularité initiale suivie du Big Bang fut un massif pas en avant. Il en fut de même de tout le reste de l'évolution, depuis les particules initiales jusqu'aux galaxies et les molécules biologiques réplicantes que nous connaissons sur la Terre et dans lesquelles nous avons identifié la Vie. Aucun de ces pas en avant ne fut le résultat d'un processus stochastique. Pourquoi dès le début, au lieu de trouver des millions ou milliards de quarks différents n'en a-t-on trouvé que seize ? Il n'y avait pas de hasard, les types de quarks étaient rigidement déterminés. Il en fut de même de toutes les autres émergences. Je suis désolé de le dire, mais la stochasticité et la neutralité ne résistent pas aux évidences. Elles peuvent se trouver dans d'autres types d'univers, mais pas dans le nôtre. Parler de stochasticité et de neutralité est adopter un discours religieux sous couvert de science.


JPB.:
Si vous raisonnez ainsi, quelle est votre position dans le débat entre le déterminisme et le libre-arbitre ? Plus précisément, pensez vous, comme tout votre travail scientifique semble le montrer, que les humains, lorsqu'ils prétendent prendre des décisions volontaires, sont déterminés par différentes causes que la science peut ou ne peut pas (à l'heure actuelle) expliciter? Si cela était le cas, comment pourriez vous promouvoir par ailleurs, comme vous le faites, l'humanisme et une sorte de volontarisme individuel ?


HB.
: Vous évoquez là une autre des erreurs de la pensée scientifique telle que conçue par certains, l'illusion qu'il faut choisir entre ceci et cela. L'univers est-il réglé par le déterminisme ou soumis au libre arbitre ? Le cosmos est-il matériel ou s'agit-il d'une entité dotée d'immanence, comportant une « réalité » implicite ? L'évolution et les humains sont-ils dirigés par leur passé, par la causalité, ou par leur futur, par la téléologie ? En fait, autant que je puisse le voir, les oppositions se rejoignent au sommet. La réalité est une sorte de continuum possédant deux extrémités qui ne se distinguent pas, comme les deux extrémités d'un cordon de rideau unique. La réponse aux questions du type : ceci ou cela, aux questions impliquant le dualisme, comme celle de savoir qui a commencé, de l'œuf ou de la poule, est que ce sont les deux. Pour moi, ceci est vrai du déterminisme et du libre arbitre. 99 ,99% de ce que nous sommes est prédéterminé. Mais nous avons une aire de liberté et de choix dans le 0.01% restant. Et les différences que peut produire ce 0,01% soumis à des itérations persistantes sont énormes.

Comment fut construite la Grande Muraille de Chine? Brique par brique. Une brique à la fois. Le libre arbitre est difficile à concevoir. Mais nous le faisons exister quand nous persistons dans nos entreprises.


JPB. : Je poursuis mon questionnement, si vous voulez bien, afin que nos lecteurs comprennent bien le fond de votre philosophie. Comment vous situez vous dans le débat « réalisme versus non-réalisme » ? Autrement dit, considérez-vous qu'il existe une Réalité (des entités, des phénomènes) existant indépendamment de l'observateur mais que celui-ci peut décrire de plus en plus précisément et objectivement grâce à la science ? Ou a l'inverse, considérez vous que l'observateur, ses sens, ses instruments, son cerveau construisent une « histoire » (a narrative) qui, si elle est accepté par les autres, devient la réalité au regard de ces autres ?


HB. :
Voici encore une question qui me terrifie. Est-ce que l'interprétation que nous nous faisons de ce que nous voyons, le passage par une vision du monde préalable, déterminent-elle ce que nous voyons ? La réponse est Oui. Est-ce que notre perception change radicalement la réalité ? La réponse est Non. La physique quantique a-t-elle raison de dire que les particules ne choisissent pas leur état tant que nous ne les avons pas observées ? Pas le moins du monde. Chaque particule est soumise à l'observation permanente de toutes les autres particules. Un photon, par exemple est un boson. Et les bosons se déplacent en bandes. Sont-il aveugles aux mouvements de chacun de leurs collègues ? Pas le moins du monde. A leur manière bien particulière, ils « voient ». J'ai fait une conférence en 2006 devant un cénacle de physiciens quantiques à Moscou sur le thème « Pourquoi tout ce que vous savez de l'équation de Schrödinger est faux ». Nous pourrons en reparler une autre fois.


Essayons de voir la question d'une prétendue nature subjective de la réalité à travers les yeux de l'homme qui a tenté l'expérience la plus audacieuse qui soit sur le sujet, le philosophe qui a rendu publique et voulu expérimenter la notion que le cosmos n'est qu'un des fantasmes qui peuplent nos rêves. Je pense à Descartes. Pourquoi dis-je que Descartes voulu expérimenter la notion que le cosmos n'est qu'un des fantasmes qui peuplent nos rêves, vos rêves ? Parce que si le monde entier n'est qu'une invention de votre imagination, je n'existe pas. Et si le monde entier est le produit de ma propre imagination, vous n'existez pas. Non plus qu'aucun des auditeurs à qui ce discours s'adresserait.


Et si tout est le produit d'un fantasme de votre imaginaire, Descartes n'a pas existé. Descartes a essayé de s'isoler complètement du reste du monde pour voir le type de vérité qui demeurait lorsqu'il avait rompu toutes ses relations avec la matière et les autres humains. Il a quitté la France pour une ville étrangère, Amsterdam, où personne ne le reconnaîtrait. Il a pris un logement dans une petite maison anonyme au second étage où il pouvait s'isoler de l'humanité. Il s'est enfermé dans une pièce avec un bureau, une chaise, une plume et une boule de cire d'abeille qu'il pétrissait quand il réfléchissait. Il a enduré cet isolement pendant des mois, cherchant à distinguer ce qui demeurait après qu'il se soit coupé du monde entier. Il a conclu finalement que la seule vérité qui restait était le Cogito ergo sum : “Je pense donc je suis”.


Mais pour en arriver à cette conclusion, il dut renoncer à percevoir combien étroitement il était lié au tissu d'une réalité plus vaste. Il dut se forcer à ignorer le fait que les mots qu'il se disait à lui-même dans son isolement provenaient de lignées de centaines de milliers d'humains, ceux qui avaient inventé le langage entre 2,4 millions d'années et 40.000 ans avant lui, les Aryens qui avaient jeté les bases du Latin, les Romains qui avaient fait évoluer ce même Latin et les Européens qui l'avaient jusqu'au 17e siècle remodelé en fonction de leurs besoins. Il dut se forcer à ignorer les humains qui avaient inventé la première hache de pierre, qui avaient appris à fondre le métal, qui avaient avec ce métal forgé les outils ayant permis de façonner le bois dont sa propre demeure et son mobilier étaient faits. Il dut se forcer à ignorer l'enchaînement des espèces cultivées, les exploitations agricoles, les transports, les marchés qui le nourrissaient. Bien plus, il dut se forcer à ignorer la servante qui était censé tenir sa maison pour lui, la servante qu'il avait séduite et qu'il avait rendues enceinte. Cette grossesse était-elle un produit de l'imagination de Descartes ? Un artefact découlant de son interprétation du monde ? La sexualité de Descartes est-elle simplement une médiation symbolique par laquelle votre imagination et la mienne interprète le monde ? Je suppose que la servante enceinte des œuvres de Descartes considérait que le pénis de ce dernier et son propre état de grossesse étaient réels.


JPB.
: L'un de vos talents, nous le constatons une fois de plus, est de faire surgir des exemples historiques très concrets, sinon réalistes, à l'appui de vos thèses. Ceci dit, pour poursuivre la discussion, comment situez vous votre propre approche scientifique dans le parti philosophique que vous venez d'exprimer ?


HB.
: Mon objectif est de comprendre le plus possible les causalités en utilisant les sciences et la philosophie de notre temps. Toutes les sciences et non pas une seule. Et faire appel à tout ce qui constitue les humanités : tout de l'histoire, de la littérature, des arts, tout ce à quoi l'on peut accéder. Tous ces matériaux constituent des outils pour comprendre la réalité. Mais je ne me satisfais pas de prendre les arguments que je trouve à ma portée. Je cherche à voir derrière les évidences qu'ils expriment ouvertement. Je cherche à faire apparaître les questions et les mystères qui se cachent derrière une première approche nécessairement sommaire. Je cherche finalement ce faisant à élever le regard constamment. A élever votre propre regard. A élever la façon dont les autres vivent et, plus important encore, la façon dont eux aussi voient le monde.


JPB
. : Ce programme est noble. Mais, par exemple, comment réagissez vous à des questions qui agitent certains milieux culturels aujourd'hui, les perspective de Singularité défendues par Ray Kurzweil et le Singularity Institute, ou celles sous-jacentes aux concepts de transhumanité et de posthumanité ?


HB.:
Pour moi, la Singularité se produit à tous moments. Chacun des grands sauts que nous avons évoqués précédemment en sont des manifestations, depuis le Big Bang jusqu'à la vie. Il s'est agi à chaque fois de changements radicaux dans la nature de la réalité. Chacun d'eux constituait une Singularité.


Mais la nature humaine est incroyablement à courte vue. Nous demeurons persuadés que nous ne changeons pas, à travers les grands changements technologiques. Quand mon père est né en 1908, à Asbury Park, New Jersey, la nourriture arrivait en ville par des transports hippomobiles. Le véhicule à moteur était une grande nouveauté. Le chemin de fer était encore considéré comme une technologie nouvelle. Le voyage du New jersey à Los Angeles . prenait 4 jours et nuits. A l'exception de quelques courageux aérostiers, les hommes ne quittaient pas le sol. Par contre, quand j'ai eu 19 ans, l'on pouvait aller de New York à Los Angeles en moins de 6 heures par jet. Cependant, je ne me représentais pas comme appartenant à une espèce nouvelle radicalement changée par les technologies. Quant à mon père, il ne s'imaginait pas avoir traversé un évènement aussi dramatique qu'une Singularité. Il en est de même pour nous avec toutes les nouveautés et usages que nous permet la société de l'information et de la communication. Nous ne nous imaginons pas appartenir à une nouvelle espèce radicalement modifiée par rapport aux précédentes.


Ce qui est ironique est en fait que nous sommes bien une nouvelle espèce radicalement modifiée. Mais nous ne nous représentons pas, tout simplement, l'ampleur des modifications. Qui plus est, nous ne nous ne nous représentons pas combien ces changements doivent à la civilisation occidentale et à un capitalisme qui ne se limite pas, loin s'en faut, à Wall Street.

J
PB.
: Je suis content de votre propos concernant les changements de l'espèce humaine et les technologies. Il rejoint un peu celui que je viens de développer, si vous me permettez d'y faire allusion, dans un livre à paraître prochainement, le Paradoxe du Sapiens. Mais finalement, et pour en revenir à vous, que seront les prochaines étapes de votre œuvre ?


HB.
: J'espère que vous entendrez parler de The Big Bang Tango: Quarking In the Social Cosmos—Notes Toward a Post-Newtonian Science. Dans ce livre, j'exposerai notamment cinq hérésies scientifiques. Il devrait paraître vers 2016.

En attendant, vous pourrez lire un ouvrage un différent Einstein, Michael Jackson and Me—17 Years in the Power Pits of Rock and Roll. J'espère que l'on y trouvera, comme dans The Genius of the Beast, bien plus de vérités scientifiques que ne le laisse présager le titre.



Repost 0
30 octobre 2009 5 30 /10 /octobre /2009 22:06

Nouvelle rédaction, après discussion avec l'auteur

Xavier Saint Martin

L’appareil psychique dans la théorie de Freud. Essai de psychanalyse cognitive
L’Harmattan 2007


Présentation et commentaires par Jean-Paul Baquiast 20/10/2009


 
Présentation
(4e de couverture)

Les sciences cognitives sont à double titre en quête d'intelligence. Tout d'abord parce qu'elles continuent à rechercher les concepts fondamentaux qui permettraient de bâtir une science des fonctions supérieures de l'Homme, d'autre part pour réaliser des systèmes artificiels doués de compétences cognitives comparables à celles dont il fait concrètement preuve. L'ouvrage invite à une traversée de l'œuvre de Freud, pour illustrer à quel point la pensée du père de la psychanalyse était proche, en de multiples aspects, des questionnements contemporains en sciences cognitives, tels que : qu'est-ce que penser? Comment s'origine l'acte de création ? Ce faisant, l'auteur appelle de ses vœux à une coopération étroite entre les psychanalystes et les chercheurs en sciences cognitives, pour fonder les principes auxquels devront obéir les systèmes artificiels intelligents. Au passage, l'ouvrage montre combien l'informatique contemporaine est inapte à doter les machines de telles capacités, ne serait-ce que parce qu'il n'y a pas de pensée sans désir, ni de désir sans corps(1).

Biographie de l'auteur

Xavier Saint-MartinXavier Saint-Martin est né en 1954 en région parisienne. Enfant, sa curiosité naturelle le poussait à comprendre les mécanismes qui régissaient tant son univers humain que matériel. Jeune adulte, poursuivant ce double profil, il a suivi une formation universitaire en Sciences de l'ingénieur, puis en Sciences humaines cliniques et psychanalyse. C'est à ce double titre qu'il étudie depuis plusieurs années les développements contemporains des sciences cognitives. Il est membre de l'Association pour la Recherche Cognitive. Par ailleurs, ingénieur reconnu dans le milieu de l'informatique, Xavier Saint-Martin est l'auteur de plusieurs publications techniques présentées lors de congrès internationaux.

L’auteur recevra les commentaires et critiques aux adresses suivantes : x.stmartin (at) aliceadsl.fr et xavier.saint-martin (at) bull.net

(1) NDLR: Cette remarque mériterait d'être nuancée. Les robots modernes pourront acquérir de telles capacités.

 

Nous ne connaissions pas cet ouvrage, que l’auteur a eu la gentillesse de nous adresser. Bien qu’il soit déjà relativement ancien, à l’aune où évoluent les idées et les techniques, nous pensons utile de le présenter et le discuter à l’intention de nos lecteurs. Il nous permet d’ailleurs de reprendre et le cas échéant modifier quelques uns des commentaires que nous avons fait au livre de Lionel Naccache, dont il parait utile de le rapprocher, bien que les points de vue soient très différents : Le nouvel inconscient, Freud, Christophe Colomb des neurosciences, Odile Jacob 2006. Voir:
http://www.automatesintelligents.com/biblionet/2007/jan/naccache.html


Xavier Saint Martin est tout à fait autorisé pour parler à la fois de Freud et du monde très divers des sciences dites cognitives, puisque sa formation universitaire et professionnelle l’a conduit à pratiquer ces deux grandes catégories de disciplines, y compris en tant qu’ingénieur informatique. Le livre s’inscrit dans une démarche encore assez peu répandue (nous verrons pourquoi) mais qui ne peut manquer d’intéresser nos lecteurs : rappeler ce que furent l’œuvre scientifique et la pratique thérapeutique proposées par Freud, rechercher en quoi la démarche de Freud enrichirait les sciences cognitives, rechercher symétriquement en quoi ces sciences cognitives permettraient d’apprécier la pertinence du freudisme.


Le livre respecte strictement ce programme, puisqu’il est constitué de 2 grandes parties :
1. Eléments de théorie freudienne (assortis d’un grand nombre de citations)
2. Vers une psychanalyse cognitive, où l’auteur, pour donner une base aux propositions qu’il y présente, rappelle sommairement en quoi consistent les sciences cognitives, notamment sous l’angle des outils informatiques permettant de décrire ou simuler le cerveau.


Notons d’ailleurs que la partie essentielle de ses propositions, relatives à la construction d’une psychanalyse cognitive, aurait sans doute méritée d’être individualisée sous la forme d’une 3e partie. Elle est actuellement un peu noyée dans sa seconde partie, alors que le cœur en est résumé dans le graphique des pages 130 et 131, suivi de commentaires. C’est en fait à partir de ces pages que commence ce que nous pourrions appeler le véritable travail de construction proposé par l’auteur. Il ne lui reste malheureusement plus que 13 pages pour le préciser.


Il est vrai que son but est d’abord de corriger ce que les psychanalystes disent de Freud, et de corriger ce que les cogniticiens croient comprendre de lui. Ceci suppose un retour aux écrits de Freud, rarement fait aujourd’hui. L’auteur s’est astreint à cette tâche essentielle, en nous évitant l’effort du travail documentaire correspondant. D’où les 360 citations qu’il présente en fin d’ouvrage. Le lecteur pressé pourra ne pas s’y référer, mais à notre avis, il aurait tort.


Une critique plus sérieuse nous parait mériter d’être faite, concernant les références aux sciences cognitives.
Celles-ci sont anciennes, et ne tiennent donc pas compte de la richesse des travaux caractérisant ce domaine. Certes, le livre écrit en grande partie avant 2007 ne pouvait pas citer les publications récentes. Certains des auteurs cités ne nous paraissent donc pas apporter beaucoup de crédit à la thèse. Nous dirions en forme de clin d’œil qu’il est dommage que Xavier Saint Martin n’ait pas connu notre site, beaucoup plus à jour que sa bibliographie. L’auteur nous a confirmé qu’il avait entrepris l’actualisation nécessaire.


Résumé du livre


Après ces préambules, et sans nous arrêter aux détails, essayons de résumer la démarche proposée par l’auteur, visant à construire une psychanalyse cognitive. Quel pourrait en être le but ? Qu’en serait le bénéfice ? Pour Xavier Saint Martin comme pour tous ceux qui s’intéressent aux mécanismes psychiques, il s’agit d’abord d’éclairer un monde dont la complexité ne cesse de nous surprendre. L’objectif est donc scientifique. Il est en priorité de convaincre les cogniticiens que s’ils veulent comprendre comment le cerveau fonctionne, ils ne pourront pas faire l’économie des travaux de la psychanalyse. Plus précisément, Xavier Saint Martin propose une démarche qui viserait comme indiqué ci-dessus à enrichir réciproquement la psychanalyse et les sciences cognitives : montrer comment les intuitions et hypothèses de Freud pourraient enrichir les sciences cognitives et, réciproquement, comment celles-ci, avec notamment leurs nouveaux instruments, pourraient éventuellement confirmer ou infirmer les hypothèses de la psychanalyse.


Réapprendre à connaître Freud


Pour cela, il faut commencer par connaître, ou redécouvrir la richesse de la démarche de Freud et son caractère véritablement scientifique. On peut toujours discuter la question de savoir si la psychanalyse moderne est une science au sens, d’ailleurs très imprécis, donné à ce mot quand il concerne les sciences humaines. Mais à quoi bon? Concernant le travail fait tout au long de sa vie par Freud, le livre consacre un long chapitre, le chapitre 2, à démontrer comment, au vu des critères de son époque, comme d’ailleurs en grande partie au vu des nôtres, Freud s’était comporté en scientifique, afin notamment de mieux illustrer le fonctionnement du psychisme.


Les explications qu’en donnaient à la fin du 19e siècle les psychologues et médecins de l’époque, imbues de préjugés traditionnels voire de croyances mythologiques, avaient en effet perdu tout caractère éclairant. Freud se comporta à cet égard en véritable génie, et en génie courageux, puisqu’il affronta sans hésiter les forces conservatrices qui tenaient, notamment pour conserver leur pouvoir sur les malades, mais aussi plus généralement sur les femmes, les enfants et les pauvres, à dénier toute autonomie aux uns et aux autres. On sait, inutile de développer ce point ici, comment la mise en valeur par Freud de la libido, des pulsions sexuelles, des inhibitions conduisit des millions de personnes à mieux comprendre la société et parfois à mieux se comprendre elles-mêmes.


Nous ne pouvons résumer ici les 80 pages (sans compter les citations présentées en notes) consacrées par le chapitre 2 du livre à analyser ce que l’auteur nomme la théorie freudienne. Il y aborde successivement : 1. La méthode, véritablement scientifique, reposant sur l’observation elle-même inspirée par le déterminisme. 2. La description des entités observables, que l’auteur nomme les inscriptions psychiques (affects, représentations, complexes…). 3. La présentation de la vision associationniste qui est à la base des activités psychiques et de leurs mises en évidence. 4. La présentation de la « défense » en relation avec ce que les psychanalystes nomment les topiques (ou études de la structure mentale) successivement décrites par Freud : conscient/inconscient ; moi/ça ; vie/mort. . 5. La spécificité du sexuel avec ses différentes manifestations : refoulement, transposabilité, symptôme, régression, fixation, traumatisme…et finalement 6. Le rôle du sujet en psychanalyse, y compris en ce qui concerne la cure.


Xavier Saint Martin nous rappelle, à l’occasion de cette présentation, que ces bases théoriques avaient été élaborées à partir d’un nombre considérable d’observations cliniques. Freud y avait procédé avec les moyens dont disposaient la psychologie et la psychiatrie de l’époque, mais l’on sait qu’il s’intéressait beaucoup aux premiers pas de la neurologie et de l’anatomie pathologique. Il aurait vécu 50 ou 100 ans plus tard, sans doute n’aurait-il pas renié les fondements de sa théorie, du moins les auraient-ils fortement enrichis sinon nuancés. C’est bien ce que devraient faire les psychanalystes aujourd’hui.


Vers une psychanalyse cognitive


Cet objectif, qui donne son titre au livre et fait l’objet du Chapitre 3, vise à illustrer la grande proximité des questions posées sur l’appareil psychique tant par la théorie de Freud que par les sciences cognitives. L’ambition de l’auteur, comme il l’indique lui-même, est de faire savoir à la communauté psychanalytique que ses méthodes, concepts et processus expérimentaux pourraient utilement participer aux travaux en cours intéressant les sciences cognitives au sens large, mais aussi les recherches et développements concernant les systèmes artificiels dits intelligents. Plus particulièrement à cette fin, il indique les outils conceptuels et les connaissances factuelles découlant de ces sciences et techniques, que Freud aurait probablement exploités si ces matériaux avaient été disponibles de son temps. L'ambition de l'auteur serait que les successeurs de Freud réalisent ce travail.


Il présente pour cela (sous réserve d’une future mise à jour que nous avons évoquée et qui pourrait aisément être réalisée), les métaphores ou simulations permises par l’informatique et l’intelligence artificielle. Il énumère ensuite les lignes de convergence : établissement des liaisons entre neurones, association, investissement, apprentissage, représentation, mémoire. Il discute enfin les questions liées au fonctionnement du cerveau à partir des structures neurales innées et acquises, la construction du sujet, la catégorisation, les affects et motivations conscients ou inconscients, etc. Le chapitre se termine par un tableau synoptique présentant les bases génétiques et phylogénétiques du psychisme, les entités psychiques, les règles présidant à leurs relations, sur un mode déterministe ou au contraire chaotique, et finalement les conséquences observables en découlant: névroses, psychoses, perversions, avec leurs divers symptômes et manifestations rationalisées.


Quelques réflexions


Le sujet abordé par Xavier Saint Martin est immense, et nous ne pouvons pas ici prétendre l’évaluer avec pertinence. Bornons nous à présenter quelques réflexions rapides.


L’inconvénient de l’apparition d’un grand novateur est qu’elle génère derrière lui d’innombrables disciples. Ceux-ci, par respect, souvent aussi par facilité, pour s’éviter les efforts de nouveaux renouvellements, finissent pas se comporter en véritables gardiens du temple. Ils exploitent les premiers filons mais ils renoncent à en chercher d’autres. On sait à cet égard que si Freud n’avait pas lui-même été avare d’imagination pour décrire les comportements psychiques et leurs antécédents supposés, ses élèves, c’est-à-dire l’immense communauté des psychanalystes de par le monde, ont infiniment compliqué le tableau mais sans le renouveler réellement. La lecture des ouvrages des psychanalystes contemporains ou des articles de revues nous plonge dans une jungle d’entités aux mille nuances, généralement présentées comme découlant des fondations posées par le père de la psychanalyse, dans laquelle on ne peut naviguer ou se retrouver que par l’intercession des spécialistes. Cela porte un grand tort au dialogue interdisciplinaire 1)


Ajoutons que les psychanalystes, imprégnés de leur lutte contre une psychiatrie réductionniste, symbolisée par l’électrochoc et la camisole chimique, se refusent encore à considérer ce que peuvent dire du cerveau et de son fonctionnement non seulement les neurosciences observationnelles, mais aussi la génétique et la biologie évolutionnaire. A plus forte raison veulent-ils encore ignorer les perspectives de l’intelligence artificielle et de la robotique autonome. L’idée qu’un robot puisse faire montre d’affects, complexes, refoulements et pathologies diverses, pourtant sérieusement à l’ordre du jour chez les roboticiens, leur parait relever de l’escroquerie intellectuelle.


La complexité de la jungle des entités étudiées par la psychanalyse 2), à supposer qu’elle ne soit pas principalement destinée à sauvegarder le monopole des psychanalystes sur les cures, rend difficile l’objectif que pourraient selon nous se fixer les sciences cognitives, retrouver derrière chacune de ces entités un mécanisme génétique, neurologique ou culturel susceptible d’être identifié et analysé avec leurs méthodes et leurs instruments. Des tentatives ont été faites récemment, sous le concept notamment de neuro-psycho-analyse, mais elles ne semblent pas avoir donné de résultats probants.


Un certain nombre de neuroscientifiques se sont demandés si les comportements et symptômes identifiés par Freud tout au long d’une œuvre de 50 ans correspondent à des « observables » de caractère durable sinon universel. Ils pourraient en ce cas aujourd’hui encore être effectivement observés et analysées avec les outils modernes des sciences cognitives. Il en serait de même des causes ou déterminismes qui seraient à la source de ces comportements et symptômes. Ainsi, pour prendre un exemple excessivement simpliste, des façons d’être telles que celles qualifiées de perversions ou, au contraire, de refoulements pourraient être imputées à la combinaison (stochastique) d’un certain nombre de mécanismes générateurs dont l’on pourrait trouver une trace dans des sécrétions endocriniennes, des observations en imagerie cérébrale, voire en amont dans l’expression de certains gènes.


L'imprécision des concepts freudiens


Malheureusement, pour cela, les observations éventuelles se heurtent à l’imprécision des concepts freudiens. Entendons-nous. Il ne s’agirait pas de nier ce que chacun peut constater, que les individus sont constamment victimes d’aberrations psychiques telles que le délire de persécution, les obsessions et addictions, les dépressions et autres névroses. On ne nierait pas non plus l’existence de phénomènes dont chacun est témoin, à commencer dans son propre psychisme, tels que les rêves, les oublis, les défenses contre le déplaisir, etc. Il s’agirait par contre d’en rechercher les causes dans le monde infiniment complexe et encore mal exploré du fonctionnement du cerveau « incorporé » dans un corps doté de centaines de capteurs et effecteurs portant tout autant sur l’intérieur que sur l’extérieur. Que resterait-il alors de la « belle simplicité » des concepts freudiens ? Répétons une nouvelle fois que si Freud avait vécu aujourd’hui, il n’aurait sans doute pas refusé de voir cette complexité, ni rejeté les mises à jour doctrinales qui en auraient découlé.


C’est ce qu’explique fort bien le livre de Lionel Naccache précité, à propos de l’inconscient dont on sait le rôle essentiel pour Freud et ses disciples : l’inconscient tel que décrit par ces derniers (il y a presque 100 ans maintenant), n’existe (vraisemblablement) pas. L’inconscient constitue pourtant ce que l’on pourrait qualifier de fonctionnement par défaut de tous les organismes vivants. Mais il n’a pas grand-chose à voir avec l’inconscient freudien. Que serait alors l’inconscient freudien ?


Les organismes vivants fonctionnent essentiellement sur le mode inconscient du fait que les opérations mentales accédant à l’espace de travail conscient identifié chez les animaux supérieurs sont extrêmement rares (et ne disposent généralement pas des propriétés généralement prêtées à la conscience par le sens commun). Si l’on veut comprendre ce qui se passe sur le mode inconscient dans le corps et le cerveau d’un chien ou d’un humain, il faut mettre en œuvre les instruments d’analyse de plus en plus perfectionnés fournis notamment par la pharmacologie et l’imagerie cérébrale fonctionnelle. Mais il s’agit alors de recherches considérables, qui n’intéressent que peu les organismes de financements (sauf peut-être les militaires). Raison de plus pour ne pas partir sur de mauvaises bases, autrement dit ne pas s'appuyer sur des hypothèses freudiennes dont la plupart ne sont plus considérées comme scientifique, c’est-à-dire vérifiables et falsifiables.


Prenons un exemple simple tiré de la météorologie. Traditionnellement, les agriculteurs et marins constataient que des vents différents se succédaient, avec des caractères qu’ils avaient bien identifiés. Mais ils avaient attribué les causes de ces vents à des conflits entre divinités, le timide Zéphyr affrontant le rude Borée, sous l’œil sourcilleux de Jupiter tonnant, maître des Dieux et des hommes. Si les météorologues modernes, dotés de tous les instruments perfectionnés dont ils disposent, avaient conservé cette dramaturgie, ils n’auraient pas identifié les vrais acteurs qui sont les mélanges d’air chaud et froid au sein des couches atmosphériques. Certes, lorsqu'un prévisionniste veut se faire comprendre d’un public non expert, aujourd’hui encore, il fait appel aux divinités traditionnelles (sauf à les remplacer par des concepts mythologiques identifiés dans le ballet des cartes météorologiques télévisuelles par des conflits entre D (la méchante dépressions) et A (le gentil Anticyclone). Mais il ne se prend pas au mot et sait bien qu'élucider les déterminismes chaotiques du climat nécessite d’autres concepts et d’autres approches.


A la question sempiternelle de savoir si la psychanalyse est ou pourrait devenir une science, nous serions donc tentés pour notre part de répondre qu’elle ne pourrait le devenir, sous la forme d’une psychanalyse cognitive, qu’en soumettant à la critique des sciences cognitives et de nombreuses autres sciences, l’ensemble des concepts et des observables à partir desquels elle s’efforcerait de proposer des lois. On peut évidemment considérer que la psychanalyse doit être traitée comme d’autres sciences humaines et sociales : sciences économiques, sciences de l’organisation, histoire, voire même médecine, à qui l’on ne demande pas de se confronter aux épreuves imposées aux sciences dites dures, incluant la biologie. Mais dans la mesure où l’on voudrait la mettre à l’épreuve d’instruments émanant de ces sciences dures, il faudrait bien en accepter les contraintes 3)


L'ambiguité des instruments d'observation


Cela ne veut pas dire que ces sciences cognitives elles-mêmes ne devraient pas être critiquées du point de vue épistémologique. Il n’y a pas de raison de leur faire une confiance absolue. Développons un peu ce point. On nous objecte souvent, dans cette revue, que les techniques de l’imagerie fonctionnelle, notamment la fameuse IRM(f), sont des instruments comme les autres, autrement dit marqués des mêmes limites que l’épistémologie critique détecte à juste titre dans toute observation instrumentale, que ce soit en science macroscopique ou en physique microscopique. Elles ne font pas apparaître un réel existant en soi, mais ce que certains nomment une entité-objet résultant de la relation, toujours révocable, entre un infra-réel non qualifiable en soi, un instrument et un observateur/acteur. Autrement dit, l’image des aires neurales activées lors d’un comportement donné ne correspond pas vraiment à ce qui se passerait dans le cerveau selon la « narration » qui en est faite par les neuroscientifiques, mais à ce que l’observateur et son instrument peuvent et veulent détecter. D’autres instruments d’ailleurs, non encore réalisés, pourraient faire apercevoir d’autres choses et susciter d’autres « narratives ».


Ces réserves cependant ne signifient pas pour nous qu’il serait impossible de faire de la psychanalyse cognitive proposée par Xavier Saint Martin une véritable science. Elles signalent nous semble-t-il l’immensité des chantiers qu’il faudrait ouvrir, puisqu’il faudrait à la fois critiquer tous les concepts de départ, empruntés à Freud ou importés plus récemment dans la psychologie, notamment à partir de la psychologie évolutionnaire, et les méthodes permettant d’en justifier la pertinence à partir de l’observation des corps et des cerveaux du monde animal. L’importance de la tâche ne serait pas à elle seule une raison pour ne pas l’entreprendre. Disons seulement qu’il ne faut pas s’illusionner. Comme rappelé plus haut, ces objectifs n’intéressent pas vraiment, aujourd’hui, ni les décideurs de la science, ni les citoyens. Ceux-ci se satisfont fort bien des explications fournies par les religions et par les astrologues.


La psychanalyse cognitive en tant qu’instrument pour la cure.


Cette question n’a pas été retenue, nous l’avons indiqué, pour Xavier Saint Martin, parce que débordant selon lui du champ de ses compétences. Nous pouvons cependant en dire un mot ici, sans l’aborder au fond. La plupart des psychanalystes, comme ceux des patients qui acceptent de supporter les sacrifices en temps et en argent qu’implique une cure, ne se préoccupent pas de savoir si la psychanalyse est ou non une science, car cette question n’aurait pas pour eux d’intérêt pratique. Ce qui compte, tant pour les soignants que pour les patients, est que la psychanalyse soulage. Mais soulage-t-elle ?


On pourrait discuter interminablement des conditions dans lesquelles intervient le remède apporté par la cure psychanalytique traditionnelle, pratiquée depuis près de cent ans maintenant sous des formes peu différentes par la communauté des psychanalystes, qu’ils soient ou non docteurs en médecine. Les patients véritablement guéris, se reconnaissant comme tels ou non, sont rares. Cependant, en dehors de cas désespérés, enfermés dans des névroses récurrentes, il semble bien que les résultats des traitements soient plutôt favorables. Que demander de mieux ?


Les sciences cognitives se devraient de rechercher le pourquoi de tels résultats. Le font-elles sérieusement ? Ce n’est pas sûr. En dehors d’elles, beaucoup de médecins et psychologues font valoir que ce qui soulage les maux psychiques est la possibilité pour ceux qui en souffrent de s’en ouvrir à des oreilles compatissantes. Ceci souvent de préférence en présence d’un public que l’on pourra émouvoir ou avec qui partager ses émotions. D’où le succès des innombrables consultations de psychothérapie, des groupes de soutien psychologique, des émissions de télé-réalité. D’où aussi le succès de ce que les psychologues sont bien obligés de considérer comme des dérives : confessions en public dans des méga-churches, séances d’hallucination plus ou moins sectaires, exorcismes, etc. Il s’agit d’un effet proche de l’effet placebo, dont on ne peut contester l’intérêt en pharmacie et qui reste encore mystérieux. Il s’agit d’un beau sujet d’étude, tant pour les sciences cognitives que pour la psychanalyse.


Quant à la question évoquée plus haut, celle de savoir si une approche psychanalytique pourrait « guérir » les robots évolutionnaires complexes en cours de développement (sous le nom générique de « systèmes cognitifs ») des diverses anomalies comportementales qu’ils pourront manifester, la réponse parait affirmative. Bien que le thème ne soit pas encore d’actualité, il le deviendra vite. Les approches relativement globales de la psychothérapie et de la psychanalyse, visant à prévenir ou guérir les troubles, même lorsque l’on ne sait pas bien ce qui se passe « au fond de la machine », trouveront là un emploi utile. Ceci pourrait en retour (horresco referens) entraîner quelques retombées utiles dans le traitement des humains.


Ajoutons, pour évoquer le vieux conflit entre psychanalyse et psychiatrie, en le mettant au goût du jour, que beaucoup de praticiens font à la psychanalyse, comme en général aux psychothérapies, le reproche de faire perdre beaucoup de temps aux patients en difficulté, alors que l’administration de drogues calmantes ou euphorisantes pourraient avoir le même effet. Il s’agit d’une question que nous n’aborderons pas ici, mais qui est, qu’on le veuille ou non, sous-jacente à l’appel aux sciences cognitives et à leurs applications en psychiatrie. Aujourd’hui, des expériences montrent par exemple que des variations infimes dans les taux d’adrénaline ou de sérotonine peuvent transformer radicalement un individu tranquille en individu agressif ou réciproquement. Ceci dit, on admettra facilement que la conjonction de méthodes biochimiques et de méthodes psychologiques devrait donner de meilleurs résultats qu’une approche unilatérale.


Finalement, que dire relativement à l’efficacité thérapeutique de la psychanalyse ou d’une future psychanalyse cognitive ? Ce thème, répétons-le, a été volontairement exclu du livre de Xavier Saint Martin, mais nos lecteurs ne manqueront pas de s’y intéresser. On peut penser que, de même que le météorologue n’a pas besoin de connaître les secrets de la dynamique des fluides pour juger de la sévérité d’un épisode dépressionnaire survenant dans la vie quotidienne, des observations barométriques lui suffisant généralement, le psychanalyste peut se satisfaire dans ses relations avec le patient des concepts encore fonctionnellement utilisables retenus par la profession à la suite de Freud, pulsions sexuelles, libido, refoulement, etc., Il y fera allusion avec son patient. Celui-ci « hallucinera » à leur sujet et s’en trouvera généralement bien.


Le soignant devrait-il alors s’engager dans les considérations complexes résultant de l’appel aux sciences cognitives évoquées précédemment ? Ni lui ni le patient n’en tireraient (sauf cas graves) de bénéfices immédiats. S’il fallait rechercher les traces de telles « pulsions » dans les bases neurales ou dans le génome du patient, avec l'instrumentation lourde nécessaire, il ne s’agirait plus alors de cure mais de recherche. Le coût en serait évidemment modifié.


Conclusion

Compte-tenu de la richesse des perspectives ouvertes par le livre de Xavier Saint Martin, nous ne pouvons qu’en conseiller la lecture. Bien plus, si lui-même, s’associant avec d’autres chercheurs partageant son approche, voulait préciser le contenu de la psychanalyse cognitive qu’il propose, nous serions heureux d’en faire ici l’écho.


Notes
(1) Nous ne pouvions pas ne pas citer ici Le livre noir de la psychanalyse, Sous la direction de Catherine Meyer, 2005, Les Arènes. Il s’agit d’un corpus d'articles de plus de 800 pages dont l'ambition affichée est de remettre en cause les théories et de souligner les échecs de la psychanalyse. Ce livre, paru en septembre 2005, rassemble une quarantaine d'auteurs de différentes nationalités et de différentes spécialités : historiens, psychiatres, philosophes. On l’a suspecté d’être une publicité cachée pour d’autres pratiques thérapeutiques.
(2) Voir le Vocabulaire de la psychanalyse,
de Jean-Bertrand Pontalis, Jean Laplanche et Daniel Lagache , Presses Universitaires de France - PUF; 3e édition (novembre 2004) .
(3) Sur la question de savoir si la psychanalyse est ou non une science, voir l'article de Marc Jeannerod et Nicolas Georgieff (référence proposée par Xavier Saint Martin) http://www.isc.cnrs.fr/wp/wp00-4.htm

Repost 0
29 octobre 2009 4 29 /10 /octobre /2009 22:13


Howard Bloom

The Genius of the Beast: A Radical Re-Vision of Capitalism (diffusé à partir de novembre 2009)

Présentation et commentaires par Jean-Paul Baquiast 29/10/2009


 

Howard Bloom (à droite).photographié à NYC en 2008 lors d'une visite de la Société francophone de mémétique. Au centre, Pascal Jouxtel, fondateur de cette Société.

Howard Bloom est l’auteur de
- The Lucifer Principle: A Scientific Expedition Into the Forces of History. Voir notre présentation
http://www.automatesintelligents.com/biblionet/2002/fev/principe.html
- Global Brain: The Evolution of Mass Mind From The Big Bang to the 21st century. Voir notre présentation
http://www.automatesintelligents.com/biblionet/2002/mar/bloom.html
- How I Accidentally Started The Sixties Téléchargeable
http://www.amazon.com/s/ref=nb_ss?url=search-alias%3Dstripbooks&field-keywords=-%09How+I+Accidentally+Started+The+Sixties&x=17&y=16

Titres et distinctions
Former Core Faculty Member, The Graduate Institute
Former Visiting Scholar-Graduate Psychology Department, New York University
Special Advisor to the Board of the Retirement Income Industry Association
Founder: International Paleopsychology Project;
Founder, Space Development Steering Committee;
Founder: The Group Selection Squad
Founding Board Member: Epic of Evolution Society
Founding Board Member, The Darwin Project
Member Of Board Of Governors, National Space Society
Founder: The Big Bang Tango Media Lab
Member: New York Academy of Sciences, American Association for the Advancement of Science, American Psychological Society, Academy of Political Science, Human Behavior and Evolution Society, International Society for Human Ethology
Scientific Advisory Board Member, Lifeboat Foundation
Advisory Board Member: The Buffalo Film Festival.

Pour en savoir plus
voir http://howardbloom.net/
voir aussi
http://www.scientificblogging.com/howard_bloom

 

 


Nos lecteurs savent avec quel intérêt nous avions lu les deux premiers ouvrages de Howard Bloom, cités en référence. Nous leur proposons de se reporter aux présentations que nous en avions faites, elles aussi citées ci-dessus.


Le même Howard Bloom vient d’écrire un nouvel ouvrage, dans la veine des deux premiers. L’auteur nous en avait confié le manuscrit, afin que nous puissions le présenter avant sa diffusion officielle. C’est avec plaisir que nous le faisons.


Introduction à la démarche d’Howard Bloom


Howard Bloom est un écrivain scientifique assez exceptionnel. S’il n’a pas les titres universitaires derrière lesquels s’abritent généralement historiens, anthropologues et sociologues divers, il dispose au plus haut point de deux qualités qui sont à la base de l’esprit scientifique : se demander ce que cachent et peuvent révéler les phénomènes considérés à tort comme les plus évidents, utiliser pour ce faire le plus grand nombre des connaissances scientifiques disponibles, sans s’arrêter aux barrières disciplinaires. Pour cela il dispose d’une imagination créatrice hors du commun, celle qui fait les grands découvreurs. Il y joint évidemment une puissance de travail exceptionnelle, sans laquelle rien de solide ne peut être fondé.


Son dernier livre, The Genius of the Beast: A Radical Re-Vision of Capitalism, illustre une nouvelle fois ces qualités. Il s’agit d’un ouvrage de plus de 700 pages, comportant plus de 650 citations. Celles-ci, prises dans des revues ou ouvrages scientifiques, ne sont pas seulement là pour faire sérieux. La lecture du contexte montre que l’auteur les a lues et méditées, pour en faire des arguments ou des illustrations enrichissant son propos. Comme dans ses précédents livres, l’auteur voyage avec aisance à travers les siècles et les espaces, convoquant pour illustrer ses hypothèses un nombre considérable d’évènements ou de documents historiques voire préhistoriques dont il nous propose une relecture.


On retrouve par ailleurs dans The Genius of the Beast les particularités qui pour nous et pour beaucoup de lecteurs de par le monde avaient fait l’originalité de ses deux précédents ouvrages. Howard Bloom y avait donné une véritable portée scientifique à des concepts déjà largement utilisés avant lui mais plus à titre de métaphores littéraire que d’objets d’études pluridisciplinaires. Il s’agissait pour citer les plus utilisés des concepts de superorganisme, de même, de cerveau global, de sélection de groupe 1)


Mais pourquoi donner à ces concepts une quelconque valeur scientifique ? Sauf peut-être au thème dit de la sélection de groupe, c’est impossible, proclament à qui mieux mieux beaucoup de scientifiques réputés. Nous pensons pour notre part qu’ils se trompent. Prenons le cerveau global. On peut utiliser ce terme pour désigner diverses entités observables dans la nature, une fourmilière, une entreprise, l’internet, afin de montrer qu’elles ont de nombreux points communs : des comportements cognitifs et parfois des structures anatomiques proches de ce que l’on perçoit dans un cerveau animal ou humain. On en déduira de nombreuses conséquences susceptibles d’être vérifiées expérimentalement : analogies fonctionnelles, par exemple, entre un faisceaux de neurones et une colonne de fourmis. On pourra aussi, comme on le sait, utiliser les modèles ainsi établis pour construire un automate utilisant la technologie des multi-agents adaptatifs capable de simuler aussi bien la fourmilière que le cerveau.


Certes, il ne sera pas possible d’observer un cerveau global comme les neurologues observent un cerveau biologique. Dans les deux cas, selon nous, il s’agira de constructions mentales associant l’observateur et ses instruments, ne correspondant pas à des « réalités en-soi ». Mais dans le cas du cerveau biologique, ses frontières et ses détails pourront faire l’objet d’un large consensus de la part des observateurs, ce qui ne sera pas le cas du « cerveau global », quel qu’il soit. Ceci n’empêchera pas que la comparaison, fut-elle métaphorique, entre ces deux catégories d’observables pourra générer, comme nous le rappelions, de nombreuses hypothèses éclairantes, susceptibles d’être vérifiées expérimentalement, dont profitera la description que la science donnera finalement de chacune d’elle.


Bien plus. La métaphore scientifique, à condition qu’elle repose sur un certain nombre de bases indiscutables, présentera l’intérêt de susciter l’exercice d’une fonction que Howard Bloom juge à bon escient essentielle à la découverte scientifique : l’imagination indispensable à toute création, artistique comme scientifique 2) Elle suscitera aussi les affects, également indispensables à la découverte. Peu importe alors qu’elle repose sur des bases qui dans un premier temps seront approximatives ou provoqueront des appréciations différentes. 3)


The Genius of the Beast présente une autre qualité, déjà remarquable dans les ouvrages précédents de l’auteur. L’ouvrage s’inscrit dans le darwinisme et dans le naturalisme (autre mot pour désigner le matérialisme athée) qui sont de plus en plus contestés par les idéologues religieux voulant mobiliser au profit de leur lutte pour le pouvoir politique les apports de la science. Howard Bloom à cet égard ne donnera aucun argument aux tenants de l’Intelligent Design, qu’il soit chrétien ou islamique. Pour lui, l’histoire du monde s’explique tout naturellement par des causes et des déterminismes naturels. Même si tout ne peut être précisé, en l’état actuel de la science (c’est le cas selon nous en ce qui concerne l’évolution cosmologique, à laquelle Howard Bloom fait allusion), ce n’est pas une raison pour faire appel à des arguments surnaturels qui, par construction, élimineront le besoin de poursuivre les recherches.


Quelques nouveaux mécanismes à prendre en considération


The Genius of the Beast s’attaque, comme son titre l’indique, à la compréhension du capitalisme moderne. Ce thème a pris une actualité particulière du fait de la crise financière et économique ayant atteint Wall Street, puis le reste du monde, en 2007-2008. Howard Bloom nous donne à cet égard, comme pour tous les autres évènements qu’il cherche à décrypter, une description très vivante, dramatique, de celle-ci, connue à l’époque comme la crise des subprimes, ou prêts bancaires à bas taux, destinés à intéresser des personnes sans garanties (No income, no job, no assets). Ceci ne veut pas dire, nous y reviendrons, que nous puissions admettre sans discuter l’idée qu’il se fait du capitalisme. Mais l’intérêt du livre, pour nous, n’est pas là. Il est de mettre en circulation, selon la méthode de l’auteur, de nouveaux concepts qui deviendront de ce fait susceptibles d’approfondissement par les sciences et donc réutilisables dans de nombreux autres domaines, y compris ceux de la vie quotidienne.


Nous n’allons pas ici faire la liste de tous les nouveaux concepts proposés par Howard Bloom. Limitons nous à celui de « evolutionary search engine » Ce terme désigne le principe qui est à la base, selon lui, de toutes les évolutions intéressant la matière minérale comme la matière vivante, y compris le cosmos lui-même. Il parle de moteur de recherche, par analogie avec la façon dont procèdent les moteurs de recherche sur internet, explorant le monde virtuel afin d’en ramener des éléments servant à étayer une thèse. Nous pourrions aussi bien utiliser le terme de machine à inventer universelle. Le principe en serait simple : rassembler des ressources disponibles dans le milieu, construire avec elles des entités complexes originales, exploiter les champs d’actions ainsi ouverts, ceci jusqu’à épuisement des ressources. Un effondrement en résulterait. Mais cet effondrement ne marquerait pas un retour en arrière ou une stagnation. A partir de ces débris, la machine à inventer reconstituera de nouvelles entités plus complexes et donc plus performantes. Howard Bloom donne un nom au mécanisme ainsi décrit. Il le nomme le balancier du renouvellement ou du réajustement (pendulum of repurposing).

C’est ainsi que procède l’évolution cosmologique, par exemple dans le cadre des cycles marquant la nucléosynthèse stellaire. C’est ainsi que procède la biologie, avec création, destruction et reconstruction incessante d’entités mieux adaptées à la compétition darwinienne, que ce soit au plan des génotypes ou à celui des phénotypes. C’est ce qu’ont toujours fait les civilisations, construisant, détruisant et reconstruisant des empires. Les « barons » de Wall Street n’ont donc pas à s’inquiéter. La finance, avec ses successions de crashs et de booms, ne procède pas autrement. L’histoire économique récente donne d’ailleurs raison à Howard Bloom, puisque à l’automne 2009 la spéculation boursière et bancaire repart de plus belle, après avoir été sauvée du naufrage par des injections massives de capitaux publics.


Mais Howard Bloom ne se limite pas à donner un nom générique à l’histoire des crises économiques et des crises de civilisation. Il considère que le concept de moteur de recherche évolutionnaire doit être complété par celui de « générateur de transcendance » (transcendance engine). Il ne fait pas allusion par là à une quelconque transcendance métaphysique. Il veut seulement dire que les forces à l’œuvre au sein de ce moteur ou machine à inventer ne se borne pas à rester, si l’on peut dire, au ras du sol dans leurs efforts pour construire du nouveau sur les ruines de l’ancien. Elles cherchent à donner vie aux créations de l’imaginaire, elles-mêmes suscitées par les affects résultant de l’activité des neurones sous l’empire des médiateurs chimiques suscitant le dépassement des individus et des groupes. Parmi ces affects se trouvent à la fois le besoin d’exalter l’individu, et celui de renforcer la solidarité à l’intérieur du groupe. On y trouve aussi le besoin, bien plus ambitieux, de construire, sur la Terre et non dans le ciel, un monde nouveau différent du monde présent.


Autrement dit, Howard Bloom propose un regard permettant de « séculariser » les pulsions qui conduisent généralement les humains à s’inventer des mondes divins ou surnaturels capables de répondre à des besoins de dépassement non satisfaits au sein du monde dans lequel ils vivent. Mais pour progresser dans cette voie, il faut passer par ce que l’auteur nomme le « cycle de l’insécurité ». En l’absence de ce « générateur de dépassement (breakthrough generator), c’est la stagnation et la mort, correspondant à l’apoptose ou mort programmée bien connue des biologistes. Celle-ci frappe les cellules n’ayant pas trouvé de créneaux de renouvellement.


Quand il s’agit des organismes animaux, Howard Bloom n’imagine pas de transcendance aussi radicales que celles pouvant apparaître dans les cerveaux des humains. Le cycle de l’insécurité dont il décrit longuement le fonctionnement au sein des ruches d’abeilles menacées par la disette se borne à pousser les « abeilles au chômage par manque de nourriture » (jobless bees) à chercher au-delà des aires de collecte proches de nouvelles sources de pollen. Mais le « générateur de dépassement » sélectionné par l’évolution ne s’est pas borné à inciter les abeilles à élargir leurs champs de recherche en cas de disette. Il a doté l’espèce de compétences cognitives avancées, allant jusqu’à l’invention d’un langage, la fameuse danse des abeilles, permettant d’instruire la ruche de l’existence et de la localisation des sources découvertes par les abeilles exploratrices. Rien n’interdit de penser que sous les mêmes contraintes furent inventés les outils et les langages à la base des découvertes « transcendantes » dont l’humanité est aujourd’hui si fière.


Appliquant ces intuitions aux crises économiques vécues par le capitalisme depuis deux cent ans, ont peut en déduire qu’elles ne sont pas dues comme le pensent les pseudo-économistes 4) à l’apparition d’une nouvelle technique rendant obsolètes les précédentes et induisant des cycles dits de Kondratieff. Elles sont dues à une ardente obligation, inscrites dans les gènes de toutes les espèces. Elle pousse les humains à se dépouiller de leurs habitudes et sécurités pour gagner de nouveaux horizons, nouveaux territoires et nouvelles façons d’y habiter. Ce faisant, selon Howard Bloom, les humains le feraient pas uniquement par intérêt ou dans le cadre de guerres de prestige avec les voisins. Ils le feraient aussi par un besoin quasi messianique de renforcer les potentialités des individus et des groupes en matière d’empathie et de création imaginaire partagée.


Commentaires


Nous ne résumerons pas davantage les nombreux cas appuyés d’observations expérimentales par lesquels l’auteur développe ses hypothèses. Il ne faut pas priver le lecteur du plaisir de les découvrit lui-même. Il le fera sur le mode popularisé par le commissaire Maigret dans un feuilleton célèbre, en se frappant le front et en disant à son adjoint, « Oui, mais c’est bien sûr » alors qu’il n’avait rien remarqué d’intéressant jusqu’alors.

Il nous parait par contre utile de ne pas céder à l’enthousiasme et de prendre un peu de recul. Manifestement, les premiers lecteurs du livre, acteurs dans l’économie capitaliste comme l’auteur le fut lui-même pendant une dizaine d’années, y ont trouvé des arguments puissants pour se rassurer : le capitalisme n’est pas mort. Il n’est même pas aussi nuisible que le prétendent ses ennemis. C’est au contraire la seule voie permettant à l’humanité de continuer à progresser. D’où la chaleur de leur accueil, comme le prouvent les premiers commentaires disponibles.


Mais on touche aussi là aux limites de la méthode d’induction scientifique proposée par Howard Bloom. Cette méthode, que nous avons résumée au début de cet article, consiste à créer des entités nouvelles à partir de faits d’observations partiels, à caractériser ces entités par un certain nombre d’observables et finalement à rechercher ces observables dans la nature. Ou bien on ne trouve rien et il faut recommencer. Ou bien on trouve quelque chose à partir de quoi poursuivre le processus.


Il s’agit, répétons-le, d’une méthode inhérente à la démarche scientifique elle-même. On la voit à l’œuvre sans possibilités de contestation dans le domaine de la physique quantique. Par contre, en matière de physique macroscopique, beaucoup de scientifiques qui « croient » dur comme fer au réalisme des essences ne veulent pas reconnaître qu’ils appliquent une méthode voisine. Ils se donnent l’illusion de décrire des objets en soi mais, selon la plupart des épistémologues modernes, ils se trompent. Peu importe car de toutes façons, même à partir de prémisses fausses, leurs observations peuvent porter des fruits. Dans le domaine des sciences humaines et sociales, beaucoup de chercheurs tombent aussi dans l’illusion du réalisme. Ils s’imaginent, par exemple, que le « chômage » ou la « croissance » sont des entités en soi, mesurables avec les outils des sciences exactes. Généralement ils font erreur, non dans les grandes lignes mais dans les détails, ce qui rend leurs prévisions particulièrement hasardeuses compte tenu de l’incertitude dans les données initiales sur lesquelles elles reposent.


En sociologie, là où les entités sont sciemment créées par les chercheurs, d'une façon à laquelle, nous l’avons dit, excelle Howard Bloom, il convient d’être particulièrement attentifs. Les pièges du réalisme sont partout. Un superorganisme, un « mème », un cerveau global ne peuvent en aucun cas être confondus avec des entités biologiques ou sociologiques plus précises. Nous avons en fait employé le terme de métaphore. C’est ce que n’ont pas encore compris les méméticiens qui continuent désespérément, tel Susan Blackmore, à rechercher des mèmes dans la nature comme un microbiologiste rechercherait des virus. La mémétique est une excellente approche scientifique, à condition de ne pas la confondre avec la virologie ou la cytologie.

Or nous avons l’impression, peut-être erronée, que dans The Genius of the Beast, Howard Bloom s’est pris à son propre jeu. Non seulement il considérerait le capitalisme comme une entité en soi, susceptible d’une approche objective. Mais plus encore il penserait que les concepts nouveaux qu’avec beaucoup de créativité il a élaboré pour mieux cerner l’essence supposée du capitalisme, tel le « transcendance engine », correspondent à des réalités en soi dont l’on pourrait revêtir pour mieux la caractériser l’entité « capitalisme ».


A priori, rien n’interdirait à Howard Bloom de procéder de la sorte, si les observations expérimentales
susceptibles d’être faites à partir des concepts qu’il a créés, appliquées au capitalisme, confirmaient ses hypothèses. Mais cela n’est pas le cas. Howard Bloom peut apporter beaucoup de présomptions expérimentales à l’appui de l’affirmation selon laquelle le capitalisme (et particulièrement le capitalisme occidental autrement dit le capitalisme dont les ressort se trouvent à Wall Street) continuera à se dépasser de façon transcendantale en faveur de l’humanité en particulier et du cosmos en général. Mais des chercheurs ne partageant pas ce préjugé favorable feront valoir que pour le moment, le développement transcendantal (sur le mode hyperbolique ou exponentiel décrit par Ray Kurzweil avec le concept de Singularité) se heurtera très rapidement aux limites imposées par le caractère fini des ressources terrestres. A ce moment, selon ces chercheurs, il faudra en revenir à un mode de régulation collective plus proche du socialisme que du capitalisme.


D’un point de vue épistémologique, nous pouvons dire que l’on retrouve dans le domaine des comportements sociaux tels qu’analysés par Howard Bloom la même nécessité de relativiser les concepts pour tenir compte des observations expérimentales que celle récemment découverte par la génétique. L’ancien paradigme de la biologie moléculaire posant en « réalité incontournable » la relation « un gène un caractère » vient d’éclater, simplement parce que de nouvelles observations ont imposé un paradigme tout différent, celui dit de l’expression aléatoire des gènes ou de l’ontophylogenèse, selon le terme de Jean Jacques Kupiec. Un même gène ou une même protéine peuvent générer à génotype constant des phénotypes différents. C’est le tri par le milieu ambiant qui sélectionne les mieux adaptés.


Autrement dit, si nous sommes tout à fait d’accord pour accepter les modèles proposés par Howard Bloom dans « The Genius of the Beast », tels que ceux de « pendulum of repurposing » ou « transcendance engine », nous ne voudrions pas les utiliser sans précautions pour caractériser l’ensemble de mécanismes que l’on regroupe sous le terme de « capitalisme occidental ». Moins encore nous ne voudrions en déduire que le capitalisme libéral restera pour l’avenir du monde « The Solution ». A l’inverse, nous aimerions voir si ces modèles pourraient servir à caractériser d’autres économies non capitalistiques, telles que l’économie de décroissance ou l’économie régulée…à condition évidemment que l’on apporte des preuves expérimentales solides relativement à la validité de l'approche Bloomienne dans ces cas particuliers.


Ceci dit, les darwiniens nous objecteront que, pour expliciter les processus à la base des évolutions sociales comme de toutes les évolutions qu’évoquent notamment les livres d’Howard Bloom, le principe de simplicité ou rasoir d’Occam recommanderait de s’en tenir aux mécanismes proposés et mille fois vérifiés expérimentalement, tels qu’impliqués par le paradigme darwinien « mutation au hasard, sélection, ampliation ». C’est bien de ces mécanismes, sauf erreur, que proviennent les « transcendances » les plus exaltantes aujourd’hui observables, que ce soit dans l’ordre biologique ou dans l’ordre anthropotechnique 5)


Notes

1) Voir la présentation que nous en avions donnée dans notre propre ouvrage : "Pour un principe matérialiste fort", J.P. Bayol, 2007.
2) Voir un ouvrage récent dont nous rendrons compte : "La création –définitions et défis contemporains", Sous la direction de Sylvie Dallet, Georges Chapouthier et Emile Noël, Editions L’Harmattan, 2009
3) C’est la raison pour laquelle, en ce qui nous concerne personnellement, nous n’avons pas hésité à faire appel au concept de système anthropotechnique pour décrire les entités qui selon nous associent dans le monde moderne, de façon inextricable, des composants biologiques, anthropologiques et technologiques. Pourtant, personne ne rencontrera un système anthropotechnique au coin de la rue, en chair et en os tout au moins. Voir Baquiast, "Le paradoxe du sapiens", préface de Jean-Jacques Kupiec, J. P. Bayol, à paraître prochainement.
4) Tel que Jacques Attali. Voir notre chronique présentant le livre « Une brève histoire de l’avenir » http://www.automatesintelligents.com/biblionet/2007/jan/attali.html
5) Sur le darwinisme, on pourra lire le tout récent et remarquable ouvrage collectif "Les mondes darwiniens, l’évolution de l’évolution", Editions Syllepse, novembre 2009

Repost 0
13 septembre 2009 7 13 /09 /septembre /2009 10:37

Présentation du livre:
Dieu et les religions à l’épreuve des faits. La démonstration de l’inexistence de Dieu
, par Olivier Bach
Disponible en librairie mais aussi en ligne à l’adresse
http://www.inexistencededieu.com/Dieu_et_les_religions_a_l_epreuve_des_faits.pdf
Voir aussi le site http://www.inexistencededieu.com/

Nous ne connaissons pas encore l’auteur de ce livre stimulant. Mais d’ores et déjà, nous nous devons de saluer, non seulement l’intérêt de sa démarche mais la formule de libre accès qui permet à tous de le lire. Cette double philosophie, comme le savent nos lecteurs, nous inspire ici. Donc il nous importe sans attendre de recommander l’ouvrage.

L’auteur s’inspire d’une constatation. Il ne suffit pas à un matérialiste, et plus particulièrement à un matérialiste scientifique, d’affirmer qu’il ne croit pas en Dieu. Ce qu’il croit ou ne croit pas n’a qu’un intérêt relatif. Il lui appartient d’utiliser tous les arguments que la méthode scientifique propose pour prouver que le concept de Dieu ne renvoie à rien d'existant dans l'univers. Certes la science n’est pas infaillible et ses résultats sont par définition toujours susceptibles d’être remis en cause, mais par des arguments eux-mêmes scientifiques au sens donné par Karl Popper (vérifiabilité, falsifiabilité).


En appliquant ce processus au concept de Dieu (pourquoi d’ailleurs ici cette majuscule révérencielle, sinon par un reste d’éducation religieuse), Olivier Bach montre qu’aucun des attributs ou des performances qui lui sont attribués n’est vérifiables. La plupart ne sont même pas falsifiables. Pourquoi alors se priver de le dire ? Rappelons que, dans The God Delusion, Richard Dawkins avait affirmé la même chose. Il avait été mal reçu par beaucoup de collègues scientifiques pourtant eux-mêmes non croyants, au prétexte souvent répété que la science ne peut prouver ni l’existence ni l’inexistence de Dieu. Voir http://www.automatesintelligents.com/biblionet/2007/mai/goddelusion.html

Ce n’est pas l’avis de Dawkins, ni celui de Olivier Bach. Une première partie du livre est consacrée à démontrer l’inanité en termes scientifiques de toutes les propriétés attribuées à Dieu. Ce terme désigne pour lui les 3 dieux des religions monothéistes. Mais nous pensons que des arguments comparables pourraient être adressés pour contredire des religions ou religiosités plus vagues, comme le bouddhisme. Les adeptes de cette croyance n’hésitent pas par exemple à utiliser des arguments inspirés d’une interprétation fumeuse de la physique quantique pour justifier sa pertinence.


La deuxième partie du livre est tout aussi importante. Elle montre comment la pénétration des recherches scientifiques et des contenus d’enseignement par les idéologies religieuses déforme dès la petite enfance et tout au long de leur vie les cerveaux des humains. Se renforcent ainsi les bases neurales sources de la croyance, dont l’influence sur les comportements, bien montrée par Jean-Pierre Changeux, est déterminante pour favoriser l’emprise de ces systèmes de pouvoirs que sont les religions. Cette deuxième partie se termine par la citation de nombreux auteurs, se disant croyants ou non-croyants, qui contribuent y compris dans une société laïque comme la nôtre, à répandre le préjugé sarkozyste selon lequel les prêtres sont, mieux que les instituteurs (et les scientifiques) capables d’enseigner la morale. Quand on lit les propos de nombreux prétendus laïcs qui se couchent véritablement devant les propos du Vatican ou de ses représentants, on ne peut que répéter ce qu’avait dit un président mieux inspiré que le précité : « les Français sont des veaux ».

Repost 0

Articles Récents

Liens