Overblog Suivre ce blog
Administration Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

27 octobre 2011 4 27 /10 /octobre /2011 14:49

 

Les technologies numériques comme prothèses de notre cerveau ?
Chronique du
système anthropotechnique en marche
par Christohe Jacquemin - 27/09/2011


Nous nous connectons à Internet... nous surfons de pages en pages par des liens qui nous promènent ici et là, et pendant ce temps nous sommes aussi bombardés de messages, d'alertes nous signifiant qu'un mail vient de nous arriver et, via flux RSS, qu'un blog ou site a été mis à jour. Que se passe-t-il alors dans notre esprit ? En quoi cet environnement électronique change-t-il notre état mental, voire notre comportement social ? Ces outils modifient-ils notre cerveau ?

Bientôt, serons-nous encore capables de nous concentrer plus de quelques minutes sur un texte. Faudra-t-il, petit à petit, nous contenter de picorer ici et là quelques bribes, qu'il s'agisse de textes, vidéos, messages audio ? Quel monde nouveau l'Homo sapiens est-il en train de se forger ?
Incroyablement plastique, notre cerveau s'adapte très vite aux nouvelles technologies et à leurs nouvelles tentations. Mais devant les nouveaux usages qui s'insinuent en nous, risquons-nous de perdre notre capacité à "apprendre correctement", à mémoriser vraiment ? Allons-nous vers une démusculation mentale ? Combien de fois avons-nous entendu de la part d'ami(e)s - ou exprimé nous-mêmes - ce "depuis qu'existe Internet, je ne retiens plus les numéros de téléphone et les adresses ; la fonction GPS m'a ôté la mémoire des lieux , j'ai même du mal à me souvenir des noms et des visages(1)...

Autre question à ajouter à toutes ces questions : doit-on considérer toutes ces interrogations comme pertinentes quand on sait qu'au cours des âges l'homme s'est constamment créé de nouvelles façons de penser. Il est passé tout d'abord de la culture orale à celle de l'écrit, puis la lecture est devenue petit à petit silencieuse après des siècles où elle se fit à voix haute, ce saut dans l'accès à la connaissance par l'avènement de l'imprimerie. Jusqu'à très récemment, pour tout apprentissage, la capacité à se concentrer dans la lecture s'est placée au coeur de notre mode d'éducation.


Lecture fragmentée ?

Le mythe du "multitâche"Certains diront que le Web habitue à une lecture fragmentée au détriment d’une lecture linéaire, ce qui nuit à la compréhension et disperse l’attention : nombre d'entre-nous auraient aujourd'hui du mal à lire les textes longs (ce texte en ferait-il partie ?).

D'autres
vanteront que les nouvelles technologies constituent un avantage : elles nous rendent plus réactifs, plus aptes à prendre des décisions, à fonctionner - comme les ordinateurs - en "multitâches". Habitués à sauter de page en pages, avec plusieurs fenêtres ouvertes sur nos écrans, nous développerions la capacité de mener en même temps plusieurs activités : communiquer sur Facebook ou autre réseau social tout en se cultivant sur un autre site et regardant en même temps une vidéo sur You tube ou Daily motion, quand ce n'est pas twitter.
Nos enfants seraient déjà les mutants de demain...

Relevons cependant que diverses études détruisent ce mythe du "multitâche". Selon nombre de chercheurs en neurosciences(2), on ne peut pas faire plusieurs choses en même temps et toutes les faire bien. À moins qu’il s’agisse d’un comportement très automatisé, comme par exemple discuter avec son voisin ou sa voisine tout en conduisant. Mais de là à parler de multitâche... La plasticité du cerveau a ici ses limites.

Internet, un impact sur la façon dont on mémorise l'information dans notre cerveau ?

Oui, l'usage d'Internet a un impact sur la mémorisation dans notre cerveau. C'est ce que montrent les récents travaux de Betsy Sparrow, basée à l'institut de psychologie de l'université de Colombia (USA). Selon l'étude publiée dans Science le 5 août dernier(3), l'utilisation fréquente de moteurs de recherche et de ressources en ligne a modifié la façon dont nous mémorisons les informations. Les ordinateurs et internet (sans oublier les smartphones) sont devenus une sorte de moyen de stockage externe de notre mémoire, sur lequel l'humain se repose. Plutôt que de se rappeler certains faits, les internautes se souviennent de la façon de les retrouver en ligne, ou dans leur ordinateurr(4).

Une expérience menée dans le cadre de l'étude montre que lorsqu'un internaute croit qu'il pourra facilement accéder de nouveau à une information déjà tapée dans un document, il la mémorise moins bien que s'il pense qu'elle sera ensuite effacée de son ordinateur(5). En revanche, il se souviendra facilement de l'endroit où le document a été rangé(6). "La mémoire humaine est en train de s'adapter aux nouvelles technologie de communication", explique Betsy Sparrow. "Grâce à la possibilité d'accéder en permanence à d'immenses sources d'informations en ligne, l'homme délègue donc aux machines une partie de sa mémoire".

L'étude a ainsi montré que, lors de l'usage de l'ordinateur, notre mémoire sélectionne certaines informations mieux que d'autres, en fonction de notre capacité à les retrouver.

Ceci finalement (ce n'est que mon avis) peut avoir un effet assez pervers. Lorsqu'on consulte le net, et face à un fait insolite (voire très futile), le cerveau humain peut se dire qu'il aura plus de mal à le retrouver que d'autres informations plus générales et importantes, donc traitées par de nombreux sites. Notre cerveau voudra alors stocker l'information insolite, information souvent d'une importance très relative.

L'étude a aussi mis le doigt sur le fait que face à un moteur de recherche, nous nous souvenons bien plus de la requête émise dans la barre de recherche que de sa réponse.

 

En résumé :
La possibilité de retrouver la réponse à une question sur un ordinateur impacte notre aptitude à s'en souvenir :
- nous avons
davantage de chance de nous rappeler d'une information si l'on pense ne pas être capable de la retrouver ultérieurement,
- nous nous rappelons davantage où est rangé le fichier contenant la réponse à une question que l'information elle-même,
- nous nous rappelons plus facilement de la requête émise dans la barre d'un moteur de recherche pour trouver l'information que du contenu de la réponse.

 

(1) Pour mémoire (sans jeu de mot), rappelons que l'avènement de la calculette et sa démocratisation il y a quelque 35 ans a certainement affecté les compétences en calcul mental de nombre d'entre nous. La calculette est conseillée dans l'enseignement : "La maîtrise de l'usage des calculatrices représente un objectif important pour la formation de l'ensemble des élèves car elle constitue un outil efficace dans le cadre de leurs études et dans la vie professionnelle, économique et sociale. C'est pourquoi leur utilisation est prévue dans de nombreux programmes d'enseignement et leur emploi doit être largement autorisé aux examens et concours" (Bulletin officiel n°6 du 11 février 1999 - Circulaire n°99-018 DU 1-2-1999).
(2) Comme par exemple Étienne Koechlin et Sylvain Charron, du Laboratoire de neurosciences cognitives de l'Inserm, à l'École normale supérieure à Paris. Ils ont montré que le cerveau n'est en mesure de coordonner que deux tâches simultanées : "Divided representation of concurrent goals in the human frontal lobes", paru dans Science, vol 328, 16 avril 2010).
P
our Jean-Philippe Lachaux, neurobiologiste et directeur de recherche à l’Inserm au centre de recherche en neurosciences de Lyon, il y a à craindre que "sur un cerveau en plein développement, trop habitué à des gratifications immédiates, un biais puisse se faire en faveur du système privilégiant le bénéfice à court terme, au détriment d’activités plus exigeantes". C’est ainsi que l'on peut devenir dépendant de son smartphone, avec le besoin de le consulter en permanence, de façon compulsive : "L’attention des enfants doit plus que jamais être éduquée", alerte-t-il, "pour apprendre au cerveau à hiérarchiser ses priorités, et se concentrer sur l’activité la plus pertinente : un texte qu’on est en train de lire par exemple."
On lira avec avantage son ouvrage "Le cerveau attentif, contrôle, maîtrise et lâcher-prise", Editions Odile Jacob, mars 2011.
(3) "Google Effects on Memory: Cognitive Consequences of Having Information at Our Fingertips", par Betsy Sparrow,Jenny Liu etDaniel M. Wegner, Science, volume 333, pages 776 à 776, 5 août 2011. Lire l'article.

(4) C'est ce qu'on appelle aussi "mémoire transactive" : un individu va se rappeler qui consulter parmi ses proches où rechercher une information, plutôt que de faire l'effort de la retenir lui-même.

(5) Lors de l'expérience, les personnes interrogées devaient simplement entrer sur un ordinateur plusieurs phrases énonçant des faits insolites par exemple "L'œil d'une autruche est plus gros que son cerveau". Une moitié des participants croyait que les informations seraient sauvegardées sur l'ordinateur et l'autre que les informations allaient être effacées après avoir été entrées. Dans ce contexte, les sujets étaient significativement plus nombreux à se souvenir du fait insolite qu'ils avaient entré quand ils ne pensaient pas pouvoir le retrouver plus tard sur l'ordinateur. "Les participants n'ont pas fait l'effort de se souvenir quand ils savaient qu'ils pourraient rechercher l'information plus tard", expliquent les auteurs de l'étude.
(6) Un des test devait déterminer si le fait de pouvoir retrouver des informations qui avaient été tapées dans un fichier et sauvées sur l'ordinateur affectait la manière dont les sujets se souvenaient de ces informations. Par exemple, si l'on pose la question de savoir s'il y a des pays avec une seule couleur sur leur drapeau (info que l'on a tapée et rentrée dans un fichier), pense-t-on aux drapeaux ou immédiatement à aller chercher le fichier dans l'ordinateur ?". L
es participants devaient se souvenir ici à la fois de la phrase qu'ils tapaient et dans lequel des 5 dossiers sur l'ordinateur la phrase était enregistrée. La conclusion de ce test est que les participants se souviennent généralement mieux du dossier où l'information est sauvegardée que de l'information elle même.

Repost 0
20 octobre 2011 4 20 /10 /octobre /2011 14:08
Qu'appelons nous l'ancien monde? Convenons de désigner par ce terme la Terre telle que l'avaient connue les milliards d'hommes y ayant vécu depuis le début des temps historiques, la Terre telle que l'avaient analysée les multiples scientifiques, littérateurs et poètes s'étant consacrés à son étude, la Terre avec ses grandeurs et ses drames.
Or tout ceci, ou ce qu'il en reste, est en train de disparaître. Une machine à broyer s'est mise en place, d'une incroyable puissance. Plus rien de l'ancien monde n'y résistera et nul ne peut dire ce qui surgira des ruines.

La machine en question est du type de ce que nous nommons  un système anthropotechnique 1) Elle associe dans des unions de moins en moins séparables une humanité en proie à l'explosion de sa propre ubris et des technologies proliférant à un rythme constamment accéléré.

Les auto-analyses que génère cette machine sont généralement favorables. On parle de progrès continus. Le prix à payer en est lourd, puisque disparaissent une grande partie des espèces ayant survécu jusqu'ici aux précédentes destructions massives. De même disparaissent les derniers espaces géographiques ayant servi de berceau à l'humanité. Mais en contrepartie, selon la doxa dominante, l'intelligence générale, supportée par l'explosion des réseaux de connaissance, ne cesse de s'étendre et de s'approfondir, en marche semblerait-il pour conquérir le système solaire, et au delà.

Certaines de ces auto-analyses pourraient cependant inquiéter. Dans le puissant système anthropotechnique qui s'installe, la technique n'est-elle pas en train de dominer de plus en plus l'anthopologique? Le cerveau humain, notamment, n'est-il pas en train de perdre ses spécificités anciennes pour se mouler de plus en plus étroitement sur les machines avec lesquelles il interagit en permanence?  Autrement dit, il en deviendrait une prolongation dépourvue des capacités d'invention et de critique ayant jusque alors piloté le « progrès technique ». Plus généralement, l'anthropos, en nous, perdrait les freins biologiques acquis au cours de millions d'années d'évolution, freins lui permettant de ne pas se transformer trop radicalement en machine à détruire et à se détruire.

Beaucoup d'observateurs, même issus du système, signalent ce risque à propos de la place prise désormais dans la vie des humains par les terminaux mobiles intelligents multiples, dont le rôle en tant qu'appareils de téléphone devient presque secondaire au regard de l'accès qu'ils ouvrent à d'innombrables bases de donnée set de connaissance évitant aux utilisateurs de penser par eux-mêmes. La plupart de ceux-ci s'en réjouissent, d'autres cependant s'en inquiètent.

Bien moins contestable, bien qu'ignoré généralement jusqu'à ce jour, est le dépérissement intellectuel que semble imposer aux adultes et surtout aux enfants la fréquentation quotidienne de quelques heures de télévision et de vidéo, y compris sur Internet. La vaste étude du neuroscientifique Michel Desmurget, TV Lobotomie : La Vérité scientifique sur les effets de la télévision, Max Milo 2011, ne laisse aucune place au doute. Il ne devrait plus être possible d'ignorer ces faits – sauf que la puissante machine anthropotechnique des industriels et des acteurs du système est tout à fait capable de continuer à faire sur eux un imposant silence.

Un contrôle total

Mais il y a beaucoup plus significatif. Il s'agit de la mise en place de ce que notre ami Alain Cardon décrit dans un ouvrage en cours de finition, dont il nous a confié pour publication un premier manuscrit 2). Il décrit un environnement technologique au service des puissants de ce monde. Dans ce système les milliards d'humains activés à leur insu par le système ne peuvent faire autre chose que se comporter en esclaves dociles, producteurs-esclaves, consommateurs-esclaves, citoyens-esclaves.

Nous commenterons ce travail plus en détail ultérieurement. Laissons les lecteurs en juger par eux-mêmes. Certains reprocheront à l'auteur un pessimisme excessif. Mais la plupart éprouveront, espérons-le, un réveil de la raison: « comment pouvions nous être immergés dans un tel monde sans nous en apercevoir ? ». Nous pensons pour notre part, avec Alain Cardon, que même si l'évolution méta-historique décrite est irrésistible, l'effort pour s'y individualiser d'un nombre aussi grand que possible de ce que l'on appelle encore des citoyennes et citoyens ne pourra qu'avoir un effet utile. Au service de la démocratie comme à celui de la république.

Notes
1) Jean-Paul Baquiast. Le paradoxe du Sapiens J.P. Bayol 2010
2) Alain Cardon. Vers le système de contrôle total. 2011. Ouvrage au format.pdf accessible en téléchargement gratuit. Faire
http://www.admiroutes.asso.fr/larevue/2011/121/controletotal.pdf
Repost 0
5 octobre 2011 3 05 /10 /octobre /2011 08:13


Jean-Paul Baquiast 08/09/2011

 

Poser le problème


La question de l'avenir du cerveau humain est régulièrement posée, que ce soit en termes scientifiques ou philosophiques. En matière d'évolution des organismes biologiques, il est dorénavant admis que deux séries de facteurs causaux interviennent, dans des proportions variables. Il s'agit des facteurs génétiques, qui dans l'ensemble se transmettent d'ascendant à descendants, en laissant intervenir la possibilité de mutations qui sont conservées si elles sont favorables à la survie de la lignée. Il s'agit d'autre part des facteurs liés au milieu (on parlera aussi de culture), qui en principe n'ont pas d'effets sur le génome mais qui influencent le mode de vie des organismes et peuvent par répercussion apporter des facteurs sélectifs ayant une répercussion sur les génomes. L'ensemble définit ce que l'on nomme généralement l'épigénétique.


Concernant l'évolution biologique, des études de paléobiologie de plus en plus précises permettent aujourd'hui de dessiner, à partir des premières espèces multicellulaires, l'évolution globale des systèmes nerveux et de leurs centres coordinateurs, lesquels ont pris la forme de cerveaux de plus en plus complexes. Or on constate, chez les homo sapiens récents, une diminution du poids du cerveau par rapport au reste du corps. On illustre ceci en disant par exemple que l'homo sapiens neandertalensis avait un plus gros cerveau, dans l'absolu et relativement, que l'homo sapiens sapiens. Cette tendance à la réduction se poursuit-elle et qu'en seront les conséquences ?


Concernant l'évolution culturelle, il paraît indéniable, au regard de l'idée que nous nous faisons de l'intelligence produit du cerveau et des formes sociétales par lesquelles celle-ci s'exprime, que les productions culturelles résultant principalement de l'activité des aires corticales du cerveau, n'ont cessé d'augmenter en nombre et en diversité. Le mouvement s'est accéléré récemment, depuis 10.000 ans environ et plus particulièrement depuis les deux derniers siècles. Les humains en ont retiré, au plan de la compétition darwinienne globale avec les autres espèces, des avantages pour le moment décisifs. Ceci leur a permis de tenir en échec, voire aujourd'hui de commencer à éliminer une grande partie des espèces animales supérieures.


En ce qui concerne les performances des cerveaux individuels, sur la très longue période, (50 à 100.000 ans), il paraît vraisemblable, mais non prouvé, qu'en dépit de la tendance à la stabilisation voire à une légère diminution de la taille relative du cerveau, les performances de celui-ci se soient globalement accrues. Ceci pourrait s'expliquer par le fait que dès l'enfance les cerveaux sont plongés dans des environnements très favorables au développement des activités cognitives. Une diminution possible de la compétence des aires corticales associées aux activités sensori-motrices pourrait avoir été compensée par de plus grandes aptitudes au maniement des informations symboliques.


Plus récemment encore, depuis la seconde moitié du XXe siècle, la véritable explosion manifestée par les produits et agents culturels pose la question de savoir s'ils ne vont pas devenir si nombreux et efficaces qu'ils s'autonomiseraient par rapport aux cerveaux biologiques, pouvant éventuellement réduire progressivement le rôle de ces derniers. Aujourd'hui, la robotique évolutionnaire, dotée de formes d'intelligences artificielles de plus en plus performantes, est présentée comme susceptible de compléter voire remplacer l'homo sapiens dans la plupart de ses activités fonctionnelles. Cependant une invention récente, consistant à greffer dans les cerveaux des puces électroniques intelligentes pourrait permettre de "re-augmenter" le cerveau biologique de sorte qu'il reprendrait une importance qu'il aurait perdu ces derniers temps au profit des intelligences artificielles.


Nous allons pour préciser ces interrogations, apporter quelques précisions tirées de l'actualité des sciences. Avant cela, évacuons d'emblée l'objection selon laquelle nous risquons de confondre dans cette approche le cerveau et l'intelligence, celle-ci, qu'elle soit individuelle ou collective, étant la seule qui importe pour l'avenir tant de l'humanité que du cosmos. Nous répondrons qu'il est certes bon d'être intelligent, mais nous n'allons pas ici nous engluer dans une énième définition de l'intelligence sous ses 8 à 10 formes. Bornons à constater que le cerveau est un bon indicateur du niveau d'intelligence. Privez un organisme de son cerveau et il ne lui restera plus guère d'intelligence.


Le passé de l'évolution biologique du cerveau(1)


Tous les organismes, monocellulaires ou pluricellulaires, comportent, contrairement semble-t-il aux composés chimiques, des mécanismes permettant de réaliser des échanges d'information avec rétroaction entre leurs différentes parties. Il s'est agi dès les origines de potentiels électriques et de signaux chimiques Ce sont ces échanges qui distinguent un corps vivant d'un non-vivant. Mais ici nous nous intéressons à l'apparition et au développement d'organes spécialisés dans la transmission et le traitement computationnel de tels messages: ajouter, soustraire, comparer. Ceux-ci ne se trouvent que chez les pluricellulaires ayant acquis un niveau suffisant de complexité. On dira pour simplifier qu'il s'agit des neurones dont les axones peuvent transmettre et échanger des signaux sur de longues distances, les dendrites assurant l'interconnexion électrique et/ou chimique.


Beaucoup d'organismes contemporains, très compétitifs, se satisfont de neurones limités à la transmission de messages simples. C'est le cas des méduses, nos futurs successeurs dans les océans quand nous en auront éliminé poissons et cétacés. Mais dans la plupart des autres organismes sont très vite apparu des groupes de neurones jouant le rôle de centrales de coordination et de traitement. Ceci leur a permis de se doter, à l'interface des entrées sensorielles et les sorties motrices, de modèles représentatifs de l'environnement dans lesquels ces organismes sont immergés et avec lesquels ils interagissent. Ce furent des organismes dits urbilatériens (image) qui les premiers, au vu des fossiles identifiés, présentèrent de tels groupes de neurones autour des yeux et de la bouche. Les urbilatériens remonteraient à la fin de la période dite des édiacarans, vers – 570 millions d'années.


Cependant l'histoire du cerveau aurait pu s'arrêter là si les urbilatériens ou leurs homologues avaient persisté dans la mauvaise habitude, conservée par leurs successeurs, tels l'actuel lancelet ou amphioxus, consistant à se nourrir en filtrant le planton apporté par les courants. Cela en faisait de mauvais nageurs, quand ils ne s'attachaient pas simplement aux rochers. Ils pouvaient donc survivre convenablement avec des cerveaux élémentaires mais tous autres milieux leur étaient interdits.


Heureusement pour nous et nos gros cerveaux, rien ne pouvait dès lors arrêter la diversification génétique. Lorsque, du fait notamment de l'apparition de la reproduction sexuée, les cartes génétiques furent rebattues, une intense compétition pour l'accès aux ressources ou pour éviter les prédateurs opposa les multiples espèces marines en ayant résulté, par exemple lors de l'explosion dite du Cambrien (-545 à - 524 millions d'années environ). Les cerveaux se développèrent en conséquence. Ils se dotèrent de parties de plus en plus spécialisées, que nous retrouvons dans nos propres cerveaux: les aires optiques couplées aux yeux, les ganglions de la base qui contrôlent les mouvements, l'amygdale qui gère les émotions, le système limbique qui contribue à la mémorisation.


Les organismes marins envahirent les terres émergées vers – 400 millions d'années. Ce furent les reptiles, aujourd'hui représentés par les crocodiles, les tortues et les serpents (nous simplifions) qui occupèrent les continents, suivis par les dinosaures. Ces divers animaux, se livrant eux-aussi à une intense compétition, régnèrent avec succès sur la Terre pendant des centaines de millions d'années. Ils développèrent des formes très différentes. Cependant, aucun ne disposèrent de cerveaux très importants et très performants.


Ce ne fut pas chez eux mais chez les premiers mammifères que les précurseurs des cerveaux modernes ont été identifiés. La compétition entre ces mammifères et les espèces alors dominantes a de facto conduit à l'enrichissement des cerveaux tant en poids relatif qu'en zones fonctionnelles. On notera que le premier mammifère placentaire identifié à ce jour est le Juramaia sinensis, découvert récemment en Chine, qui daterait de -155 millions d'années (image: reconstitution). Ceci ferait remonter la date de l'ancêtre commun entre placentaires et marsupiaux à - 60 millions d'années (limite entre le jurassique moyen et inférieur). Il s'agissait d'un animal insectivore arboricole de la taille d'une musaraigne (La Recherche, n° 456, p. 22).


On peut considérer que le développement et la complexification des cerveaux modernes a découlé du succès compétitif de ces premiers placentaires minuscules mais très mobiles. Autant que l'on puisse en juger par de nouvelles techniques d'imagerie non destructrices des crânes fossilisés, ce furent les bulbes olfactifs qui prirent d'abord de l'importance, suivis des régions du néocortex enregistrant notamment les messages venus des poils sensoriels. Il s'agissait donc d'animaux nocturnes circulant dans les niches écologiques laissées libres par les dinosaures. On peut considérer que ce fut dans leur descendance que se précisèrent les modèles de cerveaux dont nous sommes aujourd'hui détenteurs.


Cependant, l'évolution semble une nouvelle fois s'être ralentie à partir de la fin du crétacé, après la disparition des dinosaures. Dans l'immense variété des mammifères terrestres et marins étant apparus alors, la taille relative et les performances des cerveaux n'évoluèrent de nouveau que très lentement. La compétition permanente entre prédateurs et proies, les pressions sélectives en découlant, ne semblèrent pas avoir provoqué comme l'on aurait pu s'y attendre l'explosion de cortex associatifs capables de générer de vastes représentations symboliques. Ce furent plutôt les cortex spécialisés, sensori-moteurs, qui en bénéficièrent. Peut-être fut-ce aussi la rigidité générale des boites craniennes qui freina le développement des cerveaux.


L'importance du cerveau cognitif, caractérisée par un développement relativement plus rapide des zones frontales, n'a repris sa marche ascendante que chez les primates, et encore chez certains d'entre eux seulement. Cette évolution fut bien antérieure à l'hominisation, puisqu'elle a été identifiée chez les ancêtres des grands singes, vivant vers – 15 ou - 14 millions d'années. Certains chercheurs attribuent ce développement à la vie en groupes sociaux importants, dans des environnements forestiers très complexes. Ces deux facteurs conjugués auraient notamment stimulé la croissance des aires associatives.


Là encore cependant, une nouvelle pause a été observée. Chez certains des descendants de ces grands singes (orangs-outangs, gorilles, chimpanzés), partageant ce mode de vie, les cerveaux cessèrent d'évoluer sensiblement. Il en fut pratiquement de même dans les lignées ayant donné naissance aux premiers hominiens, australopithèques notamment. Ces derniers avaient pourtant adopté très largement la bipédie et la vie en savane.


On ne remarque une nouvelle croissance des cerveaux que très récemment, vers 2,5 millions d'années, chez les différents homo erectus et faber. Elle a pris depuis une forme accélérée, que l'on a bien documentée aujourd'hui. Les préhistoriens s'interrogent sur la raison de ce phénomène. Certaines mutations ont sans doute joué un rôle, produisant par exemple le gène FOXP2 dit du langage. Mais plus généralement on considère que le facteur déterminant fut la généralisation de l'usage des outils et du feu, ayant permis une meilleure alimentation et toute une série d'enrichissements socio-culturels. Il s'est dès les origines agi d'une co-évolution ou association symbiotique entre le matériel et le biologique. Nous avons explicité ce thème dans notre essai « Le paradoxe du Sapiens » où nous employons le terme de systèmes anthropotechniques. Inutile d'y revenir ici.


Arrivé à ce stade de l'évolution du cerveau humain, il convient pour rester dans le cadre du présent article, de s'interroger sur l'avenir dudit cerveau, au regard tant de l'évolution génétique qui ne peut que se poursuivre, même si elle est très lente et peu manifeste, et de l'évolution des outils produits par l'activité du cerveau, dont les performances ne cessent d'augmenter.


Internet rend-il idiot ?


Cette question (que certains jugent elle-même idiote) est de plus en plus posée. Par le mot Internet, on désigne en fait l'ensemble des produits et activités numériques, bien connues de nos lecteurs. Il faut y ajouter des agents numériques encore émergents et mal connus: consciences artificielles individuelles et surtout, consciences artificielles en réseau, se co-activant et finissant pas de comporter comme un cerveau collectif. Celui-ci, encore hypothétique, pourrait se trouver doté de capacités infiniment supérieures à celles, individuelles et collectives, des humains. La question ci-dessus, « Internet rend-il idiot? » ne concernerait alors que les utilisateurs humains de l'Internet. Des sociétés, de plus en plus a-humaines, se construisant autour des usages anthropotechniques de l'Internet et des autres outils numériques, seraient à l'opposé d'une redoutable intelligence, pouvant prendre des formes encore jamais apparues sur Terre.


Il est très difficile de juger des conséquences sur les cerveaux humains de l'utilisation des outils interactifs qui prolifèrent de plus en plus. Il est très vraisemblables que des fonctions traditionnelles, intéressant les aires sensorielles et motrices héritées du monde animal, soient en voie de dépérissement, au moins partiel. A quoi bon, dans un monde de plus en plus virtuel, développer les aires sensorielles et motrices permettant d'échapper aux prédateurs ou de capturer des proies. Par contre les capacités d'attention et surtout de traitement des informations symboliques complexes ne peuvent que s'enrichir. Chacun d'entre nous le constate plus ou moins empiriquement dans son propre cas. Etre actif sur Internet, c'est-à-dire ne pas se limiter à la réception mais se comporter en émission-production, mobilise nécessairement les aires associatives correspondantes du cerveau. Certaines études menées actuellement sur le bon effet qu'auraient ces activités au regard de la lutte contre la sénescence pourront sans doute le montrer un peu mieux. La pratique de l'Internet interactif devrait à cet égard être distingué d'un usage passif de la télévision, qui n'aurait pas les mêmes effets stimulants.


On peut alors se demander pourquoi faire un procès particulier à Internet. Celui-ci, chez les jeunes ou chez les adultes, pourrait faciliter certaines addictions, comme le jeu en ligne, mais il n'en serait pas la cause première. Pour perturber un tant soit peu gravement le fonctionnement du cerveau et du corps qui lui est associé, il faut des facteurs beaucoup plus énergiques. Au plan social la même constatation s'impose. Les sociétés sont trop diverses pour que l'on puisse craindre des troubles généraux des modes de pensées. Répétons-le, nous n'en dirions peut-être pas de même de la télévision, dont la consommation passive paraît beaucoup plus importante, avec l'effet déstructurant de programmes publicitaires visant à priver le spectateur de ses capacités critiques.


Quoi qu'il en soit, en termes évolutionnaires, les effets positifs ou négatifs d'une fréquentation intense des réseaux numériques sur le poids relatif et la densité de câblage des cerveaux ne pourront être appréciés que dans plusieurs générations. Rappelons par ailleurs, comme l'enseigne le néo-darwinisme, qu'il faudrait pour que ces effets deviennent perceptibles que des parents internautes transmettent à leurs enfants des modifications dans l'expression des gènes de la cognition. Ces modifications devraient être capables de s'insérer durablement dans les génomes (ce que la théorie de l'ontophylogenèse permet en principe d'envisager).

Mais il faudrait aussi que les descendants porteurs de telles modifications se révèlent mieux adaptés que les autres face aux critères de sélection imposés par les nouvelles conditions d'environnement. Ceci demanderait du temps. Il paraît donc illusoire d'envisager que les jeunes générations des prochaines années ou décennies soient dotés de cerveaux rendus plus « idiots » ou au contraire plus intelligents que ceux des populations restées à l'écart de l'Internet – s'il en reste. Les seuls changements, pouvant être massifs, tiendront aux usages culturels, correspondant au préfixe épi- dans le mot "épigénétique".


Des modules numériques implantés à demeure dans les cerveaux 2


Nous devons signaler cependant une évolution technologique qui pourra entraîner rapidement des modifications en taille ou en performance des cerveaux humains. Elles découleront des « augmentations » (enhancements) diverses apportées aux humains par des greffes plus ou moins durables de modules numériques susceptibles de compléter le potentiel cognitif des aires cérébrales ayant « bénéficié » de telles greffes. Celles-ci sont déjà courantes quand il s'agit d'interfacer avec le cerveau de certains patients des prothèse extérieures destinées à combattre telle ou telle déficience. On connaît ainsi le cas répandu des implants cochléaires dans le traitement de la surdité par paralysie du nerf auditif. Ces implants ont d'ailleurs demandé beaucoup de tâtonnement avant de devenir efficaces.


Tronc cérébralAujourd'hui pourtant les neurologues roboticiens nourriraient des projets beaucoup plus ambitieux. Il s'agira d'implanter dans des aires corticales superficielles ou profondes du cerveau ou dans le tronc cérébral des "puces électroniques intelligentes", susceptibles d'améliorer les performances de la zone choisie (image: tronc cérébral). Il faudra pour cela que les neurones biologiques en place puissent être connectés, voire qu'ils puissent se connecter spontanément, avec les entrées-sorties de ces puces. Celles-ci pourraient alors réaliser des traitements d'information hors de portée des cerveaux hôtes. Les résultats en seraient réinjectés dans ces cerveaux dont les compétences (et peut- être la taille relative globale) devraient s'en trouver augmentées. Les puces pourraient aussi servir d'interfaces avec des ordinateurs externes qui se chargeraient de tâches cognitives hors de leur portée – et hors de la portée, par définition, des cerveaux hôtes.


Une expérience de cette nature a été conduite avec des rats. Une équipe de l'université de Tel Aviv conduite par le Pr Matti Mintz vient de présenter un cervelet artificiel capable de restaurer chez les rongeurs des fonctions cérébrales détruites. L'équivalent pourra sans doute être envisagé pour traiter des patients humains privés de ces fonctions à la suite d'accidents ou du simple vieillissement. Au contraire des implants actuels, cochléaires ou destinés à mouvoir des membres artificiels, qui n'opèrent que dans le sens cerveau-prothèse, les cervelets artificiels réalisés sont bi-directionnels: ils reçoivent des données sensorielles provenant du tronc cérébral, les interprètent et renvoient des ordres adéquats aux différentes régions du tronc cérébral commandant les neurones moteurs concernés. L'inverse est possible.


Il conviendra de suivre l'avenir de telles recherches, dont les conséquences politiques et philosophiques pourraient être considérables.


Références
(1) Voir David Robson, A brief history of the brain
http://www.newscientist.com/article/mg21128311.800-a-brief-history-of-the-brain.html
(2) Voir Linda Geddes "Rat cyborg gets digital cerebellum" :
http://www.newscientist.com/article/mg21128315.700-rat-cyborg-gets-digital-cerebellum.html
(3) Sur les recherches du Pr Matti Mintz,
on consultera le site http://freud.tau.ac.il/~mintz/

Repost 0
27 septembre 2011 2 27 /09 /septembre /2011 20:50

Jean-Paul Baquiast  27/09/2011

 

Nous avons noté, dans un article précédent, repris sur ce blog (A propos de l'expérience OPERA http://www.automatesintelligents.com/labo/2011/opera.html ) le grand nombre de réactions ayant suivi la publication d'un article assez ésotérique par lequel des chercheurs européens annonçaient, (sous couvert de confirmation) une légère différence entre la vitesse de déplacement de particules nommées neutrinos, telle qu'elle aurait été observée par eux lors d'une expérience récente, et celle qu'elle aurait du être dans le cadre des équations de la relativité restreinte. La nouvelle serait en effet d'importance, en termes de physique fondamentale, puisqu'elle pourrait conduire à reformuler ce que de multiples expériences paraissaient avoir confirmé, une structure de l'espace temps interdisant la possibilité de vitesses supérieure à celle de la lumière, c'est-à-dire la vitesse de photons dans le vide.

De plus, dans le grand public, cette annonce a poussé certaines personnes à remettre en cause ce qui était devenu un véritable dogme associé aux travaux ayant rendu Albert Einstein célèbre. Les iconoclastes, ceux pour qui rien n'est plus urgent que renverser les idoles, se sont précipités sur l'occasion, sans chercher à comprendre le fond du problème. Plus généralement, beaucoup ont vu là une opportunité pour relancer des rêves jusque là réservés à la science fiction, c'est-à-dire la possibilité pour des humains ou des machines conçues par eux de voyager dans le temps ou dans un lointain espace.

Ceux qui s'intéressent un peu plus en profondeur à l'évolution des théories scientifiques relatives au temps et à l'espace savent pourtant que, dès la publication des hypothèses d'Einstein, des théories alternatives avaient été proposées. Il en est toujours de même aujourd'hui. Peut-être auraient-elles pu être vérifiées par des expériences appropriées si de telles expériences avaient été tentées. Mais, comme le savent les philosophes des sciences, un paradigme scientifique devenu dominant, tel que celui de l'espace-temps einstenien (nous simplifions les formulations pour rester simple) possède dans les esprits la capacité darwinienne d'éliminer spontanément les contradictions et même les nuances. Plus personne, hors des chercheurs affrontant le risque de se mettre en dehors de la communauté scientifique dominante, ne se hasarde à le remettre à l'épreuve. Aujourd'hui, c'est seulement dans sa confrontation avec un autre paradigme, celui qui fonde la mécanique quantique, que le paradigme relativiste est soumis à critique. Comme l'on sait, l'un et l'autre s'appuient sur des expériences présentées comme incontestables, si bien qu'aucune théorie globale, dite de la gravitation quantique et faisant une synthèse entre les deux, n'a pu encore être établie - surtout si, comme il parait logique, il ne s'agit pas de théories purement mathématiques mais de propositions susceptibles de vérifications expérimentales.

Cependant, soit dans le cadre d'un rapprochement avec la mécanique quantique, où la variable temps n'apparait pas en tant que telle, soit plus généralement en vue d'une meilleure formulation de l'espace-temps einstenien, de nombreuses recherches ou réflexions se développent actuellement. Pour les chercheurs qui s'y impliquent, le buzz fait autour de l'expérience OPERA, quel que soit le résultat des vérifications actuellement en cours, devrait pensons-nous être une excellente occasion de faire connaître l'état de leurs travaux, et proposer de nouvelles expériences permettant de valider leurs hypothèses. Nous n'avons pas ici qualité pour nous substituer à eux. Pourtant il nous paraît indispensable de faire un rapide résumé des perspectives aujourd'hui ouvertes.

Pour simplifier, nous distinguerons les théories proposant un abandon de l'espace-temps einsténien au profit d'un espace plus général, incluant un espace dit des moments, et celles qui proposent des lectures de la relativité restreinte différentes de celles communément admises aujourd'hui, plus proches semble-t-il des conceptions originales d'Einstein. Il est remarquable que certaines de ces dernières théories proposent de rétablir la prise en compte d'un référentiel absolu, généralement désigné par le terme d'éther.

Dans ces divers cas, rappelons-le, il s'agit d'interprétations d'un ensemble d'expériences de moins en moins empiriques, faisant appel à des instruments de plus en plus complexes, aux résultats de plus en plus largement discutés, autrement dit de plus en plus scientifiques, conduites depuis plusieurs siècles par la physique.

On peut toujours critiquer les conditions dans lesquelles sont menées les expériences, mais il ne serait pas scientifique de proposer des théories allant directement à l'encontre d'une expérience reconnue comme recevable par la communauté scientifique du moment. Par contre, il n'est pas interdit d'utiliser ces expériences pour construire des modèles généraux du monde éventuellement différents les uns des autres, ou pour diversifier les interprétations que l'on en donne.

Le processus de l'interprétation est très utilisé en physique quantique, mais il l'est aussi dans le domaine de la relativité, c'est-à-dire en cosmologie. Rappelons par ailleurs que le terme de théorie ne désigne pas une formulation rendue indiscutable par des expériences elles-mêmes indiscutables. Pour élaborer une théorie, on part d'un postulat ou principe non démontrable autour duquel on construit un cadre théorique permettant d'en rendre compte. On propose ensuite des expériences permettant de démontrer la théorie. Si l'expérience est invalidée ce n'est pas forcément le postulat qui est faux, ni même la théorie dans son ensemble, mais certaines de ses formulations ou interprétations. Il est prudent cependant en ce cas de remettre en question la théorie voire dans certains cas le postulat lui-même.

Un espace à 8 dimensions élargissant l'espace-temps einstenien

La plus récente des critiques faites à l'espace-temps einstenien est due à un trio de physiciens déjà connus par leurs prises de positions radicales en matière de paradigmes cosmologiques. Il s'agit de Lee Smolin, Joäo Magueijo et Giovanni Amelino-Camelia. Nous avons précédemment analysé ici deux ouvrages importants des deux premiers, « The trouble with physics » http://www.automatesintelligents.com/biblionet/2007/juil/troublewithphysicshtml.htm et « Faster than the speed of light » http://www.automatesintelligents.com/biblionet/2003/mai/magueijo.html . Renvoyons le lecteur à ces articles. On y verra que les auteurs étudiaient depuis déjà plusieurs années divers cas où la géométrie de l'espace ne peut plus être considérée comme le résultat de lois fondamentales de la nature. Elle évolue en fonction de lois plus profondes. Il en est ainsi du temps et par conséquent de la vitesse.

Aujourd'hui, (voir l'article de Amanda Gefter «  So long space time  » dans le NewScientist http://www.newscientist.com/article/mg21128241.700-beyond-spacetime-welcome-to-du 8 avril 2011phase-space.html ?page=1 ) ces chercheurs proposent de remplacer le concept d'espace-temps (space time) par celui de « phase space  » (espace des phases, espace dans lequel tous les états possibles d'un système sont représentés, chaque état possible correspondant à un point unique dans cet espace. Voir http://en.wikipedia.org/wiki/Phase_space).

Dans leur esprit l'espace où nous évoluons serait un monde à 8 dimensions associant les 4 dimensions de notre espace-temps et les 4 dimensions d'un autre espace, qu'ils ont baptisé espace des moments (momentum space), le moment étant le produit de la masse et de la vitesse d'un objet. L'espace à 8 dimensions comprendrait toutes les valeurs possibles de position, de temps, d'énergie et de moment.

Dans l'espace des moments, le seul que nous percevions immédiatement par nos sens, nous observons seulement des niveaux d'énergie et des moments, généralement concrétisés par des photons dont l'énergie et le moment sont différents, en fonction de leurs sources et des corps qui les ré-emettent en direction de nos sens. A partir de là, nos cerveaux reconstruisent l'espace-temps familier. Nous vivrions ainsi dans un espace défini par l'énergie pour une dimension et les 3 dimensions de moment pour l'autre. Le temps cesserait d'intervenir en tant que dimension propre.

Des transformations mathématiques simples permettraient de convertir les mesures faites dans l'espace des moments en mesures dans notre espace-temps familier. Le physicien Max Born avait remarqué dès 1938 que plusieurs des équations de la mécanique quantique demeurent les mêmes, qu'elles soient exprimées en coordonnées de l'espace-temps ou en coordonnées de l'espace des moments. On a nommé ce phénomène « réciprocité de Born ». En conséquence de celle-ci, si l'espace temps peut être courbé par l'influence de la masse des astres, comme Einstein l'avait montré, l'espace des moments pourrait l'être aussi.

Lee Smolin et ses collègues se sont attachés à donner des exemples de tels effets de courbure, dues à l'influence des moments, c'est-dire, rappelons-le, le produit de la masse des corps et de leurs mouvements. Ils ont utilisé les règles standard pour convertir les mesures dans l'espace des moments en mesures dans l'espace temps. Ils montrent que des observateurs vivant dans un espace des moments courbé ne pourront plus s'accorder avec des mesures faites dans l'espace-temps. Pour eux, même ce dernier devient relatif. Ils nomment cela « localité relative » («  relative locality »). On devait pouvoir en déduire que le concept de vitesse limite dans l'espace-temps einstenien ne devrait plus être utilisable.

On s'interrogera sur l'intérêt de telles hypothèses ainsi que sur la possibilité de tester expérimentalement leur validité. En dehors de considérations relatives au comportement de la matière dans les trous noirs, sujet trop exotique que nous n'évoquerons pas ici, les hypothèses relatives à la courbure de l'espace des moments pourrait expliquer une observation relative aux différences de vitesse entre les photons des rayons cosmiques tels qu'ils nous parviennent à la suite d'explosions de rayons gammas. Le télescope Fermi de la Nasa a montré que les photons de hautes énergies nous parviennent plus tard que les photons de basse énergie provenant du même événement. Bien que ces observations soient encore en discussion, Smolin en a tiré un article malheureusement réservé au seuls spécialistes, justifiant ses hypothèses (Voir Freidel et Smolin, 29 mai 2011, Gamma ray burst delay times probe the geometry of momentum space http://arxiv.org/abs/1103.5626 ).

Le concept d'espace des phases à 8 dimensions dans lequel nous vivrions fournirait pour Smolin le pont nécessaire entre la relativité et la mécanique quantique, c'est-à-dire la théorie de la gravitation quantique qu'il recherche. En relativité, ce qu'un observateur mesure en termes d'espace, un autre le mesure en termes de temps et réciproquement. Dans la gravitation quantique de Smolin, ce qu'un observateur mesure en termes d'espace-temps, un autre le mesure en termes d'espace des moments. Seul l'espace des phases est absolu et constant pour tous les observateurs. Il pourrait donc s'agir là du tissu de la réalité ultime.

Il sera intéressant dans les prochaines semaines d'étudier la façon dont dans ce cadre conceptuel Smolin et ses collègues analyseront l'expérience OPERA. Les neutrinos et leur vitesse, qui font l'objet des observations relatées au Cern, appartiennent peut-on penser à l'espace des moments et donc à l'espace des phases global qu'ils étudient .

Des interprétations originales de la relativité einstenienne

Avant d'abandonner plus ou moins complètement l'espace-temps einstenien, il serait utile d'étudier comment, dans le passé et aujourd'hui encore, la pensée d'Einstein pourrait être interprétée pour nuancer la vision rigide que beaucoup de scientifique et en tous cas le grand public en ont aujourd'hui. Dans cette démarche toute en nuances, nous faisons appel ici à un manuscrit non encore publié communiqué par un correspondant de notre revue Automates Intelligents, le physicien Michel Gondran que nous remercions de sa confiance. On comprend que dans ces conditions, nous nous limitions à quelques aperçus de son travail, susceptibles d'intéresser plus particulièrement le thème abordé dans cet article.

Michel Gondran s'est attaché à étudier en détail, à partir de courriers peu connus, les échanges ayant eu lieu dès le début du 20e siècle entre Einstein et des scientifiques contemporains. Dans le chapitre 10 de son manuscrit il fait ainsi l'historique de la relativité afin de préciser les postulats sur lesquelles elle est basée, en particulier le postulat de l'invariance de la vitesse de la lumière et l'hypothèse de la non existence d'un référentiel privilégié. Il rappelle en particulier que le postulat de l'invariance de la vitesse de la lumière n'est pas nécessaire pour obtenir les équations de la relativité restreinte.

L'auteur fournit des éléments d'information d'un grand intérêt aujourd'hui, lorsque l'on cherche à interpréter les résultats de l'expérience OPERA en affirmant qu'ils mettent peut-être en défaut la relativité d'Einstein. Il montre qu'il existe en fait deux théories de la relativité restreinte, élaborées de manière presque simultanée, quoique indépendantes et différentes l'une de l'autre : la relativité restreinte de Lorentz-Poincaré et la relativité restreinte d'Einstein. Les deux théories vérifient les mêmes équations, mais elles se contredisent dans leur interprétation, tout en ayant chacune sa propre cohérence. Les équations de Lorentz, qui en forment l'ossature, sont devinées par Lorentz et Poincaré pour vérifier l'invariance des équations de Maxwell ; elles sont déduites des postulats de relativité et de l'invariance de la vitesse de la lumière par Einstein. La relativité de Lorentz-Poincaré suppose l’existence d’un référentiel privilégié (éther) où a lieu la contraction de Lorentz, référentiel qui est inutile dans la relativité restreinte d’Einstein.

Le chapitre 10 du manuscrit qui détaille ces questions comporte 9 paragraphes, ayant tous leur importance dans l'examen du thème qui nous occupe ici. Au premier paragraphe l'auteur présente un bref historique de la relativité avant Einstein : relativité de Galilée et Newton et début de la relativité restreinte de Lorentz et Poincaré. Il y rappelle en particulier les postulats de Poincaré et comment celui-ci montre que la transformée de Lorentz permet d'expliquer l'invariance des équations de Maxwell, du lagrangien électromagnétique et de l'action d'une particule libre relativiste.

Le paragraphe 2 expose comment Einstein, en ajoutant aux postulats de Poincaré le postulat de l'invariance de la vitesse de la lumière, en déduit la transformée de Lorentz. L'auteur explicite ensuite les deux postulats implicites qui sont à la base de l'interprétation einstenienne de la relativité restreinte : le postulat de l’identité physique des unités de mesure et le critère de la synchronisation d’horloges relativement immobiles. Il s'agit on le sait d'un des points clefs de l'expérience OPERA : synchroniser grâce au GPS les horloges utilisées pour mesurer le temps de départ et d'arrivé des flux de neutrinos.

Suit au paragraphe 3 le rappel que les postulats de Poincaré sont suffisants pour démontrer l'existence d'une vitesse limite et obtenir la transformée de Lorentz. Mais le plus important à notre avis est le paragraphe 4. Michel Gondran y rappelle que la négation de l'existence d'un éther sans propriétés mécaniques n'a jamais été vérifiée expérimentalement et que, contrairement à la croyance générale, Einstein a soutenu à partir de 1916 et jusqu’à sa mort l'existence d'un tel éther.Le livre reproduit une grande partie de l'article d'Einstein de 1920 « L'éther et la théorie de la relativité » où celui-ci présente un historique de la notion d'éther. Dans cet article peu connu, Einstein explique pourquoi la relativité générale oblige à postuler l'existence d'un éther (« Selon la théorie de la relativité générale un espace sans éther est inconcevable »), mais un éther sans propriétés mécaniques (« la notion de mouvement ne doit pas lui être appliquée »).

Il ne s'agit pas là de considérations n'intéressant que l'histoire de la physique. La question de l'existence d'un référentiel invariant ou privilégié reste posé, non seulement en physique cosmologique mais en physique quantique. Dans le paragraphe 5 sont donc discutées les quatre interprétations possibles de la relativité restreinte liées à l'introduction ou non de cet éther d'un type nouveau et à l’ invariance ou non de la vitesse de la lumière. Les résultats des expériences sur l'intrication EPR-B (Aspect 1982), étudiés en détail dans le chapitre 9 du livre, sont selon Michel Gondran un argument fort en faveur de l'existence d’un tel éther lié à un référentiel privilégié. Bien plus, comme le montre l'auteur dans le paragraphe 6 de ce 10e chapitre du livre, l'interprétation de la relativité restreinte avec un référentiel privilégié peut être généralisée à la relativité générale dans une théorie de la gravité quantique.

Concernant le point qui nous intéresse plus particulièrement ici, la question de la vitesse de la lumière présentée comme une vitesse limite, Michel Gondran cite un théorème et des propos du physicien Jean-Marc Levy-Leblond ;. « Il n'y a plus de raison théorique de faire l'hypothèse que la vitesse limite, appelée constante de structure de l'espace-temps, soit celle de la lumière ». On peut seulement supposer, ajoute Michel Gondran, que la vitesse de la lumière est très proche de la vitesse limite. Le choix de l'égalité est un choix arbitraire que l'on peut faire, mais que l'on peut aussi récuser. Il est équivalent au choix arbitraire de prendre la masse du photon nulle. L'expérience a déjà montré par exemple que la masse du neutrino, qui a été considérée comme nulle pendant des dizaines d’années, ne l'est finalement pas. Si on suppose que la vitesse de la lumière n'est pas la vitesse limite, comme l'a toujours pensé de Broglie, alors la fonction d'onde du photon n'est pas donnée par les équations de Maxwell, mais par les équations de Proca avec une masse m très petite. Levy-Leblond ajoute que c'est un choix peu satisfaisant sur le plan épistémologique :

« Pourtant la démarche heuristique d'Einstein, toute couronnée de succès et justifiée historiquement qu'elle ait pu l'être, n'est guère satisfaisante sur le plan épistémologique. La principale critique que l'on peut lui adresser est d'établir ce que nous avons appelé une "super loi", appelée à régir tous les phénomènes physiques, en définissant leur cadre spatio-temporel commun à partir des propriétés d'un agent physique particulier : comment comprendre, dans une telle perspective, que la relativité einsteinienne, fondée sur l'analyse de la seule propagation de la lumière, ait vocation à s'appliquer aux interactions nucléaires, de nature pourtant essentiellement différente - et y soit effectivement valide ? »(Levy-Leblond 1996)

En conclusion, à la lecture du manuscrit de Michel Gondran, que nous ne commenterons pas davantage ici, il nous semble que deux interprétations de la relativité restreinte mériteraient aujourd'hui d'être explorées à nouveau, notamment au regard des résultats de l'expérience OPERA, si ceux-ci sont confirmés. La première est une interprétation que l'auteur appelle la relativité de de Broglie. C'est une théorie sans éther et où la vitesse de la lumière n'est pas la vitesse limite. La seconde est une interprétation qu'il nomme la relativité de Newton-Lorentz-Poincaré-de Broglie : C'est une théorie avec éther et où la vitesse de la lumière n'est pas la vitesse limite.


Repost 0
24 septembre 2011 6 24 /09 /septembre /2011 16:36


Doit-on considérer comme intangibles les "lois fondamentales" par lesquelles la cosmologie contemporaine pense pouvoir décrire l'univers ?

par Jean-Paul Baquiast et Christophe Jacquemin - 24/09/2011

Doit-on considérer comme intangibles les "lois fondamentales" par lesquelles la cosmologie contemporaine pense pouvoir décrire l'univers ?

 

 Dans divers écrits, nous avons répondu pour notre part par la négative. Aucune loi, sauf par un acte de foi qui ne serait pas scientifique, ne peut être considérée comme intangible. La science expérimentale formule des théories qu'elle s'efforce ensuite de vérifier expérimentalement. Les lois présentées aujourd'hui comme bien établies, sous forme de constantes universelles, seront par définition soumises à reformulation si de nouvelles expériences, menées dans des conditions de scientificité indiscutables, obligent à le faire. Il en est ainsi de la vitesse de la lumière dans le vide [outre Einstein, profitons de cet article pour aussi rendre hommage ici aux travaux d'Henri Poincaré], ou de l'attirance entre les corps dans le vide, relevant depuis Newton de la loi dite de la gravitation. Une dizaine d'autres constantes, qui selon les défenseurs du postulat anthropique fort ont permis par leur réglage fin (fine tuning) l'apparition de la vie et de la conscience, sont dans ce cas.

 

Mais pour le grand public et même pour la majorité des scientifiques, physiciens ou non, redécouvrir la nécessité de cette prudence méthodologique ne va pas de soi.

On le constate par l'écho considérable donné à un article(1) publié le 22 septembre sur le site Arxiv par un groupe de physiciens européens, selon lequel la vitesse d'une particule nommée "neutrino"(2) aurait été mesurée comme légèrement supérieure à la vitesse de la lumière. Cette dernière était jusqu'à présent considérée comme indépassable en vertu de la formule d'Einstein à la base de la théorie de la relativité restreinte : un corps se déplaçant au-delà de la vitesse de la lumière devrait disposer d'une énergie ou d'une masse infinie... ce qui ne serait pas concevable sauf, dit-on, à remettre en cause la quasi totalité de la physique.

 

En effet, à l'annonce de ce résultat de la collaboration OPERA, la communauté et le public a réagi comme si tous les piliers de la science étaient ébranlés à la fois. Outre attendre la confirmation de l'expérience, la sagesse consisterait au contraire à ne pas considérer les lois de la physique comme décrivant une entité existant en soi, le réel, ou l'univers, mais comme une construction de notre savoir susceptible par définition d'évoluer. On retrouve là le postulat de la physique quantique, selon lequel ce que nous disons d'une infra-réalité sous-jacente à toute observation et par définition inconnaissable en soi, dépend des conditions de cette observation.

L'expérience OPERA
(Oscillation Project with Emusion tRacking Apparatus)

L'expérience OPERA : neutrinos arrivant avec 60 nanosecondes d'avance par rapport aux prévisions
D'après les calculs, les neutrinos ont 60 nanosecondes d'avance sur les 2,4 millisecondes
qui devraient leur être nécessaire pour parcourir les 730 km, distance séparant
le CERN du Gran Sasso à la vitese de la lumière.

Le détecteur Opéra (Gran Sasso, Italie)
Le détecteur du Gran Sasso (Italie), qui participe avec le CERN à l'expérimentation
OPERA-CNGS (Cern Neutrinos to Gran Sasso)


Présentation de l'expérience - Film réalisé par le CNRS


Comme nous le rappelons dans un article publié par ailleurs, les résultats de l'observation découlent tout autant des instruments que le chercheur utilise que de ce dernier lui-même. Le travail du cerveau humain, et ses produits, portent de manière inextricable les marques des grilles de qualification introduites par la structure biopsychique de l'homme, comme aussi plus généralement par son comportement, individuel ou social.

 

Si les observations relatives au neutrino ou à sa vitesse montrent que la vitesse de la lumière, c'est-à-dire celle des photons dans le vide, peut être dépassée dans certains conditions, il faudra en tenir compte dans l'élaboration d'un modèle de l'univers plus pertinent. Cela ne voudra pas dire que ce nouveau modèle décrirait à son tour une réalité en soi qu'il faudrait accepter comme un nouvel acte de foi. Dans l'avenir il sera modifié.

Il en est de même en ce moment du calcul de l'attraction gravitationnelle. Diverses expériences récentes conduisent à postuler qu'elle puisse être différente dans certains cantons de l'univers ou pour certaines particules hypothétiques. On parle ainsi de MOND (gravité modifiée, proposée par Milgrom en 1983) et de Whimps (Weakly interacting massive particles ). Ceci ne signifie pas que sur Terre, dans les conditions courantes, la force de gravité pourrait être annulée, et Newton remisé au rayon des antiquités. Les pommes continueront à tomber.

Il faut rappeler ceci à tous ceux qui s'appuient sur l'expérience OPERA pour imaginer la possibilité de voyages dans le temps ou de déplacements à très grande vitesse aux confins de l'espace astronomique. Peut-être qu'un jour la science expérimentale (en dehors des modèles théoriques qui le font déjà), admettra de telles possibilités, peut-être que la technologie construira des machines permettant les réalisations correspondantes, mais l'une et l'autre en sont très loin pour le moment.

Mais à l'opposé de cette prudence, nous refusons pour notre part les arguments d'autorité, s'appuyant sur les constantes dites fondamentales, lorsqu'ils affirment par exemple que notre univers ne pourrait comporter d'autres formes de vie et de conscience que celles observées par les humains sur la Terre.

D'une part, on peut postuler sans risque que ces constantes seront elles-mêmes modifiées dans la suite de futures observations scientifiques. Leur cohérence actuelle s'en accommodera car on fera apparaître alors d'autres cohérences, de niveau supérieur.

 

D'autre part, on doit dès maintenant chercher à concilier l'approche de la physique quantique et de la physique traditionnelle. Les recherches actuelles n'y arrivent pas ou ne sont pas jugées concluantes C'est le cas concernant la théorie des cordes. Mais, en remontant au supposé Big Bang lors duquel aurait émergé du vide quantique un univers matériel doté de façon aléatoire de constantes qui sont ce qu'elles sont, on pourrait très bien montrer à l'avenir que d'autres univers matériels pourraient émerger d'événements analogues en étant dotés de constantes différentes.

Il serait alors intéressant d'imaginer de tels univers et de tester, au moins virtuellement, leur capacité à générer des formes étranges de vie et de conscience.


Notes
(1) "Measurement of the neutrino velocity with the OPERA detector in the CNGS beam" : Télécharger l'article (format pdf).
Ces résultats ont été obtenus dans le cadre du dispositif expérimental OPERA ("Oscillation Project with Emusion tRacking Apparatus").

(2) Neutrino ou "petit neutre" : particule suspectée en 1930 (pour satisfaire la loi de conservation de l’énergie dans les réactions nucléaires - les désintégrations d’atomes - que l’on peut trouver dans les étoiles ou les réacteurs nucléaires) et mise en évidence en 1956. Comme son nom l'indique, cette particule n'a pas de charge électrique. Sa masse était considérée au départ comme nulle. Les chercheurs se sont aperçus plus tard qu'il n'en était rien : les physiciens estiment que sa masse serait inférieure à 1 électronvolt, masse infime, mais masse tout de même..
Il existe trois sortes de neutrinos, chacun appartenant à l’une des trois "familles" des particules élémentaires : cette découverte peut être considérée comme un résultat majeur du LEP, le collisionneur d’électrons et d’antiélectrons du Cern, au début des années 1990.
----
A recommander sur le sujet, l'excellent ouvrage "La lumière des neutrinos", par Michel Cribier , Michel Spiro et Daniel Vignaud, Editions du Seuil (1995)

-------------------------------------------------------------------------------------------


Sources concernant l'expérience OPERA

La meilleure source est le CERN lui-même, y compris ses communiqués de presse http://press.web.cern.ch/public/Welcome-fr.html

Nous avons pu lire au moment où nous commencions à écrire cet article : "L’expérience OPERA, qui observe un faisceau de neutrinos envoyé depuis le CERN à une distance de 730 km, au Laboratoire de l’INFN Gran Sasso, en Italie, présentera de nouveaux résultats à l’occasion d’un séminaire qui se déroulera au CERN aujourd'hui.
Le résultat d’OPERA se fonde sur l'observation de plus de 15 000 événements neutrino mesurés au Gran Sasso et semble indiquer que les neutrinos se déplacent à une vitesse 20 x 10-6 supérieure à celle de la lumière, la vitesse cosmique limite. Compte tenu de l’importance d’un tel résultat, des mesures indépendantes sont nécessaires avant qu’il puisse être infirmé ou confirmé. C’est pourquoi la collaboration OPERA a décidé de le soumettre à un examen critique public.

Ce sera donc un sujet dont nous reparlerons.

Ci dessous, la vidéo (en anglais) du séminaire
du CERN donné le 23 septembre à 16h
 

 


On peut lire (en anglais) les excellents articles de Lisa Grossman, ainsi que les commentaires qui les accompagnent ( journal NewScientist) :
http://www.newscientist.com/article/dn20957-dimensionhop-may-allow-neutrinos-to-cheat-light-speed.html

ainsi que http://www.newscientist.com/article/dn20961-fasterthanlight-neutrino-claim-bolstered.html

Sur le neutrino, particule plus qu'élusive, le recours dans un premier temps à l'inévitable Wikipedia s'impose http://fr.wikipedia.org/wiki/Neutrino.
On pourra lire aussi avec intérêt l'excellent ouvrage "La lumière des neutrinos", de Michel Cribier, Michel Spiro et Daniel Vignaud, Editions du Seuil (1995)

Rappelons enfin que les hypothèses relatives à la "relativité" de la vitesse de la lumière calculée par Einstein ont toujours été nombreuses. Nous citerons ce que vient d'en écrire Luis Gonzalez Mestre, physicien franco-espagnol, rejeté par beaucoup de ses pairs compte tenu de ses positions jugées "gauchistes". Rejet qui nous paraît pour le moins léger:
"L'idée avancée dans mes travaux est la suivante : la matière que nous connaissons, et sous la forme où nos appareils la perçoivent actuellement, n'est pas forcément la forme ultime de la matière. La vitesse de la lumière pourrait très bien être, tout compte fait, la vitesse critique des excitations d'une phase de la matière, de la même façon que la vitesse du son est la vitesse critique des phonons (ondes du son) dans un solide. Dans ce cas, de même qu'un quantum de lumière peut traverser un solide transparent, des particules plus fondamentales et avec une vitesse critique très supérieure à celle de la lumière pourraient traverser notre univers. Un très faible mélange avec ce nouveau secteur de la matière suffirait pour modifier légèrement la vitesse critique d'un neutrino dans le vide."  

Repost 0
24 septembre 2011 6 24 /09 /septembre /2011 12:05


Doit-on considérer comme intangibles les « lois fondamentales » par lesquelles la cosmologie contemporaine pense pouvoir décrire l'univers?

Jean-Paul Baquiast 24/09/2011

Le détecteur du Gran Sasso (Italie), qui participe avec le CERN à l'expérimentation OPERA- CNGS (Cern Neutrinos to Gran Sasso)

Nous avons pour notre part, dans divers écrits, répondu par la négative. Aucune loi, sauf par un acte de foi qui ne serait pas scientifique, ne peut être considérée comme intangible. La science expérimentale, par définition, formule des postulats qu'elle s'efforce ensuite de vérifier expérimentalement. Les lois présentées aujourd'hui comme bien établies, sous forme de constantes universelles, seront par définition soumises à reformulation si de nouvelles expériences, menées dans des conditions de scientificité indiscutables, obligent à le faire. Il en est ainsi de la vitesse de la lumière dans le vide, définie depuis Einstein par la formule e=mc2, ou de l'attirance entre les corps dans le vide, relevant depuis Newton de la loi dite de la gravitation. Une dizaine d'autres constantes, qui selon les défenseurs du postulat anthropique fort ont permis par leur réglage fin (fine tuning) l'apparition de la vie et de la conscience, sont dans ce cas.

Mais pour le grand public et même pour la majorité des scientifiques, physiciens ou non, redécouvrir la nécessité de cette prudence méthodologique ne va pas de soi. On le constate par l'écho considérable donné à un article publié le 22 septembre sur le site Arxiv par un groupe de physiciens européens (http://arxiv.org/abs/1109.4897) , selon lequel la vitesse d'une particule nommée le neutrino aurait été mesurée, dans le cadre bien précis d'un dispositif expérimental dit OPERA (Oscillation Project with Emusion tRacking Apparatus) comme légèrement supérieure à la vitesse de la lumière. Celle-ci était jusqu'à présent considérée comme indépassable en vertu de la formule d'Einstein à la base de la théorie de la Relativité: un corps se déplaçant au delà de la vitesse de la lumière devrait disposer d'une énergie ou d'une masse infinie...ce qui ne serait pas concevable sauf dit-on à remettre en cause la quasi totalité de la physique.

Le public, au reçu de cette annonce de la collaboration OPERA, a réagi comme si en effet tous les piliers de la science étaient ébranlés à la fois. La sagesse consisterait au contraire, outre attendre la confirmation de l'expérience, à ne pas considérer les lois de la physique comme décrivant une entité existant en soi, le réel, ou l'univers, mais comme une construction de notre savoir susceptible par définition d'évoluer. On retrouve là le postulat de la physique quantique, selon lequel ce que nous disons d'une infra-réalité sous-jacente à toute observation et par définition inconnaissable en soi, dépend des conditions de cette observation.

Comme nous le rappelons dans un article publié par ailleurs, les résultats de l'observation découlent tout autant des instruments que le chercheur utilise que de ce dernier lui-même. Le travail du cerveau humain, et ses produits, portent de manière inextricable les marques des grilles de qualification introduites par la structure biopsychique de l'homme, comme aussi plus généralement par son comportement, individuel ou social.

Si les observations relative au neutrino ou à sa vitesse montrent que la vitesse de la lumière, c'est-à-dire celle des photons dans le vide, peut être dépassée dans certains conditions, il faudra en tenir compte dans l'élaboration d'un modèle de l'univers plus pertinent. Cela ne voudra pas dire que ce nouveau modèle décrirait à son tour une réalité en soi qu'il faudrait accepter comme un nouvel acte de foi. Dans l'avenir il sera modifié.

Il en est de même en ce moment du calcul de l'attraction gravitationnelle. Diverses expériences récentes conduisent à postuler qu'elle puisse être différente dans certains cantons de l'univers ou pour certaines particules hypothétiques. On parle ainsi de MOND (gravité modifiée, proposée par Milgrom en 1983) et de Whimps (Weakly interacting massive particles ). Ceci ne signifie pas que sur Terre, dans les conditions courantes, la force de gravité pourrait être annulée, et Newton remisé au rayon des antiquités. Les pommes continueront à tomber.

Il faut rappeler ceci à tous ceux qui s'appuient sur l'expérience OPERA pour imaginer la possibilité de voyages dans le temps ou de déplacements à très grande vitesse aux confins de l'espace astronomique. Peut-être qu'un jour la science expérimentale (en dehors des modèles théoriques qui le font déjà), admettra de telles possibilités, peut-être que la technologie construira des machines permettant les réalisations correspondantes, mais l'une et l'autre en sont très loin pour le moment.

Mais à l'opposé de cette prudence, nous refusons pour notre part les arguments d'autorité, s'appuyant sur les constantes dites fondamentales, lorsqu'ils affirment par exemple que notre univers ne pourrait comporter d'autres formes de vie et de conscience que celles observées par les humains sur la Terre.

D'une part en effet on peut sans risque postuler que ces constantes seront elles-mêmes modifiées dans la suite de futures observations scientifiques. Leur cohérence actuelle s'en accommodera car on fera apparaître alors d'autres cohérences, de niveau supérieur.

D'autre part, on doit dès maintenant chercher à concilier l'approche de la physique quantique et de la physique traditionnelle. Les recherches actuelles n'y arrivent pas ou ne sont pas jugées concluantes C'est le cas concernant la théorie des cordes. Mais on pourrait très bien montrer à l'avenir, en remontant au supposé Big Bang lors duquel aurait émergé du vide quantique un univers matériel doté de façon aléatoire de constantes qui sont ce qu'elles sont, que d'autres univers matériels pourraient émerger d'évènements analogues en étant dotés de constantes différentes.

Il serait alors intéressant d'imaginer de tels univers et de tester, au moins virtuellement, leur capacité à générer des formes étranges de vie et de conscience.

Sources concernant l'expérience OPERA

* La meilleure source est le CERN lui-même, y compris ses communiqués de presse http://press.web.cern.ch/public/Welcome-fr.html
Nous y lisons au moment où nous écrivons cet article (23/09/2011) « L’expérience OPERA, qui observe un faisceau de neutrinos envoyé depuis le CERN à une distance de 730 km, au Laboratoire de l’INFN Gran Sasso, en Italie, présentera de nouveaux résultats à l’occasion d’un séminaire qui se déroulera au CERN aujourd'hui.
Le résultat d’OPERA se fonde sur l'observation de plus de 15 000 événements neutrino mesurés au Gran Sasso et semble indiquer que les neutrinos se déplacent à une vitesse 20 x 10-6 supérieure à celle de la lumière, la vitesse cosmique limite. Compte tenu de l’importance d’un tel résultat, des mesures indépendantes sont nécessaires avant qu’il puisse être infirmé ou confirmé. C’est pourquoi la collaboration OPERA a décidé de le soumettre à un examen critique public.

Ce sera donc un sujet dont nous devrons reparler.

* On peut lire, en anglais, le site du journal NewScientist, par exemple les bons articles de Lisa Grossman, ainsi que les commentaires qui les accompagnent: http://www.newscientist.com/article/dn20957-dimensionhop-may-allow-neutrinos-to-cheat-light-speed.html ainsi que http://www.newscientist.com/article/dn20961-fasterthanlight-neutrino-claim-bolstered.html

* Sur le neutrino, particule plus qu'élusive, le recours dans un premier temps à l'inévitable Wikipedia s'impose http://fr.wikipedia.org/wiki/Neutrino

* Rappelons enfin que les hypothèses relatives à la « relativité » de la vitesse de la lumière calculée par Einstein ont toujours été nombreuses. Nous citerons ce que vient d'en écrire un physicien franco- espagnol rejeté par beaucoup de ses pairs compte tenu de ses positions jugées « gauchistes », Luis Gonzalez Mestre, ce qui nous parait pour le moins léger:
" L'idée avancée dans mes travaux est la suivante : la matière que nous connaissons, et sous la forme où nos appareils la perçoivent actuellement, n'est pas forcément la forme ultime de la matière. La vitesse de la lumière pourrait très bien être, tout compte fait, la vitesse critique des excitations d'une phase de la matière, de la même façon que la vitesse du son est la vitesse critique des phonons (ondes du son) dans un solide. Dans ce cas, de même qu'un quantum de lumière peut traverser un solide transparent, des particules plus fondamentales et avec une vitesse critique très supérieure à celle de la lumière pourraient traverser notre univers. Un très faible mélange avec ce nouveau secteur de la matière suffirait pour modifier légèrement la vitesse critique d'un neutrino dans le vide."  

Repost 0
17 septembre 2011 6 17 /09 /septembre /2011 10:45

 

Le Cosmos et le Lotus,
par Trinh Xuan Thuan,

Albin Michel 2011

présentation et commentaire par Jean-Paul Baquiast 15/09/2011

 

 

Pour en savoir plus sur l'auteur
Trinh Xuan Thuan. Site personnel (français) http://www.trinhxuanthuan.com/indexfr.htm

 

 

 

 

 


 

Dans son dernier livre, Le Cosmos et le Lotus, le cosmologiste américain francophone Trinh Xuan Thuan (photo) aborde la question de ses convictions spiritualistes et des concordances qu'il peut trouver entre les découvertes de la science et ce qu'enseigne le bouddhisme. Il y explique qu'étant de tradition confucianiste, il estime que cette philosophie exprime mieux que toute autre sa vision du monde.


Trinh Xuan Thuan est souvent mobilisé par les adversaires du matérialisme scientifique quant ils défendent la thèse spiritualiste dite dualiste selon laquelle l'esprit (ou l'âme) ne peut être analysé par la science. L'esprit et la matière constituent pour les dualistes deux « réalités » d'ordre différent, nécessitant des approches elles-mêmes différentes. Pour les matérialistes au contraire, s'inscrivant dans la philosophie moniste, la science peut au contraire expliquer l'apparition de l'esprit et de la conscience à partir d'analyses portant sur l'évolution spontanée du monde matériel. Le recours à une explication faisant appel à un ordre divin détourne la science de la nécessité d'approfondir les questions un peu complexes où intervient ce que l'on nomme généralement la spiritualité.


J'ai moi-même amplement illustré et défendu le postulat matérialiste dans un ouvrage de 2007, « Pour un principe matérialiste fort ». J'ai eu plusieurs fois eu l'occasion d'en débattre avec des spiritualistes, sans être le moins du monde convaincu par leurs arguments. Je souhaitais néanmoins mieux connaître l'approche métaphysique de Trinh Xuan Thuan, que je soupçonnais d'être beaucoup plus modéré que ne le présentaient des idéologues tels que Jean Staune1)  La parution du Cosmos et du Lotus en donne l'occasion.


Le livre n'est en rien un traité de philosophie des sciences ou de métaphysique. Il s'agit d'un ouvrage facile à lire par lequel Trinh Xuan Thuan rappelle d'abord les grandes étapes de sa formation, à Hanoï et Saïgon d'abord, en France puis dans les universités américaines au sein desquelles il a acquis des titres universitaires que beaucoup lui envient. L'ouvrage présente par ailleurs une résumé succinct de l'histoire de la cosmologie observationnelle (celle qui utilise les grands instruments au sol et satellitaires) et de l'état actuel de ses connaissances. L'auteur mentionne aussi en quelques paragraphes ses propres recherches, nécessairement plus spécialisées, portant notamment sur les galaxies naines. Le lecteur connaissant déjà cet auteur a pu apprécier, dans ses ouvrages de vulgarisation, la clarté avec laquelle il sait présenter les questions les plus complexes. Au delà des aspects techniques, il fait aussi partager son amour de la science fondamentale et un émerveillement jamais lassé devant ce qu'il appelle les merveilles de l'univers.


La pensée bouddhiste


Un tiers de l'ouvrage cependant aborde la métaphysique. L'émerveillement de Trinh Xuan Thuan prend chez lui une forme quasi mystique. Elle lui donne l'occasion de préciser le titre du livre, c'est-à-dire ce que signifie pour lui le terme de Lotus, qu'il associe à celui de Cosmos. Son but n'est pas, comme il l'écrit (p 200), en voulant confronter les approches scientifique et bouddhiste du réel (nous reviendrons sur ce terme de réel), de donner à la science une tournure mystique ni de justifier les enseignements du bouddhisme par des découvertes scientifiques. Il est de signaler leurs convergences dans ce qu'il nomme des approches différentes de la Vérité.

Il souligne que ce faisant le bouddhisme comme la science se veut empirique. Il ne s'agit pas pour le bouddhisme de s'inspirer comme le font les religions monothéistes de Livres prétendus révélés en dehors desquels la science n'aurait rien à dire. Il s'agit seulement de procéder à un Eveil du savoir et de la conscience, par l'intermédiaire non seulement de la contemplation du monde mais de pratiques telles que la méditation. Cet empirisme, on le voit, dépasse cependant considérablement ce que les scientifiques désignent par ce terme, c'est-à-dire le recours à la méthode hypothético-déductive et la vérification expérimentale.


Pour la science expérimentale, classiquement définie, seul le savoir objectif, soigneusement détaché de la façon dont les individus l'interprètent, peut avoir un sens. Pour le bouddhisme au contraire l'expérience subjective et immatérielle est première. Ceci veut dire qu'il peut y avoir autant de visions du monde qu'il y a de sujets pensant et méditant. On constate néanmoins une similitude dans les perceptions bouddhistes du monde. Elles donnent naissance à des concepts philosophiques connus depuis longtemps par les spécialistes des religions. Plus récemment – nous allons y revenir - les épistémologies ont pu les retrouver derrière les grandes théories scientifiques modernes, la relativité et la mécanique quantique.


Cette dernière convergence a été soulignée dès le milieu du 20e siècle. La mécanique quantique, plus particulièrement, a tout de suite donné lieu à des interprétations mystiques du monde qui ont contribué à la faire connaître auprès du grand public, tout en la décrédibilisant au regard des physiciens traditionnels. Aujourd'hui, ces interprétations sont considérées comme ne relevant plus de la mystique, mais de la connaissance scientifique.


Que sont donc les concepts fondamentaux du bouddhisme, entretenant au moins en apparence une parenté avec ceux de la mécanique quantique? Il s'agit, selon Trinh Xuan Thuan, de l'interdépendance, la vacuité et l'impermanence. On peut constater, ce qui n'a rien de surprenant, que ces concepts ou postulats se rapprochent de ceux généralement attribués à la pensée chinoise, en opposition à ceux de la pensée occidentale dite aristotélicienne  2)

L'interdépendance signifie que toute entité ne peut exister de façon autonome ni être sa propre cause. Il faut donc aller au delà du regard ordinaire qui nous oblige à n'identifier que des choses distinctes. Celles-ci ne représentent qu'une « vérité relative » ou « conventionnelle » devant être dépassée dans la perception d'une « vérité ultime ». L'interdépendance est indispensable à la manifestation des « phénomènes » qui sont essentiellement des flux de relations. Ceci ne veut pas dire que les faits distincts n'existent pas, puisque nous les percevons et pouvons les étudier par la science. Le bouddhisme propose de définir une voie médiane ou Voie du Milieu selon laquelle un phénomène tout en ne possédant pas d'existence autonome puisse paraître sensible aux lois de la causalité. Trinh Xuan Thuan n'a pas de mal à montrer par de nombreux exemples que cette notion d'interdépendance des "faits" et phénomènes est désormais reconnue par l'ensemble des sciences, notamment la biologie et les sciences humaines, et pas seulement par la mécanique quantique. Ainsi l'étude de l'homme ne peut plus être conduite, au plan fondamental, indépendamment de celle des autres phénomènes.

Le deuxième concept fondamental du bouddhisme est la vacuité. Ce terme souvent mal compris dérive de l'interdépendance. Il signifie l'absence d'existence propre. Il n'y a pas de réalité autonome ou objective, mais des réalités relatives découlant de l'interaction entre l'observateur et l'objet observé. Ceci rejoint à nouveau le postulat fondamental de la mécanique quantique, décrit par Bohr sous le nom de principe de complémentarité. L'observation modifie la réalité du monde subatomique et en crée une nouvelle. Ceci peut être étendu au monde atomique ou macroscopique.

Notons que, dans un autre passage de son livre, d'une façon apparemment contradictoire, Trinh Xuan Thuan s'affirme réaliste, c'est-à-dire croyant en l'existence d'un Réel indépendant de l'homme et de ses observations. Mais on peut penser par là qu'il veut seulement s'opposer au constructivisme relativiste à la mode en France dans les années 1970, non chez les sciences dures mais dans les sciences humaines. Il s'agit d'une conception abandonnée depuis qui, poussée ad absurdum, conduirait au solipsiste: selon elle, il n'existerait pas de Réel en dehors de l'esprit de celui qui en parle. La mécanique quantique ne va pas si loin. Tout en refusant le réalisme des essences, elle postule cependant l'existence d'une réalité sous-jacente aux observations, indéterminée tant du moins qu'elle n'est pas observée. L'observateur n'en fait apparaître qu'un seul aspect, sous une forme d'ailleurs statistique, laissant non déterminé le reste du monde quantique.

De ces deux concepts du bouddhisme découle celui d'impermanence. En dépit de ce qu'enseignent les observations sommaires, tout se transforme et évolue, sans retour en arrière. La cosmologie comme la physique fondamentale, celle des hautes énergies, confirment mieux encore que les autres sciences cette intuition du bouddhisme. Nous reviendrons ci-après sur ce que le matérialisme scientifique pourrait déduire de cette convergence entre une vision bouddhiste de l'univers et les postulats des sciences modernes. Rappelons seulement ici que certains penseurs de la Grèce antique avaient eu les mêmes intuitions, sans pour autant pouvoir les transformer en une métaphysique de l'ampleur de celle inspirant depuis plusieurs millénaires la pensée asiatique dans son ensemble.

Dans la suite de sa présentation, Trinh Xuan Thuan indique que, tout en partageant très largement les postulats du bouddhisme, il se sépare de ce dernier sur un point important, celui des origines de l'univers. Le bouddhisme selon lui ne postule rien en ce domaine. Or en tant que cosmologiste, il croît pouvoir affirmer qu'avec le Big Bang l'univers a eu un commencement. De plus, il pense que le réglage fin des paramètres (fine tuning) découlant des lois et constantes fondamentales, sans lequel ni la vie ni l'homme n'auraient pu exister, constitue la preuve que l'univers serait « parfaitement réglé pour permettre l'apparition d'un observateur intelligent, capable d'apprécier son organisation et son harmonie » (p. 222).

Il s'agit là du principe anthropique dans sa version dite forte, selon laquelle l'univers tend vers une certaine forme de conscience. La conscience serait ainsi le résultat de lois physiques et biologiquesdéfinies dès le début de façon extrêmement précise.(p. 233). Trinh Xuan Thuan rejette l'hypothèse des univers multiples que rien aujourd'hui ne permet selon lui de vérifier expérimentalement et qui ne peut donc devenir un objet de science. Mais curieusement, il n'hésite pas à postuler l'existence d'un principe créateur à l'oeuvre dans l'ensemble du cosmos, hypothèse pourtant elle aussi invérifiable.

Ce principe ne signifie pas nécessairement pour lui l'existence d'un ou de plusieurs dieux tels que les imaginent les religions.Il exclut cependant les explications matérialistes, telles le darwinisme, selon lesquelles seuls le hasard et la nécessité pourrait expliquer l'ordre du monde, et notre présence en tant qu'observateur. Tout autant que l'explication par l'évolution darwinienne, Trinh Xuan Thuan rejette la thèse de l' « homme neuronal » développée par Jean-Pierre Changeux et les neuroscientifiques matérialistes de son école, Stanislas Dehaene et Lionel Naccache. 3). Il confirme ce faisant son rejet du déterminisme et du réductionnisme par lesquels selon lui se caractérise la science matérialiste. Il affirme au contraire sa foi dans le libre arbitre et les valeurs morales généralement associées à la spiritualité.

Commentaires

On voit bien là pourquoi Trinh Xuan Thuan est recruté par les spiritualistes qui en font l'adversaire idéal des scientifiques matérialistes niant les croyances dualistes telles que répandues par les religions, notamment les religions monothéistes. Nous ne prétendons pas ici être en droit de condamner de quelque façon les croyances métaphysiques qui sont les siennes. Nous pensons par contre tout à fait légitime de réagir contre le simplisme du regard qu'il porte sur la science matérialiste. D'une part celle-ci, comme le matérialisme en général, n'est pas fermée à la spiritualité. La vie de l'esprit et ses valeurs ne sont pas niées, même si la science n'est pas toujours capable d'en fournir des interprétations scientifiques, par exemple de type évolutionniste.


D'autre part, les questions non susceptibles, en l'état actuel des connaissances, de recevoir une réponse ne sont pas évacuées par la science, au contraire. Elles donnent l'occasion d'approfondir les recherches, quitte à remettre profondément en cause les théories apparemment le plus solides. Il en est ainsi des constantes et lois fondamentales de l'univers. Pourquoi sont-elles ce qu'elles sont et non différentes? Si, comme Trinh Xuan Thuan, on considère qu'elles sont là pour préparer l'avènement d'une intelligence cosmique supérieure, on se refuse à toute remise en causeou approfondissement et de ces lois et des paradigmes les sous-tendant. Le lecteur attendrait de Trinh Xuan Thuan une réaction bien moins naïve que celle qu'il affiche à ce propos.


Nous avons discuté amplement de ces questions dans « Pour un principe matérialiste fort ». Inutile d'y revenir ici. Par contre, il nous paraît tout à fait pertinent de nous interroger sur la relative convergence, soulignée non seulement par Trinh Xuan Thuan mais par de nombreux scientifiques, entre les intuitions du bouddhisme, relatives notamment à la non-séparabilité des phénomènes, et aux interprétations de la logique quantique, relatives à cette même non-séparabilité et plus généralement à des concepts tels que les probabilités quantiques, l'interférence quantique (expérience de Young dite des deux fentes), la superposition d'état, la non-localité et l'intrication quantique...Dans un article publié par ailleurs  « Comment les cerveaux se représentent-ils le monde " 4) nous faisons allusion à un mouvement de recherche très actuel, nommé la « quantum interaction » qui explore les domaines où le cerveau utiliserait, de préférence à la logique classique ou à la logique mathématique, des processus propres à la logique quantique.

Il semblerait que ceux-ci aient précédé, dans les cerveaux humains mais sans doute aussi dans les cerveaux animaux, les formes de raisonnement plus évoluées liées à l'apparition du calcul et du langage. Il s'agirait en fait de précurseurs à la pensée aristotélicienne venue plus tard. Ils conserveraient aujourd'hui encore un caractère indispensable. Il apparaît ainsi que les cerveaux utilisent ces processus cognitifs de préférence aux outils de la logique formelle quand il s'agit de comprendre des phénomènes complexes, mal connus ou nouveaux. Chacun d'entre nous peut procéder à cette observation ses propres façons empiriques de se représenter le monde, notamment dans le domaine de la création artistique laissant une place importante à l'imaginaire. Nous faisons ainsi constamment, tels M. Jourdain, de la logique quantique sans le savoir.

Il ne serait donc pas surprenant que la pensée asiatique, et plus particulièrement le bouddhisme, ait conservé de préférences à des outils analytiques plus récents, plus rigoureux mais réducteurs, des modes de représentation du monde s'inspirant de cette logique primitive à large spectre d'utilisation. Les scientifiques rationalistes ont donc tout intérêt à s'en inspirer en amont ou en aval des modélisations à base de mathématique et de programmes informatiques digitaux. Sous cet angle, le bouddhisme ne serait pas incompatible avec la pensée scientifique, à condition de ne pas en faire une porte ouverte vers un mysticisme n'ayant plus rien de scientifique, si du moins il est appliqué à la science. C'est de cette façon que procèdent encore beaucoup de chercheurs chinois et japonais, qui pratiquent alternativement, selon les besoins, les deux formes de pensée.

Peut-on aller plus loin dans la réflexion sur l'origine des processus cognitifs s'inspirant de la logique bouddhiste, que l'on retrouve dans la logique quantique? . Dans le même article précédemment cité, nous évoquons un point encore très controversé mais qui fera peut-être prochainement l'objet de confirmations expérimentales. Il s'agirait de l'influence que pourraient avoir des entités quantiques, communément nommées bits quantiques dans le fonctionnement des neurones. Le cerveau en ce cas pourrait se comporter comme un véritable ordinateur quantique, doté de capacités de calcul infiniment plus vastes que celles des machines de Turing.

Ces perspectives pourraient peut-être intéresser Trinh Xuan Thuan, quitte à lui faire abandonner sa croyance en un univers programmé par une puissance supérieure pour l'apparition de la conscience. Il s'agirait seulement d'un univers organisé comme un ordinateur quantique. Les états de conscience et les formes d'intelligence en résultant y auraient une origine naturelle, puisqu'ils découleraient de l'évolution spontanée des calculs quantiques se déroulant à grande ou petite échelle dans un tel univers.


Notes
1) Voir par exemple
http://www.automatesintelligents.com/manif/2008/debatbaquiaststaune.html
http://www.automatesintelligents.com/echanges/2007/juin/staune.html
2) Voir « Les transformations silencieuses » de François Jullien http://www.automatesintelligents.com/biblionet/2011/jan/jullien.html
3) Voir notamment « Du vrai, du beau et du bien » de Jean-Pierre Changeux http://www.automatesintelligents.com/biblionet/2008/dec/changeux.html
4) Voir http://www.admiroutes.asso.fr/larevue/2011/121/mcr.htm


Repost 0
13 septembre 2011 2 13 /09 /septembre /2011 17:08

Jean-Paul Baquiast 11/09/2011


La question est ambitieuse. Y répondre sérieusement obligerait à une revue de l'ensemble des sciences cognitives, et de bien d'autres encore. Nous allons nous borner ici à l'évoquer à propos de trois évènements éditoriaux qui obligent, d'une façon ou d'une autre, à la poser en termes quelque peu originaux par rapport aux réponses que lui donne la littérature philosophique courante. Nous présenterons d'abord rapidement ces évènements, et les ferons suivre de quelques commentaires pouvant intéresser la question évoquée dans le titre du présent article.

Trois évènements éditoriaux

L'initiative MCR étendue

Nous faisons ici allusion au lancement dans les prochaines semaines d'une initiative 1) visant à vulgariser la méthode dite de conceptualisation relativisée (MCR) proposée par la physicienne Mioara Mugur-Schächter à propos de la représentation des entités du monde quantique ou microscopique.

Nos lecteurs connaissent cette méthode, exposée dans plusieurs ouvrages qui retiennent de plus en plus l'attention des épistémologues ou philosophes de la connaissance. Nous avons nous-mêmes recommandé qu'elle soit étendue aux sciences du macroscopique, c'est-à-dire aux sciences s'intéressant aux entités du monde matériel, sciences physiques, sciences biologiques, sciences humaines. Elle postule en effet qu'il n'est pas souhaitable de considérer, comme le font la plupart des chercheurs dans ces différentes sciences, qu'il existe des entités du monde réel existant en soi, que l'on pourrait décrire de l'extérieur et objectivement, c'est-à-dire sans tenir compte de l'observateur.

Il est beaucoup plus fécond au contraire de postuler, comme on le fait en physique quantique, que les descriptions que l'on donne de ces entités (par exemple une table, un gène, un fait social, une opinion) sont relatives aux conditions dans lesquelles on les observe et on les utilise. Ces conditions concernent les instruments que le chercheur utilise mais aussi ce dernier lui-même, dont le cerveau et plus généralement le comportement, individuel ou social, sont déterminés par des situations éminemment différentes, dans le temps et dans l'espace. Dans la vie courante, on peut s'entendre par commodité sur une représentation de telles entités faisant appel à des approches probabilistes (ou statistiques) , mais il ne faudrait pas prétendre, sauf à paralyser toute recherche ultérieure, que l'on atteindrait ainsi à une « essence en soi » de l'entité, essence dont l'affirmation a priori ne pourrait que relever d'un acte de foi non scientifique. Nous envisageons de nommer cette méthodologie « MCR étendue ».

La « quantum interaction »

Deux articles se complétant 2) que vient de publier la revue NewScientist, commentent des recherches récentes en sciences cognitives. Il s’agit pour les chercheurs cités de montrer que le raisonnement utilisé par le cerveau (humain ou non, consciemment ou non)  est plus proche des méthodes de la logique quantique que de celles de la logique mathématique employée par les sciences macroscopiques.

Ceci voudrait dire que, pour progresser dans les sciences du monde macroscopique, il faudrait faire plus systématiquement qu'aujourd'hui appel à la façon dont les physiciens quantiques se représentent les entités quantiques: principe de superposition d'état et création d'interférences, intrication, représentation probabiliste (fonction d'onde), intervention de l'observateur (décohérence), etc.

Comme le cerveau humain paraît utiliser spontanément de telles processus pour se représenter les éléments du monde extérieur observés par les organes sensoriels, il serait très réducteur de considérer que seuls les postulats de la logique mathématique et plus généralement de la logique quotidienne dite rationnelle sont les seuls acceptables: principe d'identité par exemple (A est A et ne peut être non-A, une proposition ne peut à la fois être « vraie » ou « fausse »). Indispensable pour certains types de modélisations exigeant une rigueur formelle précise, ces principes sont nuisibles quand il s'agit de faire appel à des logiques plus floues. On le savait déjà mais il est bon de le rappeler.

Il est remarquable de constater que l'un de ces articles mentionne un domaine de recherche en plein développement, dit « quantum interaction ». faisant appel à ces postulats. On y montre que la logique quantique peut être utile dans des domaines ne pouvant être traités par la seule science physique, notamment la linguistique, la cognition, la biologie, l'économie.Les deux logiques, quantique et mathématique, se complètent donc. Le 3e symposium intéressant la « quantum interaction » (que nous hésitons à traduire vu les confusions possibles par le terme d'interaction quantique) vient de se tenir à Aberdeen. (voir http://www.researchgate.net/conference/Quantum_Interaction_2011/). Les domaines applicatifs seront de plus en plus riches: moteurs de recherche intelligents, robots interagissant avec des humains, systèmes biologiques complexes, théorie de la décision, etc.

On retrouve ainsi là, dans une large mesure, les avancées méthodologiques résultant de ce que nous nommons ci-dessus MCR étendue. MCR imposera alors une rigueur que ne respectent pas toujours ceux qui usent et abusent du terme de logique quantique sans avoir bien compris ses implications. .

L'esthétique appliquée aux sciences de la complexité.

Par esthétique, nous désignerons ici les sciences et philosophies de la connaissance qui étudient le rôle de la création dite artistique dans la construction des représentations par lesquelles les individus et les groupes se représentent le monde, sur un mode généralement spontané et informel. Les « artistes » sont nécessairement à la source de l'évolution de ces représentations à travers les temps et les lieux, mais on ne peut en distinguer le public qui reçoit et répercute en les transformant les produits de la création artistique. A juste titre on pourra évoquer dans ce domaine le concept de « mème », du fait notamment de la prolifération des différents réseaux et technologies numériques permettant une diffusion sans précédents des « contenus » artistiques. Désormais chacun peut potentiellement devenir alternativement créateur et consommateur de produits artistiques.

D'où l'intérêt de plus en plus grand d'étudier une telle production en termes scientifiques. Pour ce faire, il faut mobiliser non seulement l'esthétique traditionnelle mais l'ensemble des sciences de la complexité. Ce terme, dont nous nous méfions un peu car il est vague, recouvre en fait l'ensemble des sciences dont nous discutons régulièrement sur ce site. Citons dans des domaines différents l'archéologie cognitive, les neurosciences, I'intelligence artificielle … mais aussi la physique et la biologie. C'est ainsi que l'esthétique seule ne pourra expliquer pourquoi l'art pariétal semble avoir émergé tout armé vers 35.000 ans bp, sinon avant. Il ne peut manifestement pas s'agir d'art au sens où l'entendent les galéristes contemporains.

Les recherches en esthétique étendue ainsi conçue prennent de plus en plus d'importance aujourd'hui, tant dans les pays anglo-saxons qu'en France. Elles associent désormais des scientifiques proprement dits et des créateurs ou même un public ayant suffisamment de compétences pour utiliser les concepts et les instruments des sciences de la complexité mises au service de la création. Nous avons précédemment présenté ici l'ouvrage "Dans l'atelier de l'art. Expériences cognitives", Champ Vallon 2010 (http://www.automatesintelligents.com/biblionet/2010/jui/borillo.html) ainsi qu'un entretien avec son principal auteur Mario Borillo (http://www.admiroutes.asso.fr/larevue/2010/113/borillo.htm).

Or nous recevons aujourd'hui, provenant des éditions du CNRS, un ouvrage de même inspiration et de grande qualité,  " Esthétique et complexité. Création, expérimentation et neurosciences ", coordonné par Zoï Kapoula et Louis José Lestocard. 4)

Ces deux livres présentent des caractères voisins. Ils regroupent des créateurs et des scientifiques. Ils proposent des recherches approfondies concernant la création artistique, la genèse des oeuvres, les implications de celles-ci sur les représentations du monde. Ils sont également, il faut le dire, d'une approche difficile qui exclura on peut le craindre la plupart des artistes et le grand public lui-même.

Si l'on fait cependant l'effort de pénétrer les propos des auteurs, on y constatera que la réflexion sur la création scientifique ne devrait plus pouvoir se passer de ce qu'enseigne l'histoire de la création artistique à travers les âges. On retrouve à l'oeuvre les mêmes processus et de ce fait, se posent les mêmes problématiques: que fut l'archéologie de la création? comment devient-on créateur? Comment les sociétés reçoivent-elles la création ? …

Bien plus, la lecture des textes et des références rassemblés par ces deux ouvrages montre l'immensité du champ de recherche qui pourraient s'ouvrir, dans toutes les sciences de la complexité mentionnées, si l'on utilisait plus systématiquement l'expérimentation sur les oeuvres, sur les créateurs et sur ceux qui reçoivent et transforment les créations, d'un type de société à l'autre. La matière première est abondamment disponible, il ne manque que les bonnes volontés pour l'exploiter. Par ailleurs, l'expérimentation, avec les technologies aujourd'hui disponibles, notamment dans le domaine numérique, ne demande pas de moyens considérables.

Chacun s'il le voulait, ou presque, pourrait passer en alternance du statut de créateur à celui de récepteur et de chercheur. Ce faisant, avec un peu d'efforts, il pourrait approfondir des domaines de recherche fondamentale très importants, mais jugés en général – telle la neuroesthétique - comme inabordables. Encore faudra-t-il que les promoteurs de ces recherches fassent les efforts nécessaires pour être lisibles par tous.

Commentaires

Au delà de leur intérêt propre, les domaines évoqués par ces trois initiatives fournissent matière à des réflexions communes intéressant la question posée ici: comment les cerveaux se représentent-ils le monde?

Un premier point doit selon nous être précisé. Une telle question est de portée universelle. Elle ne concerne pas seulement les cerveaux humains. Elle devra donc être étendue à l'ensemble des cerveaux ou systèmes nerveux centraux de l'ensemble des organismes supérieurs. C'est ainsi que les animaux se construisent des représentations symboliques du monde se traduisant par des modules communicationnels échangeables, sous la forme de langages plus ou moins simplifiés, parfois assimilés à une forme de création artistique, qui ont depuis longtemps intéressé les recherches en linguistique, esthétique et psychologie cognitive évolutionnaire.

Par ailleurs, on doit rappeler qu'il convient dans certains cas de ne pas séparer artificiellement les individus et le groupe ou l'espèce au sein desquels ils communiquent, non plus d'ailleurs que les émetteurs de messages et les messages émis. Les uns et les autres constituent un ou plusieurs super-organisme qu'il faut dans certains cas étudier en tant que tels.

Ceci est particulièrement évident lorsque l'on considère, non plus des populations d'animaux supérieurs, mais des populations d'organismes monocellulaires ou de bactéries, qui communiquent entre eux par des échanges spécifiques. Le contenu de ces échanges constituent pour de tels organismes – et dans une large mesure pour les humains qui les déchiffrent – des représentations ayant un effet déterminant dans l'évolution du monde global, au même titre que nos pensées ou nos travaux scientifiques.

Parmi les multiples autres questions posées par les travaux mentionnés dans la première partie de cet article, il nous semble que l'une d'entre elles éclipse toutes les autres par son importance. Nous nous limiterons à elle pour rester dans le cadre d'un tel article.

Il s'agit de savoir si les logiques et formes de pensée développées par les cerveaux humains en interaction avec ce qui nous semble être le monde macroscopique sont ou non inspirées, voire déterminées par les phénomènes ou structures profondes inhérentes au monde quantique. On dira que pour répondre à cette question, il faudrait être certain de connaître les règles de ce monde. La réponse généralement faite est que la physique quantique et les applications qui en sont données ont aujourd'hui atteint un développement suffisant pour que l'on puisse en traiter avec un minimum de sécurité, sous réserve du fait que, conformément au postulat non réaliste repris par MCR, on se garde d'affirmer (à ce jour tout au moins) qu'il existe une réalité quantique ou infra-quantique en soi (des variables cachées) indépendantes des observateurs et de leurs instrumentations. L'on ne traitera alors que de constructions « relativisées » s'exprimant généralement par des formulations probabilistes.

Sous cette réserve, la plupart des scientifiques et épistémologues concernés par les sciences macroscopiques ne nieront pas le fait qu'eux-mêmes, comme nous tous, nous avons nécessairement des liens avec le monde quantique susceptible d'influencer chacun des atomes qui nous constituent. Mais il ne s'agit pas seulement de le dire. Il faudrait mettre en évidence des domaines où une telle influence se ferait sentir.

La question est de très grande importance. Nous avons abordé sur ce site quelques uns de ses aspects théoriques, en mentionnant les travaux, entre autres, de David Deutsch 5) Seth Lloyd 6) et JohnJoe Mac Fadden 7). Pour ces auteurs comme pour bien d'autres que nous ne citons pas ici, les mondes macroscopiques, y compris le monde biologique, sont régis par des processus relevant du calcul quantique, qu'il serait possible de mettre en évidence, à condition de les chercher. La mise au point, que certains espèrent proche, d'un calculateur quantique puissant devrait y aider.

Les sceptiques diront qu'il ne s'agit encore que d'hypothèses. Reste que, dans certains processus biologiques relativement simples, intéressant la fonction chlorophyllienne ou le fonctionnement de l'oeil, des chercheurs sont persuadés d'avoir détecté des mécanismes mettant directement en oeuvre des bits quantiques interagissant avec des atomes ou molécules biologiques 8). Quelques auteurs ont affirmé qu'il pourrait en être de même dans le cerveau, au niveau des neurones supposés responsables de la formation de la conscience. Mais cette dernière hypothèse n'a pas encore été démontrée.

Il reste que, et cela nous reconduit au thème principal de cet article, que la représentation du monde macroscopique que se donnent spontanément (et généralement inconsciemment) les cerveaux humains devrait en principe se construire en s'appuyant sur les règles de la logique quantique. La logique mathématique n'en serait qu'une version artificielle (construite) et d'usage nécessairement limité. Ceci, indiquons-le en passant, rendrait non recevable l'affirmation « réaliste » de certains mathématiciens selon laquelle les mathématiques procéderaient de structures profondes de l'univers, qu'il leur appartient de redécouvrir. Quoiqu'il en soi, les logiques quantiques demeureraient indispensables non seulement à la découverte et la création en général, mais aussi dans certains domaines visant à élaborer des modèles technologiques à prétentions applicatives pleinement opérationnelles.

Les promoteurs de l'approche MCR étendue trouveront donc là, pensons-nos, des arguments renforcés pour promouvoir l'application de MCR à l'ensemble des connaissances.

Notes
1) Nous publierons prochainement un document précisant les modalités de cette initiative. Le livre de Mioara Mugur Schächter que nous avons édité par ailleurs " L'infra-mécanique quantique " (Ouvrage au format.pdf accessible en téléchargement gratuit) en donne une présentation qui fera ultérieurement l'objet d'une version destinée au grand public (voir http://www.admiroutes.asso.fr/larevue/2011/115/IMQ.pdf )
2) Voir NewScientist http://www.newscientist.com/article/mg21128285.900-quantum-minds-why-we-think-like-quarks.html ainsi que http://www.newscientist.com/article/dn20866-quantum-logic-could-make-better-robot-bartenders.html
3) Voir aussi notre dossier La création artistique. http://www.automatesintelligents.com/art/2009/sep/creationartistique.html
4) Esthétique et complexité. Editions du CNRS

Présentation par l'éditeur.
http://www.cnrseditions.fr/Art-et-technique/6424-esthetique-et-complexite-sous-la-direction-de-zoi-kapoula-et-louis-jose-lestocart.html

Depuis l’Antiquité, Art et Sciences ne cessent de nourrir une relation féconde et protéiforme. Aujourd’hui, alors que la science moderne triomphe, construisant chaque jour un appareil critique et expérimental de plus en plus complexe, les échanges se perpétuent et s’intensifient. Les interactions entre l’oeuvre d’art, son producteur et le « regardeur » sont devenus un sujet de recherches fondamental de ce début de siècle.
À l’invitation de Zoï Kapoula et Louis-José Lestocart, artistes et scientifiques nous livrent ici réflexions et témoignages sur les pratiques et les tendances les plus contemporaines du cinéma expérimental, de l’animation, de la vidéo et de la peinture. Ces spécialistes reconnus analysent également les usages et les effets des théories scientifiques sur la création : phénomènes de prédiction liés aux processus neuronaux, auto-organisation des oeuvres et vie artificielle, systèmes multi-agents, circularité, etc.
L’ouvrage consacre des pages passionnantes à la neuro-esthétique, à travers des expériences de laboratoire qui renouvellent l’analyse de la perception et l’interprétation d’oeuvres classiques (Piero della Francesca, Vélasquez) et modernes (Degas, Seurat, Picasso, Bacon). L’étude du parcours des yeux à la surface des tableaux dévoile en particulier de saisissants enseignements sur l’esthétique, la psychologie et les modes culturels de pensée et de perception.
Une construction prospective à la croisée de la philosophie, de l’histoire de l’art et
des sciences de la complexité.


Nous souscrivons pleinement à cette analyse. Disons seulement qu'un tel ouvrage aurait besoin, pour être pleinement lisible, de s'appuyer sur des illustrations animées multimédia présentées dans un site associé.

 

5) David Deutsch "L'Etoffe de la réalité " http://www.automatesintelligents.com/biblionet/2004/jan/deutsch.html
6) Seth Lloyd "Programming the Universe - A quantum computer scientist takes on the Cosmos"
http://www.automatesintelligents.com/biblionet/2006/avr/lloyd.html
7) JohnJoe Mac Fadden "Quantum evolution" http://www.automatesintelligents.com/edito/2002/avr/edito.html. Voir aussi http://www.automatesintelligents.com/interviews/2002/mai/mcfadden.html )
8) Voir notre article « Processus quantiques interagissant avec des organismes biologiques » http://www.automatesintelligents.com/labo/2009/jan/algueverte.html

Repost 0
16 août 2011 2 16 /08 /août /2011 19:51


Jean-Paul Baquiast 17/08/2011


Le combat de la science contre le cancer n'a pas enregistré de véritables succès depuis une dizaine d'années. On a fait valoir l'effet nocif de certains environnements, on a pu grâce à la chimiothérapie (sans mentionner le chirurgie) ralentir ou éradiquer certains cancers, mais les causes de la transformation d'une cellule saine en cellule cancéreuse demeurent encore mystérieuses.

Or des recherches récentes, présentées lors du dernier Meeting annuel de l'American Association for Cancer Research à Orlando, avril 2011 1) font suspecter que l'on commence à découvrir ce que certains nomment un nouveau continent. Les chercheurs l'avaient jusqu'à présent sous les yeux mais ne le voyaient pas. Ils étaient trop fixés semble-t-il sur les analyses génétiques traditionnelles visant à expliquer les mutations enregistrées par le génome d'une cellule devenant cancéreuses.

Sur cette question stratégique de la découverte scientifique, Howard Bloom dans le manuscrit de son dernier livre, qu'il nous a communiqué, explique que pour inventer il faut regarder ce que l'on a sous les yeux comme si on l'avait jamais vu. On découvre alors ce que les autres, qui regardent la même chose, ne voient pas. Le conseil est bon, mais il ne suffit pas toujours à échapper au poids des théories admises.

Un article du New York Times 2)  nous semble résumer parfaitement ce qui sera probablement une révolution en cancérologie. Les généticiens pensaient avoir à peu près compris les modalités selon lesquels mutait le génome d'une cellule en voie de cancérisation. Ils espéraient qu'en approfondissant ce mécanisme, l'ensemble du processus pourrait être élucidé dans la décennie. Des progrès thérapeutiques importants auraient pu alors en découler3)  Or à Orlando, une équipe de chercheurs dirigée par le Dr Pier Paolo Pandolfi (chercheur italien travaillant aux Etats-Unis en qui certains voient un nouveau prix Nobel 4) vient d'annoncer avoir découvert ce qu'ils nomment la Pierre de Rosette d'un nouveau langage entre les gènes constituant l'ARN, jusqu'ici jamais étudié 5)

Ce pourrait être dans la lutte contre le cancer à la fois une bonne et un mauvaise nouvelle. Une bonne nouvelle car toute avancée théorique peut avoir des retombées médicales inattendues. Mais aussi une mauvaise nouvelle car le paysage biologique qui se découvre parait d'une énorme complexité, appelant à de nouvelles recherches approfondies et par conséquent à des moyens de laboratoire accrus.

Ce n'est pas seulement la question des causes du cancer qui serait concernée mais plus généralement celle des interactions qu'entretiennent au sein des organismes vivants supérieurs les très nombreuses populations de microbes cohabitant avec eux et contribuant à leur survie au sens le plus immédiat du terme, ce que l'on nomme désormais le microbiome. Ces microbes, dont les gènes interagissent en permanence avec ceux des cellules, selon des modalités que l'on approfondira peu à peu, sont engagés dans une compétition darwinienne qui bien évidemment n'a pas pour finalité la bonne santé de l'organisme hôte, mais le succès reproductif de leur propre souche.

Les microbes égoistes

L'on pourrait reprendre en ce qui les concerne la métaphore popularisée par Richard Dawkins, celle du « gène égoïste ». En l'espèce l'égoïsme des microbes vivant sur l'organisme ou au sein du milieu fréquenté par celui-ci complète l'égoïsme des gènes de celui-ci. On le savait déjà, les microbes ne nous veulent pas systématiquement du bien. Mais la métaphore prend une nouvelle actualité, car les recherches actuelles éclairent l'aspect génétique des interactions « égoïstes » entre microbes et cellules.

Le schéma jusque là admis était que le développement de cellules cancéreuses provenait de mutations aléatoires encourageant les gènes favorisant la croissance anarchique de la cellule au détriment de ceux pouvant la freiner. Aujourd'hui cependant il est apparu qu'il fallait prendre en considération l'activité de l'ADN dit poubelle ou non-codante, qui constitue l'essentiel de tous les génomes. Il s'agit de segment de nucléotides qui ne sont pas censés coder pour les protéines intervenant dans le développement de la cellule ou de l'organisme.

Or ces segments, dits aussi pseudo-gènes secrètent anarchiquement des morceaux d'ARN messager (L'ARN messager porte l'information de l'ADN aux ribosomes des cellules lors de la reproduction de celles-ci ) qui pourraient jouer un rôle dans les mutations produisant des cellules cancéreuses. Ils ont donc un effet codant lui-même apparemment anarchique.

Par ailleurs, l'équipe du Dr Pandolfi a montré que 98% des cellules intervenant dans la production des gènes codant au sein d'un organisme complexe appartiennent à des microbes se développant en symbiose avec celui-ci – ce qui est désormais nommé le microbiome. Or ces microbes développent eux-aussi des pseudo-gènes qui interfèrent avec ceux de la cellule. Il s'établit alors un « dialogue «  complexe entre l'ensemble des micro-ARN provenant des microbes internes à l'organisme, de ceux qui sont présents dans son environnement et des cellules de l'organisme lui-même.

Ils échangent ce que les chercheurs ont appelé des ceRNAs, ou “competing endogenous RNAs ». En se liant à un ARN messager cellulaire destiné à empêcher la croissance anarchique d'une cellule, ces CeRNAs peuvent par exemple bloquer le mécanisme protecteur.

Divers variétés d'agents non-codants de type CeRNA, dotés de noms exotiques, avaient été identifiés. Il faut maintenant rechercher leur rôle dans le dérèglement des mutations cellulaires. Ceci conduit à une approche plus globale de la tumeur. On en arrive à considérer que l'alliance entre les cellules cancéreuses d'une tumeur et les microbes se traduit par le développement, au sein de l'organisme atteint par le cancer, d'un véritable nouvel organisme parasite doté de ses lois propres de développement. Il comporte ainsi des cellules saines qui semblent coopérer avec les cellules cancéreuses pour faciliter leur croissance et la formation de métastases.

On voit que les recherches sur les causes et modalités de vie des tumeurs auront désormais beaucoup plus de points à élucider qu'initialement prévu. Elles devront s'accompagner de recherches sur les microbiomes et leurs relations en termes génétiques avec les pathologies cancéreuses ou autres, dont le nombre apparaît désormais très grand. Il n'est pas du tout certain dans ces conditions que l'ensemble des mécanismes de la cancérisation puissent, comme espéré précédemment, être mis à jour dans les prochaines années.

Par contre, beaucoup de lumières devraient être apportées sur la biologie des microbes en relation avec les organismes multicellulaires. Il s'agissait jusqu'ici, pour reprendre le terme de Howard Bloom, d'éléments que les chercheurs avaient jusqu'ici sous le nez mais qu'ils ne voyaient pas – ou qu'ils ne voyaient guère. Maintenant ils devraient les voir.

 

Bibliographie
1) Meeting à Orlando de l'American Association for Cancer Research, Avril 2011 http://www.aacr.org/home/public--media/aacr-in-the-news.aspx?d=2381
2) Article de George Johnson Cancer’s Secrets Come Into Sharper Focus
http://www.nytimes.com/2011/08/16/health/16cancer.html?_r=1
3)
The Hallmarks of Cancer
Douglas Hanahan and Robert A. Weinberg http://www.sciencedirect.com/science/article/pii/S0092867400816839
suivi de Hallmarks of Cancer: The Next Generation http://www.cell.com/abstract/S0092-8674%2811%2900127-9
4) Pier Paolo Pandolfi http://www.hms.harvard.edu/dms/bbs/fac/pandolfi.php
5) Leonardo Salmena, Laura Poliseno, Yvonne Tay, Lev Kats, Pier Paolo Pandolfi A ceRNA Hypothesis: The Rosetta Stone of a Hidden RNA Language?
http://www.cell.com/abstract/S0092-8674%2811%2900812-9#MainText

Repost 0
7 août 2011 7 07 /08 /août /2011 21:02

Nous proposons d'utiliser le concept de l'anthropotechnique pour tenter de mieux comprendre l'ensemble des phénomènes généralement associés à ce que l'on nomme la mondialisation.. Il devrait être de même de la démondialisation, présentée depuis quelques mois comme un remède aux effets négatifs de la première.



Jean-Paul Baquiast- 07/08/2011


Indiquons à ceux n'ayant pas lu notre livre « Le paradoxe du Sapiens » (*) que nous y proposons un outil d'analyse du monde politico-économique visant à faire le plus possible appel à la méthode scientifique. Nous y postulons que l'évolution des civilisations humaines, depuis les origines, a résulté des compétitions darwiniennes pour l'accès aux ressources confrontant des superorganismes que nous qualifions d'anthropotechniques ou mieux, de bio-anthropotechniques. Ce terme générique désigne des entités composées d'une imbrication étroite entre des facteurs biologiques (par exemple les génomes), des facteurs anthropologiques (les acquis culturels) et des facteurs technologiques.

Ces entités sont de nature très différente. Leur influence sur l'évolution globale n'est pas identique. Elles peuvent donc être analysées en termes différents, selon les échantillons de temps, de lieux et de domaines retenus. Cependant nous estimons que l'approche anthropotechnique devrait être féconde pour mieux comprendre le monde actuel dans sa totalité, c'est-à-dire pour en donner une vision globale. Cela ne signifierait pas qu'elle permettrait d'analyser le monde en détail, de prédire son évolution et moins encore de proposer des remèdes à certains risques pouvant naitre de la confrontation en son sein entre systèmes anthropotechniques. Plus généralement, rappelons que le concept de système anthropotechnique est pour nous un postulat. Dans le cadre d'une démarche se voulant scientifique, il doit être mis à l'épreuve des observations expérimentales afin de préciser les enseignements qui pourraient être tirés de son utilisation.

L'une de ces mises à l'épreuve consisterait aujourd'hui à utiliser le concept de l'anthropotechnique pour tenter de mieux comprendre l'ensemble des phénomènes généralement associés à ce que l'on nomme la mondialisation.. Il devrait être de même de la démondialisation, présentée depuis quelques mois comme un remède aux effets négatifs de la première.

Frédéric Lordon

Un article de l'économiste Frédéric Lordon dans le Monde Diplomatique d'août 2011, intitulé « La démondialisation et ses ennemis », s'attache à démontrer les illusions et les mensonges délibérés recelés par le concept de mondialisation. Ce n'est pas pour autant, selon lui, que les perspectives actuelles dites de démondialisation pourraient remédier aux abus du capitalisme libéral sans frontières imposés par ceux présentant la mondialisation comme une évolution nécessaire. Frédéric Lordon est un auteur que nous apprécions beaucoup, car il s'oppose avec bonheur au langage convenu imposé par les pouvoirs à ses homologues. Cependant, nous pensons que faute d'un outil d'analyse suffisant, il ne réussit pas à préciser ce que pourraient être des politiques s'opposant à la mondialisation, dite aussi de démondialisation, qui répondraient à la légitime volonté des peuples de s'affranchir de la domination imposée sous couvert de mondialisation à l'ensemble de la planète par des intérêts eux-mêmes mondialisés.

Dans l'article précité, Frédéric Lordon décrit avec pertinence les grands phénomènes résultant de la capitulation devant les impératifs supposés de la mondialisation : - concurrence « non faussée » entre économies à standards salariaux inégaux (Minima s'échelonnant de 100 dollars par mois au Sud à 1500 ou 2000 au Nord, pour ceux disposant d'un emploi) – exigence de rentabilité financière imposant la compression permanente des revenus salariaux – menace permanente de délocalisation - endettement institutionnalisé des consommateurs afin de leur permettre de continuer à consommer malgré la diminution des revenus salariaux – prise en charge des coûts de ces politiques par les budgets publics c'est-à-dire finalement par les citoyens – désarmement des Etats face aux intérêts financiers par des politiques dite de rigueur portant sur les administrations, les services publics et les investissements collectifs de long terme.

Nous avons nous-mêmes ici décrit plusieurs fois ces phénomènes, à l'instar de tous ceux qui comme nous dénoncent le néo-libéralisme financier et la prise en mains du monde par des oligarchies en connivence mondiale. Mais il ne suffit pas de dire « Plus jamais cela » comme le fait Frédéric Lordon à la fin de son article, pour voir émerger miraculeusement les solutions permettant d'échapper aux véritables dictatures ainsi dénoncées. Il faut analyser plus en profondeur ces différentes dictatures, à la lumière de l'outil anthropotechnique proposé ici.

Les systèmes anthropotechniques s'insèrent dans l'antagonisme mondialisation/démondialisation à trois niveaux différents

Nous avons dit que les systèmes anthropotechniques, notamment les entreprises, les administrations, les Etats, sont le produit de la symbiose de trois niveaux de déterminismes différents. Les facteurs actifs au sein de ces niveaux vivent la mondialisation-démondialisation de façon différente.

Au plan des composantes scientifico-techniques de ces systèmes s'impose globalement une exigence d'interconnexion et d'intercommunication qui constitue un élément déterminant de ce que l'on peut appeler la globalisation technologique du monde et des cerveaux (global mind). Certes, des compétitions internes entre diverses composantes peuvent générer des conflits retardateurs de la technologisation globale, mais dans l'ensemble se met en place un tissu de relations et d'échanges qui constitue le facteur le plus puissant de la mondialisation. La science, autrement dit les moyens d'action sur le monde résultant du processus collectif d'acquisition sur le mode expérimental des connaissances et des savoirs-faire, est à la fois le produit et l'outil de l'explosion contemporaine des technologies.

Toutes différentes sont les composantes biologiques des systèmes anthropotechniques. Pour simplifier, nous dirons qu'elles expriment au sein de ces systèmes deux tendances fortes. L'une pousse à une croissance démographique que seule peut faire plafonner la diminution des ressources, l'autre, quasiment inverse, incite à l'appropriation des territoires et à la constitution de niches aussi exclusives que possible. L'hyper-natalité, encore très présente dans de nombreuses sociétés du tiers-monde, est le facteur déterminant d'une certaine forme de mondialisation, celle qui repose sur la recherche de nouveaux territoires d'expansion par des populations en manque d'espace et de nourriture. Il s'agit de processus biologiques tout à fait banaux, qui de ce fait n'obéissent pas à des considérations se voulant rationnelles. A l'inverse, la constitution d'empires territoriaux par des minorités dominantes, en guerre les unes avec les autres, ne serait pas au contraire favorable à la mondialisation. Il s'agirait au contraire de facteurs qui pourraient activer des tendances à la démondialisation et au nationalisme, au nom de la souveraineté de ces empires chacun dans son territoire propre.

Les composantes anthropologiques des systèmes anthropotechniques se rattachent nous l'avons dit à ce que l'on pourra globalement nommer la sphère culturelle. Elles trouvent leurs racines très en amont, non seulement dans l'histoire biologique des sociétés, évoquée ci-dessus, mais dans celles des stratifications entre dominants et dominés, possédants et exploités, éventuellement hommes et femmes, que l'on retrouve tout au long des évènements ayant marqué l'histoire géopolitique des deux derniers siècles. Ces stratifications ont des composantes animales (biologiques) encore très présentes dans les sociétés humaines. Mais elles sont aussi renforcées par la détention, très inégale selon les régions géographiques et les classes sociales, des ressources économiques, industrielles et universitaires.

La stratification des sociétés humaines, au plan interne comme au plan international, entre possédants et non-possédants, oligarchies et populations dominés, n'a pas une influence directe sur les tendances à la mondialisation. Les dominants seront, dans certains cas, favorables à la mondialisation quand celle-ci signifiera une disparition à leur profit des barrières traditionnelles, de type territoriale ou administratif, opposées par les sociétés défendant leur territoire. Dans d'autres cas, ils prôneront au contraire la démondialisation, c'est-à-dire le retour à des barrières, quand il s'agira de protéger leurs propres conquêtes. La démondialisation (assurée éventuellement par le recours aux moyens militaires) leur permettra notamment de résister à la pression géopolitique de sociétés aux effectifs plus nombreux et plus pauvres. Elle permettra également de refuser l'invasion de populations à la natalité envahissante chassées de chez elles par des facteurs plus généraux comme le réchauffement climatique.

Ici, en évoquant le réchauffement climatique, nous faisons allusion au fait que l'analyse anthropotechnique que nous proposons doit être nuancée soit localement soit dans la durée, par la prise en compte d'évolution beaucoup plus générales intéressant la planète toute entière. D'une part les écosystèmes subissent aujourd'hui l'influence globale des sociétés anthropotechniques. Ceci se traduit par une disparition rapide de milieux naturels et d'espèces. On a parlé d'anthropocène pour désigner les aspects millénaires de cette évolution. Nous avons pour notre part suggéré le terme d'anthropotechnocène permettant de tenir compte de l'explosion très récente, datant de moins de deux siècles, de sociétés aux technologies de plus en plus puissantes et spontanément proliférantes.

S'ajoutent à cela des évolutions de fond que la science peine encore à identifier, pouvant se traduire par une restriction ou des modifications profondes au niveau des ressources disponibles : modifications spontanées du climat, pandémies d'origine encore inconnue, éruptions, tremblements de terre, voire chutes d'astéroïdes. L'influence de ces éventualités sur la mondialisation ou la démondialisation, c'est-à-dire le repli des collectivités sur elles-mêmes, est difficile à anticiper. Mais il faut se tenir prêt à en tenir compte.

Contribution de l'analyse anthropotechnique à l'étude de la mondialisation/démondialisation

Nous avons dit que toute hypothèse à prétention scientifique doit être testée au regard de l'expérience. Dans le présent cas, cela signifierait vérifier que les grands courants par lesquels se manifeste la mondialisation/démondialisation sont mieux compris en faisant appel au postulat selon lequel l'évolution globale du monde résulterait des compétitions de type darwiniens entre entités anthropotechniques qu'en faisant appel à des concepts plus traditionnels.

Nous pensons que c'est le cas. Prenons un exemple simple, pour ne pas entrer dans des analyses de détail dépassant le cadre de cet article. Considérer comme beaucoup le font qu'une mondialisation prenant la forme de la destruction des spécificités nationales et locales résulte de l'effet déstructurant de la généralisation des technologies de la communication ne met l'accent que sur un aspect du phénomène. Avec les mêmes réseaux pourraient s'organiser des échanges équilibrés entre les différentes parties du monde. Pour que se généralise cette abomination que Frédéric Lordon appelle à juste titre « une concurrence « non faussée » entre économies à standards salariaux inégaux », il faut que des agents prédateurs profitent des réseaux et des technologies pour imposer leur domination au reste du monde. Or les entreprises industrielles et financières qui le font manifestent toutes les caractéristiques des minorités dominantes dont l'anthropologie et la biologie ont depuis longtemps étudié le fonctionnement dans les sociétés humaines traditionnelles et dans les sociétés animales. On comprendra mieux leur action en les considérant comme anthropotechniques, autrement dit bien plus complexes que de simples analyses économiques et politiques pourraient le montrer.

Dans notre essai « Le paradoxe du Sapiens », nous avons, pensons-nous avec succès, utilisé cette approche pour analyser l'action du Pentagone ou ministère de la défense américain, c'est-à-dire la matérialisation relativement facile à étudier d'un complexe politico-militaro-industriel qui conjugue les trois composantes biologique, anthropologique et technologique d'un grand système de pouvoir interagissant avec divers concurrents dans le cadre de l'évolution du monde global. Au regard de la mondialisation, on pourrait aisément montrer le rôle qu'a joué ce système anthropotechnique particulier pour imposer au reste du monde la suppression des barrières politiques s'opposant à son influence. C'est ainsi, exemple parmi cent autres semblables, qu'il a contraint pendant des décennies les gouvernements sous tutelle à faire l'acquisition de matériels de guerre américains, dépossédant les Etats correspondants de leurs compétences industrielles.

Aujourd'hui, certains observateurs pensent que le système anthropotechnique du Pentagone est sur la défensive, du fait de l'apparition de systèmes concurrents dans le vaste théâtre de la mondialisation. Nous pensons pour notre part qu'il n'en est rien (voir notre article « Nouveaux pouvoirs pour les maîtres de l'Empire. Apparition d'un national-technologisme américain » http://www.admiroutes.asso.fr/larevue/2011/120/nationaltechnologisme.htm). Le système change seulement de forme. Tout en développant plus que jamais sa compétence technologique, dans le sens d'une véritable explosion des applications en réseaux intelligents pour le contrôle des citoyens et des adversaires, le système renforce ses racines bio-anthropologiques. Celles-ci poussent à la constitution d'espaces fermés protégés soumis à un gouvernement de type dictatorial.

Autrement dit le système tend à devenir ce que l'on pourrait qualifier de techno-dictature ou, en termes plus doux, d'un système technologique de contrôle global s'organisant autour de motivations nationales sinon nationaliste. Le complexe politico-technique en résultant, que nous proposons de nommer un national-technologisme, viendra de fait en contradiction avec tout idéal de mondialisation heureuse. Il jouera au contraire la carte de la démondialisation. Il serait rejoint en cela par des systèmes moins avancés dans cette voie mais décidés à ne pas se laisser distancer, tel que le national-technologisme chinois.

Ce sera sans doute la compétition entre de telles entités, dans un espace mondial de plus en plus segmenté, autrement dit démondialisé, qui écrira l'histoire géopolitique du 21e siècle.


* Jean-Paul Baquiast. Le paradoxe du Sapiens. Ed. JP. Bayol, mars 2010


Repost 0

Articles Récents

Liens