Overblog
Suivre ce blog Administration + Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

Archives

3 décembre 2011 6 03 /12 /décembre /2011 11:23


Jean-Paul Baquiast 03/12/2011

 

La plupart des chercheurs s'intéressant aux premières formes de vie terrestre pensent qu'elles sont apparues très tôt, environ 500 millions d'années après la mise en forme de la Terre primitive. Elles se seraient formées dans des milieux saturés de méthane, sulfure d'hydrogène, monoxyde de carbone et ammoniaque. Véritables poisons pour les formes de vie terrestres modernes, ces gaz étaient au contraire favorables aux synthèses biochimiques ayant donné lieu à l'apparition des acides aminés et de l'ADN. 1)

Les premières formes vivantes auraient donc pris naissance dans des milieux riches en méthane et sulfure, soit dans les océans, autour des émissions magmatiques sous-marines, soit éventuellement à la surface des terres volcaniques émergées. Les organismes moderne tirant leur énergie des phénomènes d'oxydation rendus possible par l'existence de milieux devenus riches en oxygène ne seraient apparus que bien plus tard. .

Or une équipe de l'Institut polytechnique Renneselaer (ROI) dirigée par le Pr. Bruce Watson vient de publier dans Nature un article intitulé "The oxidation state of Hadean magmas and implications for early Earth's atmosphere" . Il résulte de ces travaux que les conditions de l'atmosphère terrestre il y a 4 milliards d'années auraient pu se rapprocher de celles régnant de nos jours, comportant, notamment, de l'eau et du CO2. Ces éléments auraient résulté de la remontée des magmas profonds lors de leur dégazage en surface, selon un processus proposé par cette équipe.

Nous renvoyons à l'article pour le détail des manipulations longues et complexes ayant permis à l'équipe du RPI de former des hypothèses concernant la composition en oxygène des magmas primitifs et de leurs produits de dégazage. Disons seulement qu'ils ont analysé à cette fin des zircons, ou silicate de zirconium naturel, qui sont des minéraux rares considérés comme appartenant aux plus anciens de la planète. Ils ont recréé en laboratoire des conditions proches de celles ayant permis la production des zircons supposés avoir été présent dans les laves primitives. Ils ont étudié leur richesse en cerium, élément pouvant servir à mesurer le degré d'oxydation de la lave. Ils ont constaté que l'atmosphère résultant de la décomposition de ces laves primitives expérimentales était proche, au regard de leur richesse en oxygène, de l'atmosphère actuelle. Un oxygène de dégazage aurait donc fait partie, dans des quantités importantes, des gaz composant l'atmosphère initiale.

Cependant rien n'indique le temps mis par cet oxygène pour se répandre dans l'atmosphère entière. Les volcans devaient émettre, comme ils le font aujourd'hui, de nombreux autres gaz. Les hypothèses relatives aux rôles joués par des organismes anaérobies dans l'histoire de la vie ne devraient dont pas être bouleversées. Tout au plus devraient-elles tenir compte d'une compétition possible avec des organismes aérobies.

L'étude du RPI a été financée par la Nasa, dans le cadre de recherches sur l'exobiologie. Elle pourrait avoir des conséquences importantes pour cette discipline. Si l'évolution biochimique terrestre n'avait pas eu le temps de faire apparaître suffisamment tôt dans l'histoire de la vie des organismes capables d'utiliser l'oxygène présent dans le milieu, ceux-ci auraient pu être apportés sur la Terre à partir de l'espace. Autrement dit, bien d'autres planètes aux conditions voisines de celle de la Terre pourraient être porteuses de formes de vie aérobies proches de celles que nous connaissons.

Les hypothèses de l'équipe de Bruce Watson entraînerait donc, en cas de confirmation, une remise en cause ou tout au moins une diversification de la plupart des théories relatives à l'origine de la vie au regard des conditions géochimiques ayant permis son apparition.2). En principe, on devrait pouvoir retrouver très tôt dans la chronologie quelques traces d'organismes aérobies. Mais en pratique, la chose semble impossible pour le moment. Cependant, un direction de recherche différente pourrait fournir des indices précieux en ce sens.

LUCA (Last Universal Common Ancestor)

Il s'agit des recherches destinées à préciser les caractéristiques de notre « dernier ancêtre commun », l'hypothétique LUCA (Last Universal Common Ancestor). Nous avions indiqué dans des articles précédents que les paléobiologistes appellent ainsi un organisme ancêtre commun des trois grandes lignées d'organismes identifiées aujourd'hui, les bactéries, les archées et les eucaryotes (dotés de noyau). 3)

Rappelons, concernant la chronologie en cause, que si selon les estimations récentes, la Terre est vieille de 4,5 milliards d'années (mdsA), de premières traces chimiques de vie sont apparues il y a -3,8 mdsA, des fossiles de cellules pouvant correspondre à LUCA ont été identifiés vers -3,4 mdsA . LUCA pour sa part se serait différencié en bactéries, archées et eucaryotes vers - 2,9 mdsA. Enfin les premiers organismes multicellulaires ne se seraient constitués qu'après - 0,9 mdsA.

Pourquoi dit-on que LUCA pourrait être l'ancêtre commun des bactéries, archées et eucaryotes ? Un article récent de Michael Marshall dans le NewScientist (voir sources, ci-dessous) donne de nouvelles précisions à ce sujet. Selon les hypothèses actuelles relatives à l'origine génétique des premiers organismes, ceux-ci ne disposaient pas, au contraire de leurs successeurs bactéries, archées et eucaryotes, de génomes spécifiques. Or de tels génomes, indispensables à la diversification darwinienne en espèces, interdisent en général les échanges de gènes par transfert 4).

Le milieu originel, celui des océans primitifs, offrait au contraire des conditions permettant l'échange permanent des gènes. On a parlé de « foire aux gènes » ou de « libre-échange des gènes ». Il offrait des ressources vitales en très grande quantité par rapport aux petits effectifs des premiers organismes. Ceux-ci n'étaient donc pas soumis à une pression d'inter-sélection sur le mode décrit par le néodarwinisme. Certes, ils devaient lutter pour survivre, mais ils luttaient davantage contre le milieu que contre leurs homologues.

Pour ce faire, ils ont fait spontanément appel à la coopération, la solution la moins coûteuse. Les gènes pouvaient s'échanger – comme c'est souvent encore le cas en ce qui concerne les bactéries, d'une façon beaucoup plus libre qu'aujourd'hui. Il en est résulté une floraison permanente, non pas comme ultérieurement d'espèces caractérisées par des génomes rigides, mais de ce que l'on pourrait appeler des variétés d'un même organisme. D'où la tentation de considérer ce pool de gènes variant sans cesse comme caractérisant un méga-organisme unique, répandu dans tous les océans, LUCA.

Bien plus tard seulement apparurent les trois domaines d'organismes mentionnés ci-dessus. Ils se différencièrent en s'isolant, sous la pression d'une compétition accrue nécessitée par la diminution des ressources au regard des populations, ainsi que par des spécialisations imposées par la transformation des milieux géographiques. Les archées, anciennement nommées archéo-bactéries, constituèrent sans doute le premier domaine apparu. Elles signèrent la fin du rôle de LUCA en tant qu' ancêtre commun ou universel.

Mais comment caractériser LUCA ? Il semble aujourd'hui possible de reconstituer certains des gènes présents dans ses cellules, à partir d'une analyse des protéines produites par l'expression de ses gènes supposés.. Si certaines protéines paraissent avoir traversé les millions d'années et les espèces en conservant des structures très proches, on pourrait suspecter qu'elles correspondent à des gènes présent dans LUCA. Il s'agirait de véritables fossiles vivants. Or le Pr. Gustavo Caetano-Anollés de l'Université de l'Illinois pense avoir identifié de telles structures, dans une base de données recensant les protéines de 420 organismes modernes.

Cinq à dix pour cent de celles-ci seraient universelles. Elles pourraient donc avoir été héritées de LUCA. Ces protéines auraient pu produire des enzymes capables de fabriquer de l'énergie à partir des nutriments des milieux supposés entre les siens à son époque, soit des nitrates et des composés carbonés. Mais il n'avait sans doute pas d'enzymes capables de fabriquer de l'ADN.

Pour aller plus loin dans la description de la carte d'identité de LUCA, il pourrait être intéressant d'exploiter l'hypothèse évoquée en début de cet article, selon laquelle les milieux origines comportaient des composants oxygénés. Pour ce faire, il faudrait rechercher si LUCA disposait aussi d'enzymes susceptibles d'en tirer parti.

Autrement dit, pour poser la question autrement, des protéines correspondant à cette exigence figureraient-elles dans la liste de fossiles vivants étudiés par le Pr. Gustavo Caetano-Anollés?

Notes
1) On distingue classiquement les organismes anaérobies, vivant sans oxygène, et les organismes aérobies, utilisant l'oxygène dans leur métabolisme.
2)Voir sur ce sujet notre présentation du livre de Nick Lane 'Life ascending" http://www.automatesintelligents.com/biblionet/2010/mar/nicklane.html
3)Voir "Nouveaux nouveaux regards sur la biologie, Carl Woese, Freeman Dyson"
http://www.automatesintelligents.com/echanges/2006/fev/newbio.html ainsi que "Le mimivirus, un monstre prometteur" http://www.automatesintelligents.com/echanges/2006/avr/mimivirus.html
4) Sur le transfert horizontal de gènes, voir notre article http://www.automatesintelligents.com/echanges/2009/fev/darwin.html

Sources
* Institut polytechnique Renneselaer http://rpi.edu/
* Bruce Watson et al. "The oxidation state of Hadean magmas and implications for early Earth's atmosphere" http://www.nature.com/nature/journal/v480/n7375/full/nature10655.html
* Les Zircons http://fr.wikipedia.org/wiki/Zircon
* Michael Marshal « Life began with a planetary mega-organism » http://www.newscientist.com/article/mg21228404.300-life-began-with-a-planetary-megaorganism.html

* Sur l'ensemble de la question, on consultera le Colloque du 11 novembre 2011. Les origines de la vie, .organisé par The Institute of Structural and Molecular Biology (ISMB) . UCL Symposium on the Origin of Life http://www.ismb.lon.ac.uk/origin_of_life.html


Partager cet article
Repost0
30 novembre 2011 3 30 /11 /novembre /2011 17:34

 

 La méthode de conceptualisation relativisée (MCR) . De la physique quantique à l'ensemble des processus de construction des connaissances.
Essai de présentation technique
Jean-Paul Baquiast 30/11/2011


Ce texte complète notre article précédent: Présentation de la méthode MCR http://www.admiroutes.asso.fr/larevue/2011/122/mcr.htm

Pour en savoir plus sur cette dernière, voir :
Mioara Mugur-Schächter, " L'infra-mécanique quantique " Ouvrage au format.pdf accessible en téléchargement gratuit http://www.admiroutes.asso.fr/larevue/2011/115/IMQ.pdf

La méthode MCR résulte d'une réflexion sur la profonde révolution introduite par la mécanique quantique dans les années 1930. Jusque là, la science visait à donner des entités du monde étudiées par elle des descriptions aussi objectives que possible, indépendantes de l'observateur et des instruments utilisés. Il lui fallait pour cela postuler qu'il existait dans la nature des objets existant en soi, indépendamment de tout observateur: par exemple une pierre ou un microbe. La pierre ou le microbe n'attendent pas que le géologue ou le biologiste apparaisse pour exister. Par conséquent, si ceux-ci veulent donner de la pierre ou du microbe des descriptions véritablement scientifiques, ils doivent se débarrasser de toute idée personnelle sur la pierre et le microbe. De même ils doivent utiliser des instruments d'observations aussi neutres que possible par rapport à l'objet étudié. La pierre ou le microbe resteront les mêmes, qu'ils soient observés avec un microscope optique ou un microscope électronique. Seule variera la précision dans la connaissance des détails.

Les scientifiques procédaient donc par itérations successives (nous simplifions):
:
1. ils isolaient au sein de l'environnement observable des objets (tel type de pierre, tel microbe) qui leur paraissaient, à partir de l'idée qu'ils s'en faisaient, mériter une analyse scientifique sur le mode expérimental.

2. ils multipliaient et croisaient les observations portant sur ces objets, en faisant appel à des observateurs de diverses disciplines et des instruments faisant appel à diverses technologies, aussi nombreux que possible.

3. ils en déduisaient une représentation théorique ou modèle de l'objet qui, si les phases précédentes avaient été bien conduites, pouvait être considérée comme aussi proche que possible de l'objet réel étudié. Cette procédure donnait dans l'ensemble satisfaction, lorsqu'elle était appliquée à des objets d'une certaine taille, facilement observables par les organes des sens éventuellement complétés d'instruments. C'était le cas des microbes, déjà mentionnés, certes très petits mais néanmoins visibles au microscope. Ils ont été découverts à la fin du 19e siècle.

Tout a changé lorsque les physiciens ont commencé à étudier des objets dits microscopiques au sens de l'époque, c'est-à-dire invisibles à tous les instruments disponibles. Ce fut le cas des atomes, des particules composant ces atomes, notamment l'électron, ou bien des photons. Les théories physiques postulaient l'existence « réelle » de ces particules, mais il n'était pas possible initialement de les observer une à une. On ne pouvait prouver leur existence qu'en analysant les effets qu'ils produisaient en groupe: courant électrique, rayon lumineux, par exemple. Ces effets étaient cependant différents selon les protocoles expérimentaux et par conséquent selon les préparations auxquelles se livraient les observateurs expérimentateurs.

Bien plus. Lorsque les instruments furent affinés et permirent d'observer les particules une à une, on découvrit que les supposées particules ne ressemblaient à rien d'existant dans la physique des objets de grande taille, dite physique macroscopique. Ainsi l'expérience fameuse des fentes de Young (double-slit experiment) qui fonde encore toute la mécanique quantique, montre qu'une même particule peut se comporter à la fois comme une « vraie » particule et comme l'élément d'une « vraie » onde. Ceci fut appelé la superposition d'état. D'autres effets étranges furent découverts ensuite, par exemple l'intrication.

Plus généralement, il apparut une frontière qui reste encore aujourd'hui infranchissable entre deux physiques, la physique relativiste ou einstenienne, dite elle-aussi macroscopique, postulant que les objets se situent dans un espace-temps calculable, et la physique quantique, pour laquelle l'état (position et vitesse) d'une particule ne peut être calculée avec précision. Il s'agit du principe d'indétermination. Si l'on observe la position de la particule, on ne peut observer sa vitesse. Il est donc impossible de la situer dans un espace-temps de type einstenien. Il faut faire appel à une équation probabiliste dite fonction d'onde. Il en résulte que que pour la physique quantique le temps et l'espace n'existent pas.

Il s'est trouvé cependant que ces deux physiques ont été toutes deux vérifiées dans un grand nombre d'expériences et d'applications pratiques. Citons les lentilles gravitationnelles en astronomie et le laser en physique. Dans les deux cas, on trouve des électrons. Mais dans les deux cas les instruments manipulent les électrons par grandes quantités. A ce moment, les effets d'incertitude disparaissent, faisant place aux « certitudes » permises par l'utilisation des grands nombres. Fallait-il en conclure que le concept d'électron ne correspondait pas à une entité toujours identique à elle-même dans le monde réel? Mais qu'était-ce alors que le réel? Existait-il en soi, indépendamment des expériences?

La plupart des physiciens n'ont pas jugé utile d'approfondir cette question, faute de moyens pour la trancher. Ils en ont laissé la discussion aux philosophes des sciences vite rejoints par les métaphysiciens. « Expérimente et tais-toi » fut le conseil donné aux jeunes chercheurs pendant des décennies. Il l'est encore dans la très grande majorité des cas. Les physiciens théoriciens n'ont pas renoncé à définir des modèles conciliant univers einsteniens et univers quantiques. Mais ces modèles sont aujourd'hui encore non susceptibles de vérification expérimentale. Ils n'ont donc pour le moment qu'un intérêt pratique limité.

La physicienne Mioara Mugur-Schaechter ne s'est pas cependant satisfaite d'une physique dont les applications vont de succès en succès sans que l'on essaye de mieux faire apparaître ses postulats et méthodes théoriques. Le besoin s'impose de plus en plus. Dans des domaines en nombre croissant, avec le développement continu des instruments, les scientifiques se heurtent à ce qu'ils commencent à considérer comme des frontières absolues au progrès des connaissances. C'est le cas en cosmologie, avec le concept de Big bang ou de trous noirs. C'est le cas en physique quantique, avec le concept de vide quantique qui apparaît non pas vide mais empli d'une matière/énergie dont les manifestations ne sont pas prévisibles mais qui peuvent influer sur les phénomènes physiques ou biologiques de notre vie quotidienne. Nous avons dans d'autres articles montré aussi que le mur des connaissances (puls exactement le mur AUX connaissances) apparaît très vite dans de nombreux domaines, la vie, la génétique, la conscience, etc.

Or les postulats épistémologiques dominants, qu'il s'agisse de la physique quantique ou des sciences macroscopiques, ne permettent pas d'améliorer la compréhension de la réalité qui s'imposerait désormais. Pour résoudre cette difficulté considérable, Mioara Mugur-Schaechter a proposé une méthode, baptisée Méthode de Conceptualisation Relativisée (MCR). Elle est inspirée de la pratique des physiciens quantiques, mais pourrait s'imposer dans toutes les sciences et au delà, dans toutes les modélisations du réel faisant appel aux langages déclaratifs. La base de cette méthode consiste à se débarrasser du préjugé selon lequel il existerait un Réel en soi, indépendant des observateurs et des instruments. Ce que les esprits des chercheurs mettent implicitement en s'inspirant de ce préjugé biaise en effet d'emblée leurs recherches ultérieures.

MCR ne postule évidemment pas qu'il n'existe pas de réalité du tout. Ceci mènerait aux voies sans issues scientifiques du solipsisme ou du relativisme. Mais pour progresser, il faut décrire et utiliser, dans tous les domaines scientifiques, les processus complexes par lesquels la physique quantique construit la connaissance. Ces processus associent les observateurs, leurs instruments et la « réalité » sous-jacente inconnaissable "en soi". Dans le cas des descriptions d'objets quantiques (dits micro-états pour ne pas laisser penser qu'ils s'agit de particules « réelles » au sens de la physique quotidienne), ces processus existent et sont utilisés par les chercheurs.

Mais ceux-ci le font si l'on peut dire sans s'en apercevoir et peut-être sans toujours voir la portée épistémologique de leur démarche (« Calcule et tais-toi »). Les processus de recherche demeurent cryptés. Ils donnent lieu à ce que Mioara Mugur-Schaechter a nommé une infra-mécanique quantique. Or selon elle, ils peuvent être explicités, généralisés et développés pour s'appliquer à toute activité de création de connaissances communicables et consensuelles. C'est ce que propose de faire MCR.

La démarche proposée par MCR

L'application de la méthode suppose différents phases, que nous ne décrirons pas ici en détail:

1. postuler que l'objet étudie n'existe pas en soi, d'une façon qui s'imposerait d'emblée à la recherche

2. recueillir les observations que les instruments ou les sens donnent de l'objet étudié. Sans ces observations, aucune science se voulant expérimentale n'aurait de sens. Il n'y a de sciences que de descriptions. MCR les nomme « descriptions de base transférées » (transférées sur les instruments ou dans les cerveaux des observateurs)

3. Construire des modèles à partir de ces descriptions. Ces modèles ne sont pas censés décrire la réalité en soi mais en donner une conceptualisation (ou représentation) relativisée la plus adéquate aux besoins de connaissance, ici et maintenant, ressentis par les observateurs.

4. Les modèles peuvent alors s'enchainer, par méta-conceptualisation, produisant ainsi une représentation globale du monde. Ce métaconcept relativisé du monde décrit donc le monde dans lequel se situent les observateurs, le seul qui leur importe en pratique

5. Etudier la façon dont les cerveaux ou consciences des observateurs utilisent et complètent pour leur part ces méta-conceptualisations. Cette phase est aussi indispensable que les précédentes. Les méta-conceptualisations dérivant des observations ou descriptions de base transférées ne flottent pas dans l'air, mais dans les cerveaux des humains, aujourd'hui aussi dans leurs systèmes de communication et de mémorisation électroniques. Il faut donc préciser en permanence comment les cerveaux (et la subjectivité de ceux disposant d'un tel organe) interviennent dans les phases précédentes. Ils s'en auto-construisent mais ils les construisent en retour.

On voit ainsi que MCR permet de tenir compte, en permanence et de façon aussi rigoureuse que l'on voudra, des mécanismes par lesquels, dans les sociétés modernes, s'élaborent les connaissances. Ainsi se visualisera un dialogue continu entre un réel que l'on se refuse à juger a priori, des expériences, des instruments, des cerveaux humains et des systèmes collectifs de mémorisation et de diffusion.

Le tout participe, selon notre propre hypothèse, à la construction, elle-même relativisée en permanence, de ce que nous nommons des systèmes anthropotechniques, évoluant sur le mode darwinien. Il s'agit, dans les domaines de la science et des technologies, de systèmes reposant principalement, au plan technique, sur l'évolution incessante des technologies observationnelles.

Réponses à quelques questions

Q.1: MCR repose sur un refus du réalisme. Or cette façon de procéder est elle-même refusée par l'immense majorité des physiciens quantiques et des astrophysiciens. Peut-on avoir raison contre tout le monde?

Réponse: Tout dépend de l'échelle à laquelle on se place. Un physicien quantique ne nie pas la réalité pure et dure d'un faisceau laser, analogue à celle d'une table. Il peut donc le décrire en termes de réalisme, inscrit dans l'espace-temps. Mais il admet qu'il ne peut pas décrire un électron ou un photon dans ces mêmes termes – sauf à le préciser explicitement. De son côté, l'astrophysicien s'indignerait à la proposition de décrire le soleil en termes non réalistes, par exemple en faisant appel à une fonction d'onde. Il peut l'observer avec les mêmes outils, mutatis mutandis, qu'il le ferait d'une table. Mais s'il devait essayer d'identifier une à une certaines des particules dont l'agitation thermique définit le soleil, avant leur décohérence, il ferait appel à la fonction d'onde. C'est sauf erreur ce que font certains théoriciens des trous noirs, étudiant leur « évaporation ».

Q2. Comment distinguer les conceptualisations erronées (par exemple identifier des fées dans l'activité des feux follets) de celles participant d'une démarche scientifique?

Réponse: Comme toujours en sciences. Les distinctions ne s'imposent pas a priori. Elles apparaissent progressivement, par la mutualisation des expérimentations et des conceptualisations. Celles qui survivent aux compétitions darwiniennes en résultant peuvent être supposées plus scientifiques que les autres. Mais on doit admettre qu'une science entière puisse se tromper – jusqu'à preuve du contraire.

La question est posée à grande échelle aux cosmologistes théoriciens travaillant dans le domaine de la « théorie » des cordes ou de la gravitation quantique à boucle. Beaucoup de leurs confrères estiment, à tort sans doute (car quelque chose finit toujours par émerger de telles computations) qu'ils perdent leur temps ou l'argent du contribuable.

Q3. MCR n'impose-t-elle pas un luxe de détails inutiles, tant dans les procédures que dans le vocabulaire? Pourquoi par exemple parler de descriptions de base transférées pour désigner la simple lecture d'une température sur un thermomètre?

Réponse: Il faut bien voir d'où l'on vient, autrement dit d'une cacophonie méthodologique mélangeant les approches épistémologiques, conceptuelles, politiques, affectives, d'un grand nombre de sciences et de scientifiques. MCR propose pour sortir de cette babélisation des séquences de processus aussi formalisés, neutres et transversaux que possible. La démarche peut sembler lourde, mais c'est le prix à payer pour faire apparaître des convergences transdisciplinaires.Bien sûr, dans certains cas, les processus pourront être allégés. La démarche d'ensemble demeurera cependant nécessaire. C'est ce que nous avons essayé de monter dans le domaine d'une science éminemment sensible aujourd'hui, la climatologie.

Mais nous pourrions faire une réponse allant plus au fond des choses. Si, tout au long d'une procédure de recherche (formulation d'hypothèses, expérimentation, conceptualisation) on peut identifier, observer de façon critique et comparer les processus et outils impliqués, une évaluation consensuelle de l'ensemble de cette procédure devient possible. Or c'est ce que permettent dorénavant les nouvelles technologies. Citons l'informatisation et l'analyse sémantique des « descriptions de base transférées », des modèles et des conceptualisations; l'analyse des cerveaux et des contenus cognitifs, faisant appel tant aux neuro-sciences opérationnelles qu'à la psychologie évolutionnaire; les études métahistoriques portant sur l'influence des diverses croyances sur les comportement sociaux et vice-versa.

Bref l'épistémologie critique pourrait à son tour devenir une science – en se soumettant évidemment en ce cas aux précautions d'emploi recommandées par MCR.

On plaisantera en disant que l'observateur pourra ainsi observer comment l'observateur observe l'observateur observant, selon l'image de la Vache qui rit proposée en son temps par une marque célèbre de fromages. Mais n'est-ce pas ainsi que, depuis la nuit des temps, et faute de vouloir se référer à des Vérités révélées, ont progressé les « fauteurs » de connaissances? Newton ou Einstein (?) ne disait-il pas qu'il était juché sur les épaules de géants?

Partager cet article
Repost0
26 novembre 2011 6 26 /11 /novembre /2011 17:16

 

Le théorème du jardin
par Christian Magnan

amds.édition 2011

présentation et commentaires par Jean-Paul Baquiast 23/11/2011

article à discuter

 

 

 

Pour en savoir plus
Page Wikipedia http://fr.wikipedia.org/wiki/Christian_Magnan
Pages de Christian Magnan http://www.lacosmo.com/
Présentation du livre sur le site de l'auteur http://www.lacosmo.com/letheoremedujardin.html
On trouve sur les deux derniers sites de nombreux documents qui complètent et illustrent le livre, notamment sous la forme de galeries d'images. Leur consultation s'impose absolument, pour remédier à l'austérité d'un texte qui, pour des raisons d'économie bien compréhensibles, ne fait pas appel aux illustrations ou schémas. .

Voir aussi notre article en date du 20 septembre 2006, toujours d'actualité. Les cosmologistes sont-ils des menteurs? Pour mieux connaître l'astrophysicien Christian Magnan http://www.automatesintelligents.com/echanges/2006/nov/cosmologie.html

 

 


La comète McNaught au crépuscule en janvier 2007. Photo Guillaume Cannat

 

Mise en garde

Nous avons soumis, comme il se doit, une première version 1) de cette article à l'auteur du « Théorème du jardin ». Il a bien voulu nous adresser la réponse suivante:

«  Il m’est impossible de commenter votre article dans le détail. Déjà je vous remercie vivement du temps que vous avez pris pour lire le livre et pour rédiger la page.
Ensuite dans l’ensemble il me paraît très clair (attention ce n’est pas un reproche !) que vous ne faites pas un compte-rendu objectif du livre (est-ce possible ??) mais que vous exprimez des opinions générales, celles que vous a inspiré la lecture de mon livre. Donc il faudrait (à mon avis) annoncer que vous présentez dans cette page web les réflexions que vous a inspirées le "théorème du jardin".

Le « mais » auquel je vais m’attacher dans mes commentaires c’est que vous me faites dire des choses que je n’ai pas dites… et là il faudrait peut-être que vous trouviez une autre façon de présenter les idées. A vous de voir évidemment !
Encore merci de votre travail… nous pouvons itérer le processus mais je vous fais confiance pour la suite. »

Christian Magnan a raison. D'une façon générale, nous n'essayons pas de faire sur ce site de compte-rendu véritablement objectifs des ouvrages présentés. La compétence nous ferait défaut. Aujourd'hui d'ailleurs les compte-rendus « objectifs » des ouvrages un peu saillants ne manquent pas sur le web. Ce qui nous intéresse et intéresse nos lecteurs, semble-t-il, est de présenter une lecture presque « politique » de l'évolution des connaissances scientifiques. Le livre de Christian Magnan étant riche en considérations de cette nature nous a particulièrement intéressé.

Nous avons indiqué à Christian Magnan que, s'il trouvait le temps d'une réponse plus détaillée à notre texte, nous serions heureux de la publier, et nos lecteurs d'en prendre connaissance.



Le nouveau livre de l'astrophysicien Christian Magnan nous paraît remarquable, comme l'est à notre avis son oeuvre toute entière. Précisons d'emblée que ce jugement, comme tous ceux qui vont suivre, nous sont personnels. D'autres membres de la communauté scientifique concernée, sans remettre en cause les arguments scientifiques qu'il évoque, sont très partagés en ce qui concerne les interprétations qu'il en donne. Nous excluons évidemment les critiques venant des scientifiques d'inspiration spiritualiste. Ils sont par définition opposés aux points de vue présentés par Christian Magnan puisque celui-ci ne fait pas appel à une divinité ou un esprit extérieur qui serait responsable de l'organisation de l'univers et qui serait invoqué pour apporter des réponses non scientifiques aux problèmes que la science reconnaît ne pas pouvoir résoudre. Mais, même au sein des astronomes et astrophysiciens se disant matérialistes, il en est un grand nombre qui ne partagent pas les jugements qu'il porte sur les méthodes et possibilités de la science. Il s'agit d'un point fondamental, dont la discussion fera l'essentiel de cet article.

Avant d'aborder ces questions, indiquons à toute personne intéressée par l'astronomie, son histoire et ses perspectives que « Le théorème du jardin » constitue une lecture indispensable. Les ouvrages de vulgarisation abondent sur ce thème très populaire, les actualités scientifiques apportent quotidiennement de nouveaux éléments d'information et de réflexion. Cependant il nous semble que l'on puisse donner à ce livre (et au blog qui l'accompagne) une place privilégiée. Il ne se borne pas à présenter des faits d'observations ou des commentaires que les chroniqueurs scientifiques reprennent d'articles en articles. Il apporte concernant notamment l'histoire des principales découvertes, des détails et des interprétations qui manquent généralement aux travaux de vulgarisation. Certains de ses propos nécessitent d'ailleurs pour être bien compris un minimum de connaissances mathématiques. Il ne s'agit pas à nos yeux d'une critique. L'auteur fait montre ainsi de l'estime dans laquelle il tient ses lecteurs.


Ce faisant, au long des 3 premiers chapitres, il laisse apparaître la critique fondamentale des méthodes et conclusions de la cosmologie moderne qui font son originalité et qui vraisemblablement suscite l'agacement sinon l'hostilité de ses confrères. Cette critique prend toute sa portée dans les deux derniers chapitres, « L'Univers est-il fait pour l'homme? » et « Les dérives de la cosmologie moderne » qui nous intéressent plus particulièrement et que nous allons commenter ici.


L'univers est-il fait pour l'homme? Les cerveaux humains peuvent-ils comprendre l'univers?


Définissons l'astronomie comme la science des objets célestes et l'astrophysique comme l'étude de ces derniers au regard des processus physiques dont ils sont le résultat ou l'illustration. Les deux approches se complètent aujourd'hui. Il faut rappeler cependant que l'astronomie, étude du ciel et des astres, est apparue sous forme empirique au sein des premières sociétés humaines. Plus généralement, toutes les espèces vivantes, sauf celles vivant dans l'obscurité intégrale, se sont adaptées aux rythmes astronomiques. Un certain nombre d'entre elles, par exemple les oiseaux migrateurs, utilisent des repères célestes avec une précision proche semble-t-il de celle de nos premiers GPS.


Il serait donc irresponsable, au prétexte des crises économiques, financières, environnementales contemporaines, de cesser de s'intéresser aux sciences du ciel. D'une part celles-ci sont de plus en plus utilisées par les politiques spatiales civiles et de défense, d'autre part et surtout, comme le montre parfaitement le livre de Christian Magnan, elles continuent à inspirer l'imaginaire et par conséquent les comportements des sociétés actuelles. Bien plus, elles fournissent l'arrière-plan indispensable à toute réflexion de type philosophique sur l'avenir de la vie, de l'homme et de l'intelligence. Elles retentissent donc sur l'existence de chacun d'entre nous. Mais elles véhiculent aussi beaucoup de non-sens et d'inexactitudes, souvent avec l'assentiment sinon la complicité des scientifiques concernés eux-mêmes. Une partie de la mission que s'est assignée Christian Magnan est de mettre ces errements en évidence.


Or Christian Magnan montre avec une grande clarté qu'un grand mythe, inspirant non seulement les religions mais aussi les politiques publiques, n'a pas de fondements scientifiques. Il s'agit de celui selon lequel l'univers serait d'une certain façon organisé pour que les sociétés humaines s'y déploient. Une des conséquences de ce mythe serait que l'univers pourrait, aujourd'hui ou demain, devenir compréhensible par les cerveaux humains. L'expérience tend à prouver le contraire. Une grande partie du livre, évoquant des faits d'observations semble-t-il incontestables, montre que les régularités ou lois que la science pensent pouvoir détecter dans l'univers ne résultent que d'observations ou de généralisations sommaires.

Dans le détail, les processus physiques de toutes natures, à l'oeuvre depuis le Big bang, sont essentiellement turbulents, chaotiques et par conséquent imprévisibles. Aucun astre d'ailleurs ne ressemble à un autre. L'univers est indescriptible par les modèles que nos cerveaux et notre science ont élaboré pour l'étudier. Ceci veut dire que le principe anthropique constamment évoqué par les religions pour mettre en évidence la « main de Dieu » dans la création n'a pas de valeur scientifique. Il en est de même de l'harmonie et la beauté que beaucoup d'astrophysiciens spiritualistes, comme Trinh Xuan Thuan croient pouvoir y détecter. Voir à ce sujet notre présentation du livre récent de celui-ci. 2).


Si l'univers est globalement indescriptible, cela signifie-t-il que les cerveaux humains doivent renoncer à le comprendre en profondeur?. Si nous suivions Christian Magnan dans cette voie, devrions nous en conclure que, pour la première fois dans l'histoire de la science, l'astronomie devrait baisser les bras?. On objectera que si ce postulat avait été évoqué dans les siècles précédents, elle en serait restée au mieux à l'astrolabe.


Mais les arguments avancés par l'auteur sont très forts. Nous ne les reprendrons pas ici. Encore une fois, une lecture approfondie de son livre s'impose. Il en est un autre fourni par les cogniticiens évolutionnistes: le cerveau et les cultures humaines se sont développées pour répondre aux exigences de la survie dans un milieu donné, autrement dit un milieu relativement descriptible par l'interaction entre les éléments de ce milieu et les organes sensoriels ou cérébraux. Si cette interaction devenait impossible au delà d'une certaine échelle de temps et de lieux, le cerveau et les concepts construits par lui deviendraient inutilisables. Mieux vaudrait en prendre acte que s'acharner. Les moyens consacrés à tenter de comprendre l'incompréhensible seraient mieux utilisés s'ils servaient à comprendre le compréhensible.


Cependant, l'incompréhensible d'aujourd'hui ne sera-t-il pas le compréhensible de demain? Christian Magnan semble évoquer à cet égard ce que l'on pourrait appeler une frontière de connaissance qui serait fondamentalement infranchissable. Mais comment préjuger de l'avenir? Comment affirmer que de nouveaux instruments, voire de nouvelles organisations cérébrales (résultant par exemple d'une symbiose entre des cerveaux vivants et des systèmes d'intelligence artificielle) ne pourraient pas étendre le domaine du compréhensible? Christian Magnan, sans évacuer totalement cette hypothèse, répond à cela, si nous le comprenons bien, d'une façon qui surprendra. En fait, selon lui, aujourd'hui, nous connaissons déjà de l'univers, globalement (c'est-à-dire à l'exclusion de multiples détails locaux), tout ce que nous pourrons jamais savoir. Le reste nous échappera toujours, parce que les explorations dans le temps et dans l'espace dont nous aurions besoin pour répondre à des questions se situant au delà de nos moyens instrumentaux et aussi mentaux sont définitivement interdites à des terriens.


Pour lui – et en tant que matérialiste nous le suivons tout-à-fait - la science si elle veut rester scientifique doit reconnaître ses limites. Si elle ne le fait pas, elle laisse parler à sa place toutes les pseudo-sciences et mythologies qui tout en se prétendant scientifiques, fournissent des réponses relevant de l'imaginaire pur ou pire, de l'escroquerie intellectuelle.


Sans aller jusqu'à dire que les grands phénomènes cosmiques seront à jamais incompréhensibles par la science, Christian Magnan donne beaucoup d'exemples ou celle-ci, aujourd'hui, malgré d'ailleurs les prétentions de certains, n'apporte pas de réponses. Citons par exemple les conditions dans lesquelles les nuages interstellaires se condensent en galaxies et/ou en astres. Ce processus qui s'exerça à la naissance de l'univers se répète constamment aujourd'hui, sans qu'il soit clairement compris.


Mais le doute concernant la capacité du cerveau à résoudre, et même à poser les grandes questions concernant l'univers rejoint une interrogation multimillénaire beaucoup plus vaste; comment l'univers (l'espace-temps) est-il apparu? Existe-t-il un au delà ou un infra à celui-ci? Certes, le calcul, comme nous l'avons rappelé, peut proposer des hypothèses. Mais tant que celles-ci ne sont pas vérifiables – ce qui est le cas de la plupart d'entre elles - mieux vaudrait ne pas leur consacrer trop de temps.


La présente discussion se situe ici dans le domaine du macroscopique, plus exactement du macroscopique à dimension cosmologique. Christian Magnan se refuse à étendre ses réflexions à la physique subatomique, autrement dit au monde dit microscopique ou quantique. Mais des questions voisines pourraient être posées. Il en est ainsi des limites de la connaissance. Le cerveau humain pourra-t-il jamais comprendre le monde quantique – autrement que par l'intermédiaire d'approches à grande échelle faisant appel aux probabilités. On sait que Feynman avait affirmé que ce ne serait jamais possible. Or les phénomènes ultimes envisagés par la cosmologie, Big bang, trous noirs, Big crunch, supposent des interprétations inspirées de la mécanique quantique. L'incompréhension s'attachant à celle-ci s'étend à celle qui accompagne la cosmologie. Nous pensons qu'il existe une continuité dans la nature. Même si celle-ci n'appelle pas partout des descriptions de mêmeordre, il paraît difficile d'isoler des domaines en fonction de leur échelle.


Régulièrement de nos jours, les physiciens formulent des hypothèses ou même proposent des expériences qui intéresseraient autant la cosmologie que la physique quantique. Citons deux récents articles dans Nature, l'un selon lequel la fonction d'onde pourrait avoir une réalité physique 3) et l'autre selon lequel les fluctuations du supposé vide quantique pourrait faire émerger des électrons 4). Ces hypothèses pourraient semble-t-il intéresser les conjectures relatives à l'apparrion de l'univers. Encore faudrait-il, évidemment, qu'elles soient vérifiées expérimentalement. C'est loin d'être le cas, concernant notamment la première.


Une communauté d'approche entre la physique quantique et la cosmologie rendrait particulièrement opportune, selon nous, l'extension à cette dernière de la Méthode de Conceptualisation Relativisée de Mme Mugur-Schachter, extension que nous recommandons par ailleurs. Il s'agit de la vaste question du "réalisme" en science, que nous n'aborderons pas ici. On pourra lire sur ce sujet un de nos article récents ( http://www.admiroutes.asso.fr/larevue/2011/122/mcr.htm).


Quittons ce point en évoquant une objection d'ordre logique à l'hypothèse proposée par Christian Magnan, celle selon laquelle le cerveau humain, notre cerveau, devrait admettre ses propres limitations dans la compréhension du monde. Comment un système, quel qu'il soit, pourrait-il sortir de lui-même pour qualifier de l'extérieur ses relations avec son environnement ? Comment pourrait-il, en particulier reconnaître ses incompétences ? Répondons provisoirement que, aussi longtemps que le système émet des messages de blocage interne, il serait raisonnable d'en tenir compte et ne pas lui demander de dépasser les non possumus qu'il signale lui-même à son utilisateur.


Qu'est ce que la science?


Christian Magnan donne de celle-ci une définition tout à fait orthodoxe, en conformité avec les grands postulats de l'épistémologie des Lumières: il n'est de science que lorsque les hypothèses sont validées ou à défaut validables par les expériences, autrement dit non falsifiées ou à défaut falsifiables, selon la terminologie de Karl Popper. En pratique, toutes les disciplines respectent ces postulats. Si elles s'en écartent, on leur reproche à juste titre de faire du roman ou, pire, de tromper sciemment le public en affirmant de pseudos vérités.

Un de nos lecteurs (Jean Villeroux, ancien du CEA) a repris cette définition en des termes très élégants:

« Sur la question de la cosmologie considérée comme une science, je me permettrais les commentaires suivants.
1 - L’univers fait ce qu’il « veut » et nous ne sommes que des spectateurs qui essayons de comprendre avec  les outils de notre intelligence ses mécanismes. La science me semble donc simplement une modélisation de l'univers qui doit être confrontée avec  la réalité pour être validée. Nos certitudes scientifiques ne sont que provisoires car elles peuvent être mises en échec par de nouvelles observations ou le résultat d’observations faites à l’aide de nouvelles expériences. Les nouvelles théories sont de nouveaux modèles à valider, la validation me semblant être la partie le plus importante de la démarche. Un modèle sans validation est peut être un exercice intellectuel excitant pour son auteur, mais pour lui seul ou ses adeptes.

2 - Toutes les théories ne sont que des modèles de notre environnement élaborés par notre intelligence pour au moins dans un premier temps l’utiliser dans notre intérêt  ou au mieux éviter ses inconvénients. La réalité est ce qu’elle est, les modèles sont ce qu’ils sont. Tous les modèles compte tenu de leur complexité ont leur domaine de validité. On peut s’interroger sur les raisons qui font que l’intelligence humaine cherche à modéliser au delà de ce qui est simplement une bonne exploitation de son environnement mais c’est peut être ce qui fait le moteur (peu partagé) du progrès de l’humanité. Les mathématiques sont effectivement une science puisqu’elles comportent à priori la définition formelle d’un mécanisme pour distinguer le vrai du faux.  Gödel a cependant introduit une nuance intéressante qui, malgré la rigueur de l’instrument, montre qu’il existe de l’incertitude. Leur utilisation pour construire des modèles est une aide dans la rigueur de la démarche, mai il me semble que la validation ne peut être qu’expérimentale. L’usage des mathématiques pour construire des modèles et tirer de la rigueur de mathématique une justification absolue de ceux-ci est une escroquerie hélas très répandue dans le domaine financier. « 


Or la cosmologie, depuis quelques décennies, s'est affranchie de cette limitation. Des théoriciens, au prétexte des l'impossibilité pratique d'observer, tenant aux insuffisances temporaires ou définitives de l'instrumentation, ont inventé des modèles susceptibles de répondre à certaines des questions non résolues. Ces hypothèses sont ou risquent de rester à jamais invérifiables. Christian Magnan s'est isolé de la très grande majorité de ses collègues en se refusant pour son compte à cette facilité. De ce fait d'ailleurs, il se coupe de la possibilité de parler à l'imagination du grand public. Pour celui-ci en effet, peu importe qu'une hypothèse soit invérifiable si elle excite l'imagination ou si elle soutient une mythologie à la recherche d'esprits à conquérir.


il a depuis longtemps refusé ainsi de reconnaître comme véritablement scientifiques des hypothèses, a tort baptisé de théories, telles que celles inspirant la théorie des cordes, les supputations relatives au multivers ou même celles posant que l'univers puisse être infini. Les auteurs de ces hypothèses s'appuient sur les ressources des outils mathématiques décuplées par les possibilités de l'informatique. Mais pour lui, cela ne suffit pas à donner un caractère scientifique à ces travaux scientifiques, malgré les dizaines de millions de $ qui s'y engloutissent. D'une part les hypothèses restent dans l'ensemble invérifiables et d'autre part, rien ne permet d'affirmer que l'univers obéisse à des règles mathématiques. Celles ci, rappelle-t-il, sont propres à l'organisation neuronales des humains et ne se retrouvent pas dans la nature, sauf à simplifier outrageusement les observations. De plus, le propre de l'incompréhensibilité fondamentale du cosmos, selon lui, est qu'il ne paraît pas respecter de règles uniformes. Au contraire, comme nous l'avons indiqué, il est désordonné, quelle que soit l'échelle à laquelle on l'observe.


Christian Magnan étend son refus des modèles théoriques invérifiables à des affirmations faisant depuis quelques années les délices des magazines de vulgarisation. Il s'agit de la matière noire ou masse manquante, qui serait nécessaire à la cohésion gravitationnelle des galaxies ou de l'énergie noire qui serait responsable d'une expansion exponentielle de l'univers, prétendument observée. Or pour lui, ces hypothèses, restées à ce jour invérifiées, sinon invérifiables, sont venues d'erreurs dans les observations. Il affirme preuve à l'appui que l'on connait très mal les galaxies et leurs dynamiques. A plus forte raison connait-on mal les distances des « chandelles cosmologiques » utilisées pour calculer les mouvements des astres par rapport à nous. Faire appel à des données manquantes, en s'appuyant sur force considérations théoriques, permet d'éviter l'effort consistant à préciser les conditions d'observations. 5)


L'appel à des hypothèses théoriques permettant de simplifier, mathématiser et informatiser les données d'observation vient de loin. C'est ainsi que fut très tôt postulée l'homogénéité à grande échelle de la structure de l'univers et donc des lois proposées pour en rendre compte. Rien au contraire ne permet de transformer de tels postulats en règles générales. De plus en plus d'observations demandent au contraire de réintroduire dans les modèles différentes possibilités d'accidents.


La littérature récente évoque par exemple le cas de la gravité, qui semble s''exercer de façon modifiée selon les domaines de l'espace étudiés. Il est trop tôt par ailleurs pour dire si les observations actuelles relatives à ce que l'on a nommé des neutrinos supra-lumineux seront vérifiées. Si cela était le cas, il faudrait revoir une partie de la physique relativiste, peut-être aussi une partie de la physique quantique. Il n'y aurait là rien d'anormal, puisque la priorité devrait être donnée aux observations, si les protocoles de celles-ci étaient validées par la communauté scientifique.


On voit donc que des remises en cause de ce que l'on nomme les lois fondamentales de l'univers s'avéreront sans doute nécessaires, au fur et à mesure des progrès apportés par de nouveaux instruments. Cette constatation suffirait à rendre inopérant le principe anthropique fort déjà mentionné selon lequel l'univers aurait été calculé, on ne sait d'ailleurs pas par qui ni comment, pour rendre possible l'apparition de la vie et de l'intelligence. Si ces lois fondamentales devaient être modifiées, par suite d'incohérences observées par de nouveaux instruments, cela montrerait bien le caractère artificiel des modèles scientifiques censés compléter par la théorie l'insuffisance des observations ou l'incapacité de nos cerveaux à rendre compte de celles-ci.

Les cosmologistes théoriciens répondront aux objections de Christian Magnan que l'ambition de modèles mathématiques reposant sur des hypothèses aujourd'hui invérifiables peut pousser leurs confrères cosmologistes observationnels à mettre au point de nouveaux instruments ou conditions d'observation qui pourraient faire avancer la connaissance dans son ensemble. Sans doute. C'est d'ailleurs en partie de cette façon qu'ont progressé les sciences dans les disciplines dites dures.


Mais il faudrait pour cela raison garder, c'est-à-dire ne faire appel à l'imagination, mathématisée ou pas, qu'àux franges du domaine de l'observable et ceci uniquement pour expliquer des incohérences marginales de celui-ci. Construire par la théorie un multivers cosmologique qui ne sera jamais observable est tout aussi peu scientifique qu'imaginer la présence d'humains dans des astres situés aux limites de l'horizon cosmologique. Nous n'en dirons pas de même du multivers quantique qui, lui, relève du caractère étrange (weird) mais inévitable à ce jour de la physique quantique.


Nous pourrions ajouter que le fait d'inventer certaines hypothèses théoriques difficilement vérifiables pour rendre compte de difficultés dans l'explication des observations n'est guère plus scientifique. Christian Magnan ne mentionne pas l'hypothèse de l'inflation , imaginée par Alan Guth pour rendre compte de différents problèmes, dont l'anisotropie du fond de ciel constatée par les satellites observant le rayonnement cosmologique. Aujourd'hui cette hypothèse de l'inflation, que beaucoup de cosmologistes estiment avoir été expérimentalement vérifiée, reste contestée par beaucoup d'autres. Ceux-ci lui reprochent de fournir une solution ad hoc facile évitant d'aborder des problèmes de fond beaucoup plus importants.


L'homme est-il seul dans l'univers?


On peut poser la question sous deux formes; l'homme est-il seul dans l'univers? La vie n'existe-telle que sur la Terre? Dans les deux cas, Christian Magnan apporte une réponse affirmative. Il s'appuie pour cela sur des calculs de probabilité, rapprochant le nombre des tirages au sort favorables qui seraient nécessaires pour que la vie, l'intelligence et l'homme apparaissent, et le nombre estimé des exoplanètes présentant les caractéristiques nécessaires à ces apparitions. Il calcule large à cet égard puisqu'il estime le nombre de ces planètes non à l'échelle de la galaxie mais à celle des cent milliards de galaxies supposées constituer l'univers. Mais même en ce cas, les probabilités d'occurrence restent selon lui infimes, sinon nulles.


Ces considérations ne découragent pas les observateurs à la recherche de manifestations de vie et d'intelligence extraterrestre (SETI). Jusqu'à présent, ils n'ont rien trouvé. Mais des propos récente font espérer que les progrès dans les technologies de détection pourraient permettre d'étudier des planètes situées à de courtes distances au delà du système solaire 6) . On verra ce qu'il en est. La recherche d'extraterrestres, de toutes façons, se poursuivra tant que la science ne l'aura pas radicalement découragée.


Mais comment le pourrait-elle? D'autres arguments, relatifs au fait que nous connaissons mal les conditions d'apparition de la vie biologique ou de formes de vie non biologique soutiennent de telles recherches. On peut penser cependant qu'elles répondent à un désir quasi mystique. Certains scientifiques, ayant renoncé à être accompagnés d'une présence divine, voudraient sans doute de ne pas se croire totalement seuls dans l'univers. Ceci même si la communication physique avec de tels compagnons hypothétiques restait quasi impossible.

La question de la solitude de l'homme dans l'univers est abordée en d'autres termes par Christian Magnan. Ceci d'une façon autrement plus urgente. Il considère, comme nos l'avons évoqué plus haut, que la science est désormais enfermée dans des impasses, du fait d'une fuite dans le virtuel et la course à des publications ignorant délibérément la recherche de preuves expérimentales. Elle ne pourrait donc plus engager les investissements nécessaires pour continuer à approfondir l'étude de l'univers – et a fortiori entretenir la recherche d'existences extra-terrestres.


Lasciate ogne speranza, voi ch'intrate 


Sur ce point, l'enjeu dépasse très largement celui de l'astronomie. Abandonnons donc ici le livre de Christian Magnan pour élargir le regard à l'évolution actuelles des connaissances. Nous développons sur ce site, dans d'autres articles, diverses considérations de nature non directement liées aux sciences astronomiques et astrophysiques. Elles concernent l'avenir des sociétés contemporaines. Toutes ces considérations génèreraient, si on les étudiait sérieusement, un profond pessimisme. En résumant un propos d'ailleurs très répandu, nous dirions que l'humanité, à très court terme, parait engagée dans des voies menant à l'auto-destruction rapide: épuisement des ressources, croissance démographique insupportable, développement des conflits. Ces divers phénomènes paralyseront progressivement les recherches scientifiques, autres que celles supportant des applications militaires et de sécurité. On ne voit pas comment la courbe de dégradation en résultant pourrait s'inverser.


Autrement dit, il ne serait pas nécessaire d'attendre quelques milliards d'années et que le Soleil devenu une géante rouge engloutisse la Terre. Les humains se rassurent au regard de la longueur du délai de grâce qui dans ce scénario leur est ainsi accordé. Mais l'échéance pourrait être beaucoup plus proche.


Un siècle pourrait suffire pour que l'espèce humaine, accompagnée en cela par de nombreuses autres espèces supérieures, disparaisse de la surface du globe. Il ne faudrait pas compter sur des systèmes robotiques pour prendre le relais. La science, de plus en plus aveugle et handicapée, ne pourrait plus alors offrir la moindre perspective de sortie. Elle serait peut-être même devenue incapable de prévoir le pire, nous entretenant dans un aveuglement factice sur ses propres ressources. On voit au contraire comment proliféreront les religions et sectes prétendant apporter aux humains d'autres consolations que celles permises par la science.

Alors la devise que Dante plaçait à la porte de l'Enfer pourrait être reprise par tous ceux s'efforçant, au delà des sentiers battus, d'imaginer l'avenir.


Notes
1) http://www.admiroutes.asso.fr/larevue/2011/122/magnan2.htm
2) http://www.automatesintelligents.com/biblionet/2011/sept/cosmos_et_lotus.html
3) http://www.nature.com/news/quantum-theorem-shakes-foundations-1.9392
4) http://www.nature.com/nature/journal/v479/n7373/full/nature10561.html
5) Les lecteurs de la Revue Sciences et Avenir, supposée éviter le sensationnalisme, seront surpris de lire le titre du n° de décembre 2011: Premiers échos du mondes cachés. Le satellite Planck pourrait détecter des mondes parallèles. Rappelons que celui-ci est en train d'observer avec une meilleure définition l'anisotropie du fonds de ciel. Les observations sont en cours d'analyse. Y voir dès maintenant la trace d'un univers parallèle entrant en collision avec le nôtre paraît relever de l'imagination poétique.
6) http://arxiv.org/abs/1110.6181 Detection Technique for Artificially-Illuminated Objects in the Outer Solar System and Beyond.

Partager cet article
Repost0
20 novembre 2011 7 20 /11 /novembre /2011 17:39

 De la physique quantique à l'ensemble des processus de construction des connaissances
Jean-Paul Baquiast 19/11/2011

 

Ce texte introduira une collection de titres destinés à promouvoir la méthode de conceptualisation relativisée. Pour en savoir plus sur cette dernière, voir :
Mioara Mugur-Schächter, " L'infra-mécanique quantique " Ouvrage au format.pdf accessible en téléchargement gratuit http://www.admiroutes.asso.fr/larevue/2011/115/IMQ.pdf

 

 

 

Résumé

 


Depuis plus d'un siècle s'exerce une critique politique du langage. Il s'agit de montrer que derrière l'apparente neutralité des mots et des syntaxes les pouvoirs dominants se sont toujours efforcés de soumettre les consciences à des représentations du monde servant leurs intérêts. Aujourd'hui, ce décryptage est relativement facile à faire concernant la vie quotidienne. Chacun peut comprendre qu'un terme comme « rigueur » prend des acceptions différentes dans un discours de droite ou un discours de gauche. Mais le décryptage est bien plus difficile concernant les sciences. Les affrontements politiques se dissimulent sous des discours académiques n'encourageant pas la remise en cause. Pourtant, dorénavant, les enjeux économiques et géostratégiques des sciences sont tels que le discours d'autorité y est de moins en moins recevable. Les scientifiques eux-mêmes semblent commencer à le comprendre.

 

 

 

De nouvelles méthodes de construction des concepts ou des lois supposées les relier s'imposent donc. Il faut renoncer à décrire une prétendue Réalité existant en soi, que la science se bornerait à tenter de dévoiler. Il faut admettre que la science, s'appuyant sur les capacités cérébrales et les instruments des scientifiques tels qu'ils sont à une époque donnée, construit une réalité relative. Cette réalité relative doit pouvoir être constamment remise en cause compte tenu de l'évolution des cerveaux et des outils. Mais pour demeurer dans le domaine de la science et ne pas ouvrir la voie à toutes les dérives des pseudo-sciences, dénoncées par le terme de relativisme, cette remise en cause devrait pouvoir se faire dans le cadre d'une méthode ayant fait l'objet d'un consensus suffisant. Aujourd'hui, la physique quantique, dont les réussites technologiques sont généralement reconnues, utilise une telle méthode. Mais elle le fait implicitement et d'une façon qui n'est pas facilement exportable dans les autres domaines de connaissances. La méthode de conceptualisation relativisée (MCR) définie par Mme Mugur-Schaechter, propose d'une part de décrypter les processus de construction de concepts dans le domaine de la physique quantique et d'autre part d'étendre ces processus à tous les autres domaines de recherches.

 

 

 

Ce travail de reconstruction pourra toucher le langage quotidien lui-même. Il fera apparaître la façon dont l'abus de l'argument d'autorité dans la définition des entités de la vie courante dissimule des prises de pouvoirs jusque là cryptées. Cette dissimulation est dorénavant incompatibles avec les exigences de démocratie devant être celles de sociétés comme les nôtres, héritières directes de l'époque des Lumières.

 

 

 

____________________________________

 

 

 

Le langage s'est développé à partir des échanges de signes symboliques assurant la survie du groupe au sein des espèces animales. Celui qui émet un cri spécifique à la vue d'un prédateur, cri reconnu comme alerte à l'usage, met en garde rapidement l'ensemble du groupe. Mais de ce fait il acquiert un certain pouvoir, si bien que ce sont généralement les individus dominants qui deviennent les détenteurs du proto-langage. Tous les autres doivent s'y soumettre. Des millions d'années après l'apparition des premiers échanges symboliques au sein des sociétés animales, on constate que chez les humains, de la même façon, le droit à nommer les choses a été usucapé par les chefs religieux, militaires et politiques. Les concepts et leur organisation en phrases signifiantes ont été élaborés sous le contrôle de minorités oligarchiques. Les populations n'avaient d'autre choix que de les reprendre à leur compte, autrement dit de penser et agir en conformité avec les intérêts de ces oligarchies.

 

 

 

Bien évidemment, avec le développement et la démocratisation de la culture, des critiques ont été formulées très tôt contre le pouvoir des contenus cognitifs imposés par les dominants à travers le langage. Ainsi, dans le domaine de la morale, les philosophes ont montré que derrière des termes comme le Bien et le Mal, des pouvoirs religieux ou politiques puissants s'efforçaient d'imposer une vision des rapports sociaux la plus conforme à la pérennisation de leurs intérêts. Le Bien et le Mal n'existent pas de façon absolu, avec des Majuscules, contrairement à ce que prétendent ceux qui veulent en faire des armes d'assujettissement. Leur contenu, dans une société se voulant démocratique, devrait être défini et redéfini en permanence dans le cadre de ce que l'on pourrait nommer en utilisant un terme moderne des conférences de consensus.

 

 

 

Il devrait en être de même en science. Les concepts scientifiques, même résultant d'une démarche se voulant aussi objective et expérimentale que possible, c'est-à-dire refusant tout argument d'autorité a priori, sont produits et en tous cas utilisés par des groupes d'intérêts dominants. Ceux-ci, délibérément ou non, veulent les ériger en vérités absolues afin de soustraire à la critique les rapports de force dont ils bénéficient et que ces concepts tendent à pérenniser. Cette prise de pouvoir implicite, parfois dénoncée comme une véritable dictature, a toujours existé. Mais elle n'est pas toujours évidente aux yeux des populations, dans la mesure où beaucoup de domaines de connaissances restent encore ésotériques. Les conflits de pouvoir qui se manifestent, à propos du sens à donner à des expressions aujourd'hui largement répandues, telles que « gène », « autisme », « climat » ou « intelligence », ne sont pas encore perçus par le grand public ni même parfois par les scientifiques directement intéressés.

 

 

 

Le rejet contemporain des pseudo-sciences économiques

 

 

 

Aujourd'hui cependant, avec la diffusion d'une crise économique touchant le monde entier, les mots par lesquels les « experts » mandatés par les oligarchies responsables de cette crise veulent la définir, sont de plus en plus rejetés. Si le terme de « croissance » signifie « exploitation sans limites des écosystèmes », si celui de « réforme » signifie « privatisation progressive des services publics d'intérêt général », si celui de « libéralisme économique » signifie « capitulation des Etats devant les entreprises transnationales monopolistiques », le grand public, directement touché par les politiques correspondantes, se rebelle. Les plus modérés veulent au moins obtenir le droit de discuter les fondements théoriques des sacrifices qui leur sont imposés. Autrement dit, ces « Indignés » veulent remettre en cause le contenu des concepts d'une science économique ainsi détournée de la neutralité et de l'objectivité qu'elle prétendait avoir.

 

 

 

Mais ce mouvement de révolte, en train de se généraliser dans le domaine de l'économie politique et des sciences humaines en général, ouvre les yeux de beaucoup de praticiens ou théoriciens des sciences et des techniques, dans tous les autres domaines de celles-ci. Partout, il apparaît que les concepts et plus généralement les corpus de connaissances ont rarement été produits avec la volonté d'en relativiser les résultats afin de maintenir ouvert le débat critique qui est le cœur de la pratique expérimentale. Des résultats expérimentaux provisoires sont généralement érigés en vérités absolues. On affirme en conséquence que la poursuite des expérimentations, l'élargissement des recherches, ne s'imposent plus. Les premiers résultats sont d'emblée présentés comme décrivant un Réel objectif, pour des raisons n'ayant pas grand chose à voir avec l'objectivité scientifique prétendue. Il s'agit le plus souvent de défendre des intérêts géopolitique ou industriels - ceux notamment des pouvoirs qui financent la recherche. Dans les cas les moins nocifs, la critique des concepts et des méthodes est refusée par des instances académiques mandarinales qui voudraient échapper à une remise en question imposée par les jeunes générations.

 

 

 

A l'époque actuelle, caractérisée par la raréfaction des ressources face à des populations en croissance démographique manifestement excessive, il devient vital de faire appel aux potentiels de créativité scientifique et technique abondamment produits par ce que l'on nomme parfois le capital cognitif en réseau. Or ces potentiels sont maintenus en état de sous-emploi ou de chômage en grande partie du fait des « Vérités objectives » que les forces conservatrices s'affirment seules à détenir. La critique scientifique de ces « Vérités » devient donc une nécessité vitale pour des sociétés en danger de disparition, ceci pour débloquer les interdits doctrinaux et ouvrir de nouveaux champs de recherche.

 

 

 

Dans le cas des exemples précédemment cités, il devient ainsi vital de montrer qu'une acception figée des concepts de gène, autisme, climat, intelligence, condamnerait à la stérilité des recherches dans des domaines stratégiques essentiels, tels que les biotechnologies, les neurosciences évolutionnaires, la lutte contre le réchauffement climatique ou l'intelligence artificielle. Ceci ne veut pas dire que ces nouvelles recherches devraient à leur tour produire des résultats qu'il faudrait accepter passivement, comme le prétendent les mouvements d'activistes se proclamant anti-sciences. Cela voudrait seulement dire que les contenus cognitifs pourraient recommencer à évoluer au même rythme que les autres éléments constitutifs du monde contemporain.

 

 

 

Associer relativisme et constructivisme

 

 

 

Pour critiquer des Vérités dites objectives présentées comme absolues, il faut faire montre à la fois de relativisme et de constructivisme. Le relativisme vise à monter que ces vérités étaient liées à une époque et à des intérêts qui ont changé. Le constructivisme vise à monter par quoi et comment remplacer le tout, en restant fidèle aux grands principes de la science expérimentale. Pour cela il faut disposer d'une méthode scientifico-philosophique (une épistémologie) qui respecte strictement ces grands principes. Sinon, le terrain se libère pour les innombrables pseudo-sciences ou religions qui prétendent expliquer le monde en dehors de toute référence scientifique intersubjective.

 

 

 

Il se trouve que la mécanique quantique, convenablement interprétée, fournit les outils nécessaires pour ce faire. Depuis presqu'un siècle maintenant, elle s'est efforcée, avec le succès que l'on sait, de montrer que les concepts de la physique ordinaire, tels que ceux d'onde, particule, principe d'identité, ne suffisaient pas à rendre compte des observations continuellement rendues possibles par le progrès continu des techniques de laboratoire. Il fallait donc les remettre en cause. Cette remise en cause s'est étendue de facto à la cosmologie puisque celle-ci traite de ces mêmes concepts à l'échelle de l'univers tout entier. Mais elle n'a pas encore pénétré les autres disciplines scientifiques, ou un réalisme primaire demeure encore le postulat dominant à partir duquel s'articulent - ou plutôt s'enferment - les nouvelles recherches.

 

 

 

Aujourd'hui cependant la méthode de conceptualisation relativisée (MCR) définie par Mme Mugur-Schaechter, propose d'une part de décrypter les processus de construction de concepts dans le domaine de la physique quantique et d'autre part d'étendre ces processus à tous les autres domaines de recherches. Mais pour convaincre les opinions de l'intérêt d'une telle démarche, il faut procéder à un double effort de communication:

 

  • faire comprendre avec des mots usuels en quoi consiste cette méthode et comment elle pourrait être appliquée aux autres domaines de connaissance.

  • montrer par des exemples concrets que de telles applications sont, non seulement déjà possibles mais en cours. On s'efforcera d'illustrer les bénéfices de tous ordres pouvant en résulter, y compris en termes de démocratisation du processus de construction des langages et des pratiques en découlant.

 

 

C'est un tel objectif que se donne la présente collection.

 

 

 

 

Partager cet article
Repost0
16 novembre 2011 3 16 /11 /novembre /2011 22:15

 

Jean-Paul Baquiast 15/16 novembre 2011

 

Notre confrère Philippe Grasset (DeDefensa.org) ne limite pas son activité de chroniqueur politique, autrement dit d'historien du présent éclairé par l'histoire du passé, à des observations et conclusions susceptibles, en principe, d'être immédiatement vérifiées. Il se projette dans le futur, en élaborant des hypothèses plus ou moins larges mais non immédiatement testables, intéressant l'avenir des évènement et des sociétés qui font l'objet de ses chroniques. Mais ce faisant, il n'a pas l'impression de construire ces hypothèses d'une façon aléatoire ou superficielle. Il est convaincu qu'elles expriment des réalités profondes intéressant les sociétés considérées, échappant à des observateurs ou à des commentateurs enfermés dans le présent. Il parle alors d'intuition, et même d'intuition haute.
 
Pour lui, cette intuition donne la possibilité de sortir des analyses immédiates, souvent superficielles, pour entrer dans le domaine de la métaphysique. Il est tout à fait légitime qu'un historien se livre à des analyses métaphysiques, autrement dit dépassant le champ des observations liées à l'histoire factuelle. De même, il est tout à fait légitime qu'un physicien, au delà de sa pratique de laboratoire, formule des vues métaphysiques dépassant le champ d'intervention de ses instruments. Celles-ci lui permettent soit de conférer un sens philosophique à sa pratique de la physique, soit, plus immédiatement, d'esquisser de nouveaux champs de recherche pour cette même pratique.

P. G. fait de même. On notera qu'il utilise volontiers le terme de Métahistorique qui pourrait être à l'Historique ce que la Métaphysique est à la Physique. L'intérêt inestimable de ses chroniques est qu'elles mettent en évidence et relient les faits et écrits les mieux à même de nous aider, au delà de l'actualité, à tenter de donner des intelligibilités à notre époque.

Cependant, pour les scientifiques se voulant matérialistes (les Britanniques disent « naturalistes »), la métaphysique ne consiste pas à faire intervenir des entités ou des facteurs explicatifs qui sortiraient du champ de la recherche expérimentale. La tentation est grande, chez certains de ceux qui s'essayent à la métaphysique, de remettre en cause le monisme que postule la science matérialiste. Souvent, impressionnés par les contenus pénétrants de leurs propres intuitions, ils n'en attribuent pas le mérite à la puissance de leur propre esprit. Ils envisagent que ces contenus puissent leur être suggérés par l'intervention d'un Esprit non observable expérimentalement, qui interviendrait ainsi dans le cours de leur pensée. Malheureusement, cette supposition se révèle contraire à la démarche prudente qui doit être celle du scientifique à l'égard de ses propres hypothèses: si c'est une entité quasi divine qui parle par ma bouche, l'auto-critique n'est plus de mise. Elle devient en quelque sorte sacrilège.
 
Tout au contraire, pour les matérialistes, éclairés par les découvertes récentes des neurosciences, l'intuition, ou plus exactement la formulation d'hypothèses que le sujet doit ensuite vérifier, constitue la base même de la démarche cognitive. Le système nerveux en général, le cerveau en particulier, sont des machines à formuler des hypothèses intuitives. Ce processus est réparti dans toutes les aires cérébrales et s'accomplit en permanence et à grande vitesse. On montre que, dès le niveau des aires sensorielles, les neurones qui ne reçoivent du monde extérieur que des impulsions électromagnétiques, les assemblent en patterns au sein desquels peuvent apparaître des régularités. Ne sont conservées que les patterns hypothétiques correspondant, soit à des expériences antérieures validées par l'histoire du sujet, soit à des mises à l'épreuve nouvelles s'étant révélées utiles à la survie de celui-ci.

De proche en proche, ceci jusqu'au niveau du cortex associatif, on peut ainsi constater l'apparition (ou émergence) d'hypothèses de plus en plus larges résultant des conflits darwiniens internes au cerveau correspondant à la multiplication des hypothèses et de leurs vérifications expérimentales. Très vite aussi apparaissent des hypothèses qui cessent d'être immédiatement vérifiables, soit qu'elles excèdent les capacités des appareils sensori-moteurs, soit qu'elles engagent le passé ou le futur. Ces hypothèses, bien qu'invérifiables immédiatement, sont vitales pour l'adaptation du sujet à un environnement extérieur changeant en permanence. Mais elles sont traitées selon des procédures particulières. Elles sont mémorisées dans des registres spécifiques, pour être évoquées si le besoin s'en faisait sentir en cas de changement dans le milieu ou dans les modes de vie du sujet.

Notons que pour prendre les décisions relatives à la conservation ou à la mise à l'écart de ces hypothèses, le cerveau ignore ce que nous appelons les processus rationnels, inspirés de la logique formelle. Nous avons mentionné, dans des articles précédents, les travaux montrant que le cerveau utilise des logiques décisionnelles proches de celles utilisées par le calcul quantique. Ceci bien évidemment se fait inconsciemment.
 
Le même processus se déroule au plan collectif. Chaque individu formule des hypothèses sur le monde et les verbalise par le langage. Ces dernières entrent en compétition darwinienne au sein du groupe. Celles correspondant à des expériences collectives avérées sont mémorisées et le cas échéant enseignées. Les intuitions plus générales suivent le même parcours. Ainsi un groupe génère en permanence des intuitions collectives: par exemple celles relatives à des ressources ou des dangers cachés, se trouvant au delà de l'horizon. Les groupes les mieux adaptés exploreront les territoires jusqu'alors invisibles, afin de tirer partie de ce qui pourrait s'y trouver.
 
Mais là encore les humains croient plus volontiers à l'intercession de divinités extérieures qu'au travail créatif de leurs propres cerveaux. De nos jours encore, les hypothèses invérifiables, mais résultant de processus intuitifs particulièrement créateurs, seront généralement reçues comme émanant de puissances ou d'esprits extérieurs au groupe.. Ce seront ces puissances qui seront honorées, au lieu que ce soit les individus ayant eu un cerveau suffisamment inventif pour s'affranchir des lieux communs.
 
Pour progresser dans l'analyse, il faut se persuader d'un point essentiel: les cerveaux ne sont pas capables de se représenter exactement la façon dont ils formulent leurs hypothèses sur le monde. Celles-ci sont produites au terme d'entrées sensorielles et informationnelles extrêmement nombreuses, suivi de processus interprétatifs encore plus nombreux. Le cerveau enregistre la plupart des flux correspondants, mais sa conscience de veille n'en est pas avertie. Tout au plus, après d'ailleurs des délais plus ou moins longs, une représentation globale tardive et synthétique peut émerger au niveau du cortex associatif siège des processus dits conscients, C'est elle qui est verbalisée et qui sert de support à des traitements cognitifs collectifs. Ces traitements peuvent aboutir, soit à des comportements individuels ou de groupe plus ou moins opportuns, soit à des intuitions ou des croyances restant dans l'ordre du symbolique avant d'être à leur tour mise à l'épreuve de l'expérience.
 
Occupy Wall Street
 
Ce long préalable peut nous conduire à mieux comprendre ce que peut signifier pour nous le terme ésotérique de Système, ou l'expression non moins ésotérique de Sortir du Système, très utilisés aujourd'hui. Notre mémoire consciente n'est pas capable de définir avec précision les faits et informations de détail que notre cerveau et plus globalement notre corps évoquent et vivent à l'énoncé de ces deux expressions. Mais notre cerveau et notre corps, que ce soit à titre individuel ou au sein de groupes partageant les mêmes activités et préoccupations que nous, ont engrangé, mémorisé et retraité des milliers et millions d'observations expérimentales ou de descriptions formulées par les uns et les autres, relatives à ces termes et relatées notamment par les médias ou les réseaux interactifs.
 
Les 100 milliards de neurones du cerveau humain peuvent mémoriser un nombre quasi illimité de données individuelles ou agrégées. Autrement dit, rien ne se perd de tout ce que nous enregistrons, non plus que de la façon dont nous en tirons des références cognitives. Mais nous ne pouvons pas retrouver ces contenus par une recherche volontaire en mémoire. Cependant, si l'on pouvait « radiographier » le contenus de nos cerveaux, l'on verrait se dessiner des patterns détaillés et précis correspondant à la signification de ces deux expressions, Système et Sortir du Système. Dans les cerveaux d'un groupe animé d'une volonté commune de nommer le Système, ou d'une volonté commune de sortir dudit Système, l'on verrait de la même façon se dessiner des patterns collectifs détaillés et plus ou moins homogènes permettant de concrétiser ces concepts.
 
On ne peut pas encore, et c'est une bonne chose, scanner les cerveaux. Cependant, dans le feu de l'action, les actes parlent à la place des mots. Aujourd'hui, l'on voit des militants ou plutôt des activistes (ceux qui agissent sans toujours pouvoir expliquer les détails de ce qu'ils font ou voudraient faire), s'engager dans des actions collectives paraissant irrationnelles: occuper Wall Street ou toute autre place publique, par exemple. Ils sont mus par la volonté forte mais non encore rationalisable en termesde moyens, d'échapper aux voies sans issues, salaires à 1 dollar ou chômage, imposées à des populations entières par les maitres du Système, autrement dit les Pouvoirs financiers.
 
A posteriori, lorsque l'on pourra analyser en profondeur les tenants et aboutissants de telles actions, on verra qu'elles étaient et demeurent extraordinairement intelligentes, parfaitement bien adaptées à leurs objectifs comme à l'époque et aux acteurs. Ceci parce qu'elles sont le résultat d'intuitions « hautes » (pour reprendre le terme de P. G.), ayant émergé en partie à l'insu des intéressés dans les cerveaux de ces activistes et de ceux qui les soutiennent.

Pour l'avenir immédiat, on a tout lieu de penser que des processus intuitifs inconscients de cette nature préparent d'ores et déjà les cerveaux des militants à exploiter les premiers résultats qu'ils auront atteints, comme à faire face aux résistances et difficultés que provoqueront nécessairement leurs actions. Nous ne voulons pas dire qu'il faudrait faire preuve d'une confiance aveugle dans des comportements qui paraîtraient inexplicables rationnellement. Il faudrait par contre donner toutes leurs chances à des sagesses politiques se traduisant par des actes symboliques inspirés par une rationalité encore intuitive.  

Post Scriptum au 16.11. 21h.

Les interventions musclées et concertées des polices municipales à New York et autres villes pour faire évacuer les places publiques occupées par les manifestants, ont l'effet prévisible de relancer le mouvement Occupy qui s'endormait un peu. On peut s'attendre à des suites qui seront sans doute fort intéressantes. Tout se passe comme si se déroulait un processus quasi-prérévolutionnaire prévu depuis longtemps par le cerveau global inconscient qui, selon notre hypothèse, anime le mouvement Occupy.

Observons qu'à une toute autre échelle de violence se déroulent en Syrie des manifestations que 100 morts par jour n'arrivent pas à décourager. Si El Hassad tombe, se sera probablement l'ensemble de la zone qui sera remodelée. Ceux qui acceptent de se faire tuer par les chars ont peut-être cette perspective en tête

Partager cet article
Repost0
8 novembre 2011 2 08 /11 /novembre /2011 15:59


Jean-Paul Baquiast 09/11/2011

 


Si l'on privilégie l'hypothèse selon laquelle ce seraient des traits psychiques et comportementaux liés à ce que nous appelons aujourd'hui les troubles mentaux qui auraient accéléré l'évolution des sociétés de sapiens, il faudrait identifier chez ces derniers des gènes liés aujourd'hui encore à de tels désordres, qui ne se retrouveraient pas dans les autres espèces d'hominidés, néandertaliens compris. Ces gènes seraient apparus par mutation chez les seuls sapiens. Généralement liées à des troubles psychiques susceptibles de rendre asociaux leurs porteurs, et donc de conduire à leur élimination, ces mutations auraient du disparaître. Or elles sont toujours présentes aujourd'hui. D'où l'hypothèse que ces gènes étaient et sont encore nécessaires à la compétitivité collective des sociétés humaines. D'où aussi la nécessité, soulignée par certains chercheurs, de ne pas sans précaution tenter aujourd'hui de les éliminer par la généralisation de ce que l'on pourrait nommer le tri génétique (genetic screening).

L'hypothèse dite de la sélection de groupe 1) a été longtemps refusée. Selon le néo-darwinisme strict, le processus de survie du plus apte, au terme des innombrables compétitions, mutations et sélections ayant depuis des milliards d'années fait l'histoire de l'évolution, n'intéresse que les individus. On peut à la rigueur et de façon imagée transposer ce raisonnement aux sociétés ou, plus largement, aux espèces. Il existe indéniablement des groupes plus performants que d'autres qui l'emportent sur leurs concurrents grâce à des avantages qu'ils ont été les seuls à acquérir. Mais en pratique, il n'apparait pas d'équivalent des mutations génétiques qui sont à la base de l'adaptation, puisque par définition les groupes n'ont pas d'ADN collectif. Les groupes et les espèces qui l'emportent sur leurs concurrents ne le font que parce qu'en leur sein sont apparus par mutation et reproduction des individus plus compétitifs ou mieux adaptés qui ont entrainé les autres.

La sélection de groupe a cependant depuis quelques décennies été réintroduite pour expliquer notamment pourquoi certains traits, défavorables aux individus qui en sont porteurs, se maintiennent d'une génération à l'autre au sein de groupes pour qui ces traits apportent un avantage. C'est le cas de l'altruisme, très présent chez les animaux et les insectes, qui conduit certaines catégories d'individus à se sacrifier pour le groupe. Si l'altruisme, comme c'est le cas chez les insectes, dépend d'une disposition génétique, il devrait disparaître avec la mort des individus altruistes, puisque ceux-ci ne peuvent pas transmettre leurs gènes. Or ce n'est pas le cas.

L’idée de base de la sélection de groupe, déjà évoquée par Darwin dans le chapitre 5 de son ouvrage The Descent of Man, est qu’un caractère qui peut être défavorable à un organisme peut néanmoins se développer au sein d’une population s’il confère un avantage à cette population par rapport aux autres. Un mécanisme encore mal élucidé assure sa conservation et sa transmission. La culture, faite des comportements collectifs au sein du groupe, peut assurer sa préservation. Mais l'explication n'est pas recevable dans tous les cas.

Il reste que le concept de sélection de groupe est encore peu utilisé. La réticence à l’admettre provient essentiellement du fait que dans le cadre de la sélection de groupe ce n’est plus l’individu (l’organisme ou plus exactement son phénotype) qui est l’objet de la sélection mais le groupe. Celui-ci est trop complexe et trop mal défini pour que l'on puisse l'observer comme on le ferait d'un individu. De manière générale, le consensus en biologie évolutionnaire est que si la sélection de groupe est un mécanisme plausible, son importance dans le processus d’évolution ne peut qu'être mineure.

Dans le cas des sociétés humaines, on admet généralement que si les sociétés d'homo sapiens ont progressivement supplanté les autres espèces et groupes sociaux tant de primates que d'hominidés, elles l'ont fait grâce à des acquis culturels, notamment l'invention et l'emploi systématiques d'outils et d'armes améliorés. Mais des recherches anthropologiques récentes semblent montrer que les comportements novateurs qui en sont la source semblent découler de la présence de gènes provoquant en général des désordres psychiques susceptibles de rendre asociaux voire dangereux les individus qui en sont porteurs. Ceux-ci auraient donc du être éliminés par les sociétés et les gènes responsables disparaître. Or au contraire, ceux-ci se sont maintenus et sont encore bien présents aujourd'hui. Il doit donc exister une cause à ce paradoxe.

De nombreux exemples tirés de l'étude d'une préhistoire vieille de quelques dizaines de milliers d'années, semblent prouver l'existence d'une co-évolution entre certains troubles psychiques et ce que l'on nomme généralement le progrès humain. Les effets positifs de ces troubles l'ont emporté dans la sélection naturelle sur leurs effets négatifs – à la nuance près que ce progrès n'est pas exempt d'aspects eux-mêmes négatifs puisqu'il provoque de nombreux comportements rattachables à ce que les moralistes définissent comme le mal, généralement absents chez les animaux.

S'appuyant sur ces constatations, certains généticiens attirent aujourd'hui l'attention sur les risques que prendraient les sociétés actuelles en tentant d'éliminer par sélection prénatale les gènes associés à la schizophrénie et à l'autisme. On objectera à juste titre que ces troubles sont encore mal définis, de même d'ailleurs que les gènes éventuels susceptibles de les induire. Qu'est-ce exactement que l'autisme? Quels sont les gènes ou associations de gènes qui le provoquent, si origine génétique il y a? Mais la question soulevée n'est pas là. La question est plus profonde. Elle consiste à se demander si les troubles en question ainsi par conséquent que les individus affectés, auraient été et demeureraient-ils encore utiles ou non à l'évolution de nos sociétés. Si oui, est-il prudent de tenter de les neutraliser par diverses mesures, de mise à l'écart concernant les individus, et d'une sorte d'eugénisme prénatal concernant les embryons.

Sur ce dernier point, Simon Baron-Cohen, directeur du Centre de recherche sur l'autisme à l'université de Cambridge, pense qu'inactiver tous les gènes susceptibles de prévenir l'autisme pourrait priver l'humanité d'attributs lui ayant permis de se distinguer des autres espèces, ceci depuis les origines de l'hominisation. La tradition a toujours affirmé que la folie et le génie avaient partie liée. Mais au delà de cette constatation d'ordre général, on a pu récemment montré que des personnes présentant certaines formes non paralysantes d'autisme se révélaient mieux douées que les autres pour la systématisation, l'imagination symbolique, la créativité scientifique. Un certain nombre de grands découvreurs, de Newton à Einstein, ont été a postériori présentés comme porteurs d'autisme.

Il en est de même d'autres formes de troubles psychiques, lorsqu'ils se manifestent de façon atténuée, c'est-à-dire sans mettre en danger les porteurs et la société. C'est le cas des troubles dits bipolaires (psychose maniaco-dépressive) et de la schizophrénie, s'ils se limitent à des délires bénins ou passagers. Ceux-ci ont été depuis longtemps évoqués pour expliquer l'apparition de diverses formes d'innovation en rupture avec les comportements routiniers. L'on savait depuis longtemps que les artistes et créateurs font montre, à titre au moins épisodique, de comportements permettant généralement de diagnostiquer la schizophrénie: hallucinations, neurasthénie, sautes d'humeur, difficulté à se concentrer. Les mêmes traits peuvent être identifiés chez les grands dirigeants, hommes politiques ou chefs d'entreprises. On peut aussi leur associer, sans que la déviation soit aussi criante et meurtrière que lorsqu'elle se manifeste chez les dictateurs ou les prophètes au service de religions de combat, des comportements et idées relevant de la paranoïa. On notera cependant que si le succès social récompense ces personnes, il peut aussi s'accompagner d'une grande

Si l'on regarde le passé, des constatations analogues semblent s'imposer. L'anthropologie préhistorique, comme nous l'avions nous-mêmes rappelé dans notre essai « Le paradoxe du sapiens », peut difficilement expliquer sans recourir à de telles hypothèses l'apparition subite chez l'homo sapiens de formes innovantes d'outils et d'armes, après des centaines de milliers d'années de quasi stagnation. Il en est de même pour l'art dit des cavernes tel qu'il nous est parvenu. On ne voit pas comment sans de véritables hallucinations les premiers créateurs auraient pu tirer de leur cerveau les graphismes spectaculaires que nous admirons.

Des pratiques faisant appel à des plantes hallucinogènes identifiées aujourd'hui encore chez les derniers chamans pourraient expliquer ces inventions révolutionnaires. Mais pourquoi des dispositions génétiques nouvelles n'auraient-elles pas poussé les homo sapiens à découvrir et utiliser ces plantes, ce qui ne semble pas être le fait des animaux? L'addiction fréquentes aux drogues végétales chez ceux qui se veulent aujourd'hui créateurs pourrait découler de ces mêmes prédispositions.

Bref l'ampleur des bouleversements civilisationnels apportés par les homo sapiens à partir de leur apparition il y a quelques 200.000 ans ne paraît explicable que par des mutations génétiques particulières, induisant ce que nous appelons aujourd'hui des troubles psychiques et dont les autres hominidés n'auraient pas été le siège. Ces mutations seraient, comme toutes les autres, apparues par hasard et auraient été conservées du fait des avantages compétitifs qu'elles permettaient.

Des mutations génétiques

En pratique, les généticiens pensent avoir identifié un certain nombre de gènes associés à la production de médiateurs, tels la dopamine, ou la prédisposition de troubles tels que ceux mentionnés, ci-dessus, l'autisme, désordre bipolaire et schizophrénie, qui ne se trouvent que chez l'homo sapiens moderne. Un article 2) de Kate Ravilious dans le NewScientist du 07/11/2011 en donne quelques exemples, que nous ne reprendrons pas ici. Ces gènes étaient-ils présents chez les premiers homo sapiens, alors qu'ils ne l'étaient pas chez les autres hominidés, tels l'homo erectus et l'homo néandertalensis, pourtant capables de certaines performances technologiques et culturelles les distinguant des autres primates. La réponse semble affirmative.

Il est encore difficile et risqué de définir le profil génétique d'espèces disparues, soit par analyse des fossiles soit par séquençage rétroactif des génomes. Cependant les progrès sont rapides en ces domaines et tout semble confirmer l'hypothèse que nous résumons dans cet article. Les chercheurs imaginent, pour expliquer que les individus atteints de formes féconde d'autisme ou de schizophrénie aient été supportés, sinon encouragés par leurs contemporains, malgré les comportements hors normes voire violents qu'ils manifestaient sans doute par ailleurs, que parallèlement se sont développées dans les sociétés considérées de nouvelles formes de tolérance ou d'empathie à l'égard des déviants. Cette tolérance avait toute raison de s'exercer lorsque ces déviants apportaient au groupe des innovations que chacun était à même d'apprécier. C'est ainsi qu'aujourd'hui on tolère encore de véritables accès de pathologie mentale chez des chefs capables par ailleurs d'inventer les meilleurs solutions de survie pour l'entreprise ou le pays.

Il est possible de disserter à l'infini sur les liens possibles entre l'anormalité (telle que définie à une époque donnée) et le génie. Où commence l'anormalité? Que faut-il faire pour préserver ou susciter le génie? Ces questions sont très théoriques et peu susceptibles de recevoir des réponses immédiatement transposables en termes de normes socio-politiques. Elles permettraient cependant de regarder avec un oeil neuf le psychisme des hommes politiques actuels, notamment lorsqu'ils sont en charge de responsabilités importantes. Les études historiques ont multiplié les exemples de rois, dictateurs, tyrans, prédicateurs manifestement rendus dangereux ou inaptes par des formes plus ou moins reconnues de démence. Ils sont d'autant plus dangereux qu'ils induisent par sympathie des démnces analogues dans les populations. Mais qu'en est-il aujourd'hui?

Il paraît indéniable que les enchainements de crises aiguës comme celles qui affectent le monde depuis 2008 mettent fortement à l'épreuve le psychisme des dirigeants. Les cas en sont sans doute plus fréquents aujourd'hui que lors des guerres et des révolutions du passé, car la société technologique et de communication ne permet plus aux responsables de s'isoler afin de se protéger.

On constate ce phénomène ces temps-ci en voyant comment se dégradent rapidement les qualités de jugement et de décision des chefs de gouvernement après quelques mois d'exercice du pouvoir en période de crise. Certes, il faut déjà un égo très renforcé sinon quasi-délirant, pour s'engager, souvent très jeune, dans les parcours d'obstacles visant à l'exercice des responsabilités politiques suprêmes. Cependant certains chefs d'Etat ou de gouvernement, ayant passé les premières épreuves de l'élection, se comportent de façon très inégale devant les difficultés lorsque celles-ci s'accumulent. Certains, saisis par une sorte d'abris, se montrent capables de décisions susceptibles de changer l'histoire – dans le sens de la survie. de leur pays. D'autres se révèlent progressivement incapables de surmonter les épreuves. Ils entraînent leur pays et parfois le monde dans des choix de plus en plus inadaptés.

Les exemples de personnalités bénéfiques, qui dans la vie courante précédente se faisaient qualifier d'hors normes, autrement dit d'infréquantables, sont rares. On pourrait citer Winston Churchill ou Charles de Gaulle. Aujourd'hui, on n'en voit guère. Il est à l'inverse beaucoup plus facile de constater les baisses de régime sinon les effondrements de personnalités qui s'étaient fait une réputation de chefs sauveurs et qui ne résistent pas à la pression des obstacles. Le grand public ne s'en aperçoit que rarement mais les proches conseillers de ces dirigeants le constatent et parfois le font savoir. C'est ainsi selon certains rapports que Barack Obama serait ces derniers mois devenu à la fois irritable, dépressif et porté aux mauvais choix, tout le contraire du personnage raisonnable et sous contrôle qu'il semblait être encore deux ou trois ans auparavant.

On serait tenté dans ces conditions de penser que les peuples, même à travers le nivèlement imposé par le jeu démocratique, préféreraient des dirigeants encore plus autistes et schizophrènes qu'ils ne le sont naturellement, s'ils puisaient dans ces sortes de folies le génie capable de supporter les stress et proposer des choix salvateurs. Ce ne serait en tous cas pas dans le recours à une raison ordinaire que de tels dirigeants trouveraient l'inspiration nécessaire.


Notes
1) Sélection de groupe http://fr.wikipedia.org/wiki/S%C3%A9lection_de_groupe
* Voir aussi Jean-Paul Baquiast. A propos de la sélection de groupe http://www.automatesintelligents.com/echanges/2006/nov/groupselection.html
2) Kate Ravilious, Mental problems gave early humans an edge http://www.newscientist.com/article/mg21228372.000-mental-problems-gave-early-humans-an-edge.html?full=true


Partager cet article
Repost0
5 novembre 2011 6 05 /11 /novembre /2011 22:13


Jean-Paul Baquiast 05/11/2011


La croissance démographique, même ralentie, est inéluctable. Faut il faire silence sur les difficultés qu'elle provoquera ?


Les médias mondiaux ont célébré symboliquement le 31 octobre 2011 la naissance du 7 milliardième terrien. Aux incertitudes de la statistique démographique près, qui sont considérables (quelques dizaines voire quelques centaines de millions d'individus en plus ou en moins) cette naissance aurait eu lieu dans un des pays où la densité est la plus forte, Inde ou Indonésie. A cette occasion ont été rappelées deux estimations importantes, provenant de l'ONU (United Nations Population Division) La croissance démographique, bien que se ralentissant, le fait moins vite que prévue. Ceci conduirait à une population mondiale d'au moins 10 milliards vers 2050. Le continent africain ressentirait bien moins que les autres les effets du ralentissement – que l'on désigne par le terme de transition démographique - si bien que la population y atteindrait 2,5 milliards à cette date, sinon davantage.


Nous n'allons pas présenter et moins encore discuter ces chiffres ici. A qui n'est pas un démographe professionnel, les sources recensées par Wikipedia, référencées ci-dessous, suffisent largement pour ce faire. Nous voudrions plutôt nous interroger sur les conséquences susceptibles d'en être tirées en termes de prospective sur l'avenir du monde, celui de la Terre- écosystème en général, et celui de l'humanité au sein de celle-ci.


Ces questions devraient être au coeur des préoccupations de ceux qui évoquent, à titre officiel ou bénévolement, la gouvernance mondiale – plus précisément les mesures susceptibles d'être adoptées par les gouvernements, soit de leur propre chef, soit à l'instigation des organisations internationales, ONU, FAO, OMS, notamment pour prévenir les difficultés à venir. Or on vient de constater que le dernier G20, bien que n'étant pas officiellement une organisation intergouvernementale, s'est borné à évoquer les spéculations sur les matières premières agricoles, sans proposer d'ailleurs aucune mesure susceptible d'empêcher leurs effets aggravants.


Les données actuelles, tant de la démographie que de l'économie et de la géopolitique, paraissent claires. Certes, un grand nombre d'arguments sont couramment évoqués pour atténuer le sens susceptible de leur être donné. Nous y reviendrons. Mais globalement, les chiffres mettant en relation la population et les ressources montrent qu'aujourd'hui, les 7 milliards d'humains sont déjà trop nombreux pour les ressources disponibles. Un à deux milliards d'humains vivent en dessous du seuil de pauvreté défini par l'équivalent d'1$ par jour. Cinq cent millions sont en état de famine chronique ou aigüe.

Certes les ressources, notamment agricoles, pourraient être d'une part augmentées, d'autre part mieux réparties. Mais l'augmentation supposerait des investissements considérables pouvant se traduire par la destruction des derniers milieux naturels. Quant à une meilleure répartition, elle supposerait que les habitants des pays riches acceptent de transférer vers les pays pauvres une grande partie des ressources qu'ils consomment. En pratique, c'est-à-dire au delà du discours, aucune de ces deux solutions n'a de chance d'être envisagée.


Sur le demi-siècle à venir, les perspectives ne devraient que s'aggraver. On ne perçoit pas, compte tenu, des connaissances actuelles, de progrès scientifique ou technique envisageable, tout au moins à l'échelle permettant de nourrir 10 à 12 milliards d'hommes. Les solutions étudiées en laboratoire peuvent être théoriquement séduisantes. Mais leur mise en œuvre au plan de continents entiers ne serait pas faisable dans des délais et à des coûts acceptables. Par ailleurs, compte tenu d'une raréfaction croissante des ressources et des peurs qu'elle suscitera, on peut douter que les mesures faisant appel au partage se mettent en place plus spontanément à l'avenir qu'aujourd'hui. Si partage il y a, il se fera par la contrainte, c'est-à-dire par la guerre et la conquête.


Diminuer les effectifs?


Une conclusion brutale devrait donc être tirée des considérations qui précèdent. Sans renoncer évidemment à l'augmentation de la production vivrière et aux transferts des pays riches vers les pays pauvres, il faudrait impérativement limiter la croissance de la population voire dès maintenant en diminuer les effectifs. Mais comment procéder? En théorie, même dans les pays qui n'assurent plus le renouvellement de leurs générations, comme l'Allemagne et la Russie, il devrait encore être possible de diminuer les naissances sans que la société ne s'effondre. Pendant un demi siècle cela se traduirait par une pyramide des âges déséquilibrée, avec un taux excessif de personnes âgées, mais à terme un équilibre se rétablirait, le nombre des productifs, même réduit, deviendrait suffisant, compte tenu notamment des progrès de productivité, pour entretenir la société.


Mais de telles mesures, comme l'a montré la politique courageuse de la Chine dite de l'enfant unique, sont très difficiles à appliquer et finissent par être détournées. De plus, beaucoup de sociétés sont confrontées à une surnatalité bien supérieure à celle de la Chine et seront encore moins qu'elle capables d'assurer une stabilisation sinon une réduction des naissances.


On doit mentionner aussi en ce domaine le poids des convictions politiques ou religieuses pour qui une forte natalité, une densité élevée de jeunes facilement mobilisables, reste une source de puissance au profit des pays qui en jouissent. Par conséquent la plupart des mesures visant à limiter les naissances sont refusées. C'est au contraire le vieux principe du "Croissez et multipliez vous" qui continue à s'appliquer, quelles qu'en soient les conséquences sur les écosystèmes et sur la survie de l'humanité.

Faire silence

La tradition nataliste, renforcée par des impératifs religieux, est si ancrée dans le monde que, même en Europe, il semble difficile d'évoquer sereinement les données que nous venons de rappeler ci-dessus. Une série d'arguments différents sont présentés pour affirmer que le problème que nous venons de résumer, soit ne se pose pas, soit doit être passé sous silence. Les uns sont scientifiques ou se donnent une apparence de scientificité. Les autres relèvent du domaine moral, parfois d'une agressivité mal dissimulée.


Le plus convaincant en apparence des arguments scientifiques est celui dit du précédent. Selon cet argument, il y a deux siècles, Malthus prédisait déjà l'insuffisance des ressources face au développement de la population. Or l'histoire l'a démenti. Il ne faudrait pas refaire l'erreur du célèbre économiste. Mais ce raisonnement ne tient pas. Il faut au contraire rappeler que nous ne sommes plus au temps de Malthus. Autrement dit, aucun événement encore insoupçonné ou insoupçonnable aujourd'hui ne viendra desserrer l'écart qui se resserre entre la croissance démographique et celle de la production.


Espérer qu'uns solution salvatrice apparaisse relève de la croyance au miracle. Au contraire, tous les indices disponibles font craindre le pire: c'est-à-dire que des facteurs aujourd'hui encore marginaux s'aggravent subitement. L'éventualité la plus probable serait à cet égard une accélération en chaîne du réchauffement climatique et de ses diverses conséquences destructrices.


Les arguments de type moraux conduisant à ne pas évoquer les conséquences de la croissance démographique sont bien plus acceptables et populaires. Ils séduisent un nombre considérable de personnes, quels que soient les niveaux de vie, les appartenances culturelles, les convictions philosophiques ou religieuses. Le plus convaincant de ces arguments est qu'il faut préférer un déni de réalité (refuser d'admettre que la croissance démographique pose de graves problèmes) à un réalisme pouvant conduire à opposer les humains les uns aux autres. Selon cette position, à supposer que l'on ne puisse rien faire pour éviter des conflits et catastrophes futures découlant de la surpopulation, il vaut mieux ne pas en parler. Ceci éviterait un risque immédiat tout aussi grand, tel que dresser les riches contre les pauvres ou les Blancs contre les Noirs. Il sera bien temps de prendre des mesures difficiles, se traduisant inévitablement par des affrontements, lorsque l'urgence l'imposera. Pourquoi sinon ne pas commencer par tuer tous les aïeuls?


L'empathie


Dans une vision optimiste de la politique, on pourrait attribuer à une empathie à l'égard des plus pauvres ce refus d'accepter ce qu'un minimum d'esprit scientifique présente comme une évidence. L'empathie (c'est-à-dire la capacité de souffrir avec) semble quasiment inscrite dans les gènes, comme d'ailleurs son opposé, la défense forcenée des territoires et des privilèges. Il faut empêcher, dans un souci d'ailleurs égoïste de paix civile, que puisse se réveiller cette dernière au détriment de la première. A tous égards, mieux vaut l'empathie – même si elle reste gratuite, c'est-à-dire dans le cas abordé ici n'entraînant aucune augmentation significative des aides au tiers-monde.

Il est certain qu'une image comme celle ci-dessus peut être porteuse de deux sens au moins: l'attendrissement devant une petite famille bien innocente et l'exaspération à constater comment certaines sociétés, incapables d'assurer un minimum de contrôle des naissances, continuent à entraîner le monde dans la catastrophe démographique.


Chez ceux qui laisseront parler l'exaspération se réveilleront le racisme et le refus de l'étranger latent chez chacun d'entre nous. Il en découlera des conséquences immédiates plus graves que les conséquences différées d'un trop plein de populations africaines ou asiatiques. Mieux vaut alors censurer l'image et, en tous cas, faire le silence sur les problèmes de gouvernance mondiale globale qu'elle suggère. Nous ne la publions pour notre part ici qu'au terme d'une discussion proposée au lecteur, discussion qui serait susceptible d'atténuer ses effets négatifs, plutôt qu'en tête d'article, avant toute considération émolliente.


Que faire alors, dira-t-on, étudier ou ne pas étudier la croissance démographique et ses conséquences. Si l'on pense que des déterminismes profonds pilotent l'évolution de ce que nous appelons l'anthroptechnocène, mieux vaut, plutôt que se taire, étudier et discuter problèmes et remèdes possibles, tels du moins qu'ils apparaissent ici et maintenant, hic et nunc. Les capacités du système cognitif réparti que constituent les humains et leurs machines devraient s'en trouver accrues. Mais croire que le sort du monde en sera changé serait faire preuve d'un étrange optimisme.


Note
On pourra sur ce dernier point se référer à l'article « Débat sciences et citoyens » édité sur ce site et aussi sur http://www.admiroutes.asso.fr/larevue/2011/122/calame.htm


Sources Wkipedia
* Population mondiale.

* Prospective démographique.

 

Partager cet article
Repost0
4 novembre 2011 5 04 /11 /novembre /2011 15:23

 

 

 Ce texte résume l'esprit de l'intervention que je compte faire lors d'un prochain débat consacré aux relations entre la science et les citoyens. Le prétexte en est un livre de Matthieu Calame, « Lettre ouverte aux scientiste. Alternatives démocratiques à une idéologie cléricale » 1) qui dénonce l'idéologie scientiste régnant en sciences.

 

 

 

Introduction

 


1. Le livre de Matthieu Calame dénonçant ce qu'il nomme l'idéologie scientiste régnant en sciences 1) se justifie tout à fait au regard de l'expérience professionnelle de l'auteur. Il est bien placé pour constater les pressions qu'exercent sur les producteurs, les consommateurs et les Etats les firmes de l'agrotechnologie pour imposer leurs solutions. Sous couvert de certitude scientifique, le recours aux OGM, semences, entrants fabriqués par ces firmes devrait s'imposer sans discussions. Ceci même si les utilisateurs doivent pour ce faire devenir clients obligés d'entreprises mondialisées monopolistiques (TNC, voir ci-dessous) cherchant à interdire le recours à des solutions plus traditionnelles.

 

Le livre s'inscrit dans une lutte déjà longue contre le pouvoir de l'agro-business. Il mérite donc à ce titre d'être commenté. Sans rien retirer à l'intérêt du propos, j'aimerais cependant souligner que les scientifiques appelés en avocats par ces firmes relèvent le plus souvent de la catégorie des « experts » généralement financés par lesdites. D'une part à ce titre, s'ils usent de l'argument d'autorité, c'est plus en faveur des applications technologiques que des recherches scientifiques fondamentales. D'autre part, même s'ils invoquent les « certitudes » de la connaissance scientifique, ils s'adressent, au moins en Europe, à des « citoyens » particulièrement réactifs qui ne s'en laissent pas compter.

 

 

 

La même constatation pourrait être faite concernant d'autres technologies elles-aussi socialement contestée: le nucléaire, la surveillance via les réseaux, les systèmes d'armes intégrés, etc. J'y reviendrai ci-dessous.

 

 

 

2. En ce qui concerne les dangers du cléricalisme en sciences, le livre et les commentaires qui en sont faits minimisent un tout autre cléricalisme, bien plus stérilisant. Il s'agit de celui imposé par les religions. Celles-ci ne se bornent pas à proposer leurs interprétations des résultats de la science, elles cherchent à imposer les domaines et les conclusions des recherches. De plus en plus, elles voudraient interdire directement certaines de celles-ci, Les deux principaux systèmes politico-religieux utilisant ces procédés pour conquérir les esprits et le pouvoir sont le protestantisme évangélique anglo-saxon et l'islam, sous ses différentes formes.

 


Concernant le premier, de plus en plus de citoyens se mobilisent pour défendre la liberté dont doivent bénéficier les scientifiques. Les menaces viennent désormais des représentants politiques au plus haut niveau 2). Concernant le second, règne au contraire une complaisance qui ne s'explique, dans nos pays, que par des calculs électoralistes d'un autre genre. Au regard de ces dangers véritables, dont souffrent des milliards d'humains condamnés à l'obscurantisme (tel que le définit la culture des Lumières), le cléricalisme dénoncé par Matthieu Calame paraît anodin.

 

 

 

Ceci posé, je pense que la question du rôle des citoyens, des chercheurs et des « experts » au sens entendu ci-dessus, mériterait d'être examinée au regard d'analyses transversales plus générales. Elles intéressent à ce titre la question de la complexité sous-tendant les présents débats. Plusieurs approches parallèles et entrelacées pourraient être utilisées: l'approche socio-économico-politique, l'approche anthropotechnique, l'approche mémétique. Ces 3 approches, comme d'autres non mentionnées ici, ne sont pas mutuellement exclusives. Elles doivent au contraire être superposées. Je me limiterai ici à quelques indications.

 

 

 

Approche socio-économico-politique

 

 

 

En tant que chroniqueur politique, j'ai suivi les développements de la grande crise financière éclatée en 2008 avec la question des subprimes. Celle-ci n'a surpris que ceux n'ayant pas su voir depuis déjà quelques années qu'avec la prise de pouvoir par ce qui a été nommé un capitalisme devenu fou, le monde avait véritablement changé d'ère. Dans tous les pays, y compris aux Etats-Unis, des économistes réduits à l'anonymat par la pensée dominante avaient pourtant dénoncé ce qui se préparait.

 

 

 

Sous une forme résumée que l'on qualifiera sans doute de schématique voire partisane sinon conspirationniste, je dirais que les sociétés contemporaines sont désormais dirigées par une triple minorité d'oligarchies (on parle désormais de plus en plus des 1% opposés aux 99%). Il s'agit des sociétés transnationnales (TNC en anglais pour transnational corporations), des systèmes gouvernementaux désormais sous contrôle des précédentes (on parle parfois de corporatocraties), et des grands médias, également sous contrôle.

 

 

 

L'ensemble fonctionne comme un vaste superorganisme, un Système de système, dont les agents sont en interaction. Il évolue d'une façon globalement autonome, indescriptible dans sa totalité, imprévisible et par conséquent ingouvernable. Certaines recherches s'efforcent cependant de commencer à la modéliser 3) .

 

 

 

Les micro-pouvoirs dont peuvent disposer tant les scientifiques que les citoyens dans le développement des sciences et technologies contemporaines sont à évaluer en fonction des champs de méga-forces constituant cet environnement. On ne doit pas sous-estimer leurs capacités d'autonomie, mais on ne doit pas les sur-estimer.

 

 

 

Approche anthropotechnique

 

 

 

J'ai personnellement désigné ainsi, dans un livre peu lu 3) mais aussi dans des articles sur internet bien plus commentés, des « complexes » ou systèmes associant très étroitement, y compris en termes génétiques, des humains, individus et groupes, et les diverses technologies aujourd'hui proliférantes qu'ils ont développées depuis l'âge de pierre. Ces systèmes émergent sur le mode darwinien d'une compétition pour les pouvoirs et les ressources. Les humains qui en constituent la composante anthropique, bien que dotés de cerveaux et capables de cognition, ne peuvent s'en donner une connaissance complète. Ils y sont immergés. Pour pleinement comprendre et prédire les déterminismes complexes qui les entraînent, ils devraient en être extérieurs et disposer de logiques , englobantes, ce qui leur est impossible.

 


On ne peut évidemment pas étudier les systèmes anthropotechniques comme on le fait des systèmes physiques ou biologiques. Ils sont multi-échelles, de l'individu à la civilisation mondiale toute entière, en passant évidemment par les TNC évoquées ci-dessus. Ils sont multi-domaines et multi-sites. Cependant des méthodes et des outils d'observation communs sont possibles. Il s'agit d'études où devraient exceller les spécialistes des systèmes complexes en réseau.

 

 

 

Là encore, on ne comprendra bien le rôle des chercheurs et des citoyens, dans la question qui nous intéresse ici, que si l'on admet qu'ils constituent, individuellement ou en groupe, des systèmes anthropotechniques soumis à des déterminismes spécifiques. Ce sont, comme tous systèmes de ce type, des systèmes cognitifs, plus ou moins modélisables. Mais leurs performances, notamment en termes d'autonomie, sont limitées par les contraintes d'organisation des systèmes anthropotechniques dans le champ desquels ils opèrent.

J'ajouterai que si l'on critique, à juste titre, la passivité de certains chercheurs et de beaucoup de citoyens face à l'emprise de l'agro-business, que dire des complicités d'une part, de la passivité d'autre part, accompagnant la montée apparemment inexorable d'une société mondiale dite du « contrôle total » 5) .

 

 

 

Un des drames de ce que l'on nomme désormais l'anthropocène est qu'elle subi les développements incontrôlés des systèmes anthropotechniques en compétition aveugle les uns avec les autres. Il vaudrait mieux la nommer de ce fait anthopotechnocène. Scientifiques et citoyens participent, au moins au plan statistique, de l'évolution sans doute globalement auto-destructrice de l'anthropotechnocène.

 

 

 

Approche mémétique

 

 

 

Je ne m'étendrai pas ici sur l'approche mémétique qui s'impose, en complément des deux précédentes. Chacun connait désormais la science dite mémétique (certains se bornent à parler de

 

méthodologie). Initialisée par Richard Brodie et Richard Dawkins, représentée en France par la Société francophone de mémétique 6), cette approche considère les comportements, idées, images, mots et mots d'ordre se développant sur un mode viral à travers les média et les cerveaux comme obéissant à des déterminismes ou logiques propres qu'il s'agit d'étudier. Dans le domaine qui nous occupe ici, la mémétique constitue un développement naturel des deux approches évoquées ci-dessus.

 

 

 

Les manifestations d'idéologie scientiste dénoncées par Matthieu Calame pourront avantageusement être étudiées sous l'angle de la mémétique, au regard notamment des émetteurs et récepteurs de messages qui en sont le siège.

 

 

 

Conclusion

 

 

 

Les différentes approches proposées ci-dessus posent des questions d'ordre épistémologique, notamment au regard des poids respectifs du déterminisme ou du volontarisme pouvant s'exercer dans le domaine des décisions politiques envisagées dans ce colloque. Chacun en sera juge.

 

 

 

Notes

 

1) Matthieu Calame. Lettre ouverte aux scientistes. Alternatives démocratiques à une idéologie cléricale, éditions Charles Léopold Mayer, avril 2011. On lira une fiche de lecture établie par le Pr Jean-Louis Le Moigne http://www.intelligence-complexite.org/fr/cahier-des-lectures/recherche-...
2) Voir par exemple le rapport spécial du NewScientist, Unscientific America, numéro daté du 29/10/2011
3) Voir notre présentation du modèle proposé par l'institut de technologie de Zurich http://www.admiroutes.asso.fr/larevue/2011/122/zurich.htm. On citera aussi les travaux d'Alain Cardon sur la modélisation informatique du cerveau. Les résultats pourraient en être transposés au complexe socio-politique évoqué ici.
4) J.P. Baquiast Le paradoxe du sapiens, JP Bayol 2010
5) On peut lire en ligne et en open source le dernier livre d'Alain Cardon, qui sait ce dont il parle, contrairement à beaucoup de ceux qui commentent à juste titre la montée du Big Brother .
Alain Cardon. Vers un système de contrôle total http://www.admiroutes.asso.fr/larevue/2011/121/controletotal.pdf
6) SFM http://www.memetique.org/

 

 

Partager cet article
Repost0
2 novembre 2011 3 02 /11 /novembre /2011 21:52

Avancées récentes en biologie quantique
Jean-Paul Baquiast 01/11/2011

 

Sources:
- Michael Brooks. Quantum Life, the weirdness inside us http://www.newscientist.com/article/mg21128321.500-quantum-life-the-weirdness-inside-us.html?full=true#bx283215B1; Nous en avons adapté ici certains passages.
- Voir aussi Automates Intelligents. Du côté des labos. Processus quantiques interagissant avec des organismes biologiques http://www.automatesintelligents.com/labo/2009/jan/algueverte.html

 

Nous avons indiqué dans un article précédent (Comment les cerveaux se représent-ils le monde (http://www.admiroutes.asso.fr/larevue/2011/121/mcrbis.htm) qu'un nouveau courant de recherche, dit « quantum interaction » était apparu, visant à mettre en évidence dans le fonctionnement du cerveau cognitif des processus proches du formalisme utilisé par les physiciens quantiques pour traduire le résultat de leurs observations.

Convenons d'appeler cerveau cognitif celui qui interprète les messages des sens afin d'en extraire des représentations du monde extérieur. Ces représentations servent de base à des prescriptions destinées à guider les comportements. Elles permettent aux individus de s'adapter au monde, par exemple en détectant des patterns ou constantes utiles à la survie (tel fruit est indigeste et donc être évité, tel animal est un prédateur qu'il faut fuir...). Elles sont utilisées à tous moments, soit sur le mode inconscient soit dans le cadre de mécanismes décisionnels plus complexes liés à ce que l'on nomme la conscience supérieure. Elles sont ensuite, en cas de succès, transmises et retraitées au niveau de la société. Il en résulte des règles sociales faisant l'objet d'une mise à l'épreuve et d'un sélection au regard de leur efficacité pour la survie collective.

Ces processus sont inhérents à toutes les espèces animales. Chez l'homme, le développement du cerveau cognitif leur a donné un rôle essentiel dans la construction du langage et des connaissances verbalisées. Or le courant de recherche se rattachant à la quantum interaction montre que le raisonnement utilisé par le cerveau est plus proche des méthodes de la logique quantique que de celles de la logique mathématique employée par les sciences macroscopiques. Il fait systématiquement appel à la façon dont les physiciens quantiques se représentent les entités quantiques: principe de superposition d'état et création d'interférences, intrication, représentation probabiliste (fonction d'onde), intervention de l'observateur (décohérence), etc.

Il serait donc réducteur de considérer que seuls les postulats de la logique classique et plus généralement de la logique quotidienne dite rationnelle — par exemple le principe d'identité: A est A et ne peut être non-A, une proposition ne peut à la fois être "vraie" ou "fausse" — sont les seuls acceptables. Cela ne devrait pas surprendre le bon sens. Chacun d'entre nous reconnaît qu'il raisonne spontanément d'une façon confuse, alambiquée, contradictoire – ce qui souvent n'empêche pas d'obtenir des résultats aussi pertinents que ceux découlant de raisonnements logiques ou mathématiques négligeant la complexité de monde observé.

La proximité du raisonnement spontané ou empirique avec la logique quantique, comme nous l'indiquions dans l'article, n'aurait rien d'étonnant, puisque nous sommes de facto immergés dans le monde quantique d'une façon qui, en principe, devrait influencer chacun des atomes qui nous constituent. Il serait donc logique que nos organes sensoriels ou notre cerveau soient le siège d'interférence avec des entités quantiques d'une façon qui contribuerait à la construction de leurs représentations du monde. Mais il ne suffit pas de le supposer. Il faudrait mettre en évidence les domaines où une telle influence se ferait sentir.

Le programme de recherche correspondant rencontre des difficultés considérables. Elles tiennent à la non-compatibilité des deux mondes, le microscopique et le macroscopique, rendant les expérimentations très difficiles. En simplifiant, nous dirions que le monde quantique s'exprime à notre niveau par ce que le calcul quantique appelle des q.bits ou bits quantiques. Certains mathématiciens doutent de la pertinence d'un tel concept. Cependant, pour la grande majorité des physiciens, Il s'agit de particules qui ne conservent leurs propriétés (superposition d'états. intrication) que si elles n'interfèrent pas avec des atomes du monde macroscopique. Cette interférence provoque leur « décohérence », ce qui « réduit leur fonction d'onde » et les transforme en particules du monde macroscopique. Elles se comportent alors comme toute particule ordinaire dans le monde de la physique et de la chimie quotidienne.

Or pour montrer leur influence sur les entités du monde macroscopique, une cellule vivante, un neurone, par exemple, il faudrait en principe saisir le moment très fugitif où elles interagissent avec cette entité avant d'être victime de décohérence. Jusqu'à présent, dans les projets de calculateurs quantiques, les physiciens n'ont réussi à manipuler qu'un très petit nombre de particules quantiques, maintenues en état de superposition grâce à des conditions rigoureuses: isolement magnétique, température proche du zéro absolu, et ce dans de courtes fractions de seconde. ..
.

Précisons que nous évoquons ici l'influence d'un bit quantique isolé et maintenu en état de superposition. Les physiciens savent depuis longtemps mesurer et utiliser les effets sur la matière vivante de flux de particules quantiques, par exemple ceux des rayons cosmiques. Mais ils se placent alors au plan statistique des grands nombres, qui est celui de la physique et de la biologie macroscopiques. Il ne s'agit plus de bits quantiques isolés, mais pourrait-on dire de champs.

Recherches récentes en biologie quantique

Quelles que soient les difficultés de telles recherches sur les bits quantiques, elles se développent rapidement aujourd'hui. Moins dans le domaine des calculateurs quantiques, qui semblent ne plus guère progresser, mais dans le domaine de la biologie. Elles semblent pouvoir expliquer ce que les biologistes considèrent depuis longtemps comme de véritables mystères.

Un des domaines explorés est celui de l'odorat. L'article cité de Michael Brooks mentionne les recherches de la chercheuse Jennifer Brookes de Harvard (http://wordpress.jenniferbrookes.org/), consacrées au sens de l'odorat ou olfaction. Elle montre l'inadéquation des hypothèses traditionnelles expliquant comment les molécules chimiques provenant du monde extérieur déclenchent des réponses adaptées des cellules olfactives, afin de permettre aux individus de discriminer entre les odeurs. Selon ces hypothèses traditionnelles, les récepteurs olfactifs fonctionnent comme des serrures qui ne s'ouvrent que confrontées à la bonne clef. Celle-ci correspondrait à la forme particulière de chaque molécule. Il y aurait ainsi environ 400 récepteurs olfactifs différents, pouvant en principe identifier un même nombre de molécules différentes. Mais l'humain serait capable de distinguer environ 100.000 odeurs différentes. Le chien reconnaît, avec il est vrai un tissu olfactif bien plus développé, un nombre encore plus grand de molécules odorifères.

Ce résultat, selon les hypothèses traditionnelles, résulte du travail de construction du cerveau, au niveau des aires du cortex olfactif. Le cerveau a subi des évolutions qui lui permettent de reconstruire des objets complexes à partir d'une ou plusieurs entrées sensorielles différentes, éventuellement contradictoires. Le même travail, a plus grande échelle, est accompli chez l'homme par le cortex visuel. Cependant, dans le cas de l'odorat, la discrimination presque instantanée entre des milliers d'odeurs supposerait un cerveau extraordinairement performant. Une autre hypothèse ne s'impose-t-elle pas? En 1996, le biophysicien Luca Turin a suggéré que l'effet tunnel pouvait expliquer les performances du cerveau, que ce soit au niveau du cortex olfactif ou du cortex associatif. Très utilisé en électronique aujourd'hui, l'effet tunnel résulte du fait que, conformément aux principes de la mécanique quantique, quand un électron est confiné dans un atome, il possède une grande étendue d'énergies possibles. Il existe donc une certaine probabilité pour qu'il franchisse la barrière d'énergie qui devrait normalement lui interdire de s'échapper de l'atome.

L'hypothèse de Turin est que, lorsqu'une molécule odorante est logée dans un récepteur, un électron peut s'en échapper et traverser la molécule de part en part, provoquant à sa sortie une cascade de signaux que le cerveau interprète comme une odeur. Ceci ne peut se produire que s'il existe une correspondance exact entre le niveau d'énergie quantifiée de l'électron et la fréquence vibratoire naturelle de la molécule odorante. Ainsi une sensation d'odeur peut être générée sans que la molécule n'ait, telle une clef dans une serrure, à correspondre exactement à la configuration du récepteur olfactif.

Cette hypothèse a été récemment démontrée dans le cadre d'une série d'expériences que nous ne détaillerons pas ici (Voir Physical Review Letters http://prl.aps.org/abstract/PRL/v98/i3/e038101 ainsi que Proceedings of the National Academy of Sciences http://www.pnas.org/content/early/2011/02/08/1012293108.abstract . Elles tendent à prouver que sans l'effet tunnel et donc sans recours à la physique quantique, divers cas particuliers de discrimination entre odeurs, observables tant chez l'homme que chez une certaine espèce de mouche, ne seraient pas explicables.

D'autres processus biologiques semblent tout aussi inexplicables à moins de faire appel aux propositions de la mécanique quantique. C'est le cas de la production d'adénosine triphosphate (ATP) dans les mitochondries cellulaires. L'ATP est la molécule qui, dans la biochimie de tous les organismes vivants connus, fournit par hydrolyse l'énergie nécessaire aux réactions chimiques du métabolisme. Sans elle la vie n'existerait pas sous ses formes actuelles. Les stocks d'ATP de l'organisme ne dépassent pas quelques secondes de consommation. Elle doit donc être renouvelée très rapidement. Elle est produite en permanence à partir des molécules de créatine. La créatine recycle le phosphate libéré par hydrolyse de la molécule d'ATP originale. Ceci permet de conserver une énergie aussi facilement mobilisable que l'ATP, sans pour autant épuiser les réserves d'ATP. Mais le cycle de renouvellement doit être très rapide. Or le calcul a montré que cette rapidité, indispensable à la vie, ne se produirait pas dans les conditions de la chimie ordinaire. Il semble, selon une hypothèse présentée par le physicien Vlatko Vedral, de l'Université d'Oxford, que la rapidité du cycle découle de l'état de superposition des électrons impliqués dans le processus. Ceux-ci peuvent se trouver sur plusieurs sites à la fois, accélérant ainsi le processus de production de l'ATP.

L'intervention d'électrons se comportant comme de véritables bit quantiques dans la production de l'ATP n'est pas encore prouvée sans discussion. Mais elle est de plus en plus considérée comme probable, d'autant plus qu'il ne s'agirait pas du seul cas où de tels bits quantiques joueraient un rôle dans des mécanismes fondamentaux pour le développement de la vie. Dans notre article cité en exergue, nous avions présenté les hypothèses proposées par Graham Fleming de l'Université de Berkeley. En étudiant le cycle de la photosynthèse dans la bactérie sulfureuse marine Chlorobium tepidum, il avait détecté des signaux caractéristique d'interférences quantiques au sein des centres responsables de la photosynthèse chez de telles bactéries refroidies à 77 degrés Kelvin (Voir Nature http://www.nature.com/nature/journal/v446/n7137/abs/nature05678.html ) En 2010 le même phénomène avait été détecté à température ordinaire dans les protéines photosynthétiques d'algues marines, (Voir Nature http://www.nature.com/nature/journal/v463/n7281//full/nature08811.html ).

Un tel processus impliquant des électrons dotés de propriétés quantiques se produit comme dans le cas de la production d'ATP, avec des rendements hors de portée de la biochimie classique. C'est ce qui aurait fait son succès aux origines de la vie. La protéine est dotée d'un réseau moléculaire qui connecte les capteurs solaires extérieurs de la bactérie, les chlorosomes, avec les organites internes de la cellule produisant de l'énergie, là où se réalisent des réactions biochimiques à peu près identifiées aujourd'hui. Contrairement à la transmission d'énergie dans les systèmes physiques, où le rendement est inférieur à 20%, l'opération s'accomplit dans l'organisme photosynthétique avec des rendements supérieurs à 95%. La raison de ces performances découle de la physique quantique.

Dans un système macroscopique classique, l'électron se déplace au hasard des canaux de connexion, en les explorant l'un après l'autre. Dans un système quantique, il explore simultanément les différents canaux disponibles jusqu'à trouver le plus efficace. Ceci fait, sa fonction d'onde s'effondre, ce qui permet quasi instantanément l'établissement d'une liaison physique classique, qui par définition se révèle rétroactivement la voie plus efficace. Un processus analogue à celui se produisant dans un calculateur quantique permet ainsi à l'organisme photosynthétique, que ce soit une bactérie ou une feuille, de trouver à partir d'une recherche instantanée au hasard, le meilleur chemin possible pour assurer au sein du milieu interne la transmission de l'énergie solaire.

Ceci expliquerait pourquoi les plantes, même lorsque la lumière est faible, peuvent transformer en énergie plus de 90 % des photons qu'elles reçoivent. Par fort ensoleillement, elles sont obligées d'en évacuer la moitié, sinon elles périraient par surchauffe. Inutile de dire que reproduire de tels processus est l'enjeu de la photosynthèse artificielle. Mais aucun mécanisme probant n'a pu encore être mis au point. Serait-il possible d'envisager le recours à des bits quantiques jouant le rôle d'explorateurs dans le champ des possibles?

D'autres exemples aussi surprenants tirés de l'observation de la nature suggèrent le rôle d'effets quantique dans les organes sensoriels ou cérébraux de divers animaux. Aujourd'hui, l'étude du sens de l'orientation des oiseaux, si efficace qu'il reste encore en partie incompréhensible, semble de démontrer. En 2004, Thorsten Ritz de l'University de Calfornie avait suggéré que les oiseaux possédent un organe sensoriel contenant des particules dont le spin enregistrerait les variations du champ magnétique terrestre, produisant des signaux que leur cerveau pourrait détecter. Mais le mécanisme nécessaire n'avait pas été découvert.

Récemment le Pr. Marshall Stoneham de l' University College London, malheureusement décédé au début de l'année, a suggéré (Voir arxiv, A new model for magnetoreception http://arxiv.org/abs/1003.2628 ) que les oiseaux « voient » à proprement parler les variations du champ magnétique. Ils utilisent pour cela une propriété permettant de détecter la polarisation de la lumière qui est également présente dans l'oeil humain, mais qui n'a pas été développé chez l'homme pour l'orientation. Il s'agit de l'effet dit de la brosse de Haidinger (http://en.wikipedia.org/wiki/Haidinger%27s_brush) se traduisant par l'apparition de zones de différentes couleurs dans le champ visuel.

Cet effet chez l'homme résulte d'une propriétés des cônes, l'une des deux espèces de cellules photoréceptrices. Ceux-ci sont dotés d'une molécule dite lutein sensible à la lumière bleue. Le champ magnétique pourrait produire une distorsion de cette nature dans le champ visuel de l'oiseau. Elle changerait avec les orientations du champ. Mais pour cela, il faudrait que les états quantiques impliqués durent assez longtemps pour affecter simultanément un nombre minimum de molécules photoréceptrices. Des photons quantiques maintenus en état de cohérence le temps suffisant grâce à un dispositif encore hypothétique présent dans l'oeil, pourraient permettre ce résultat.

Commentaires

Les observations et les hypothèses relatées ici semblent concordantes: elles feraient soupçonner dans la nature l'existence d'un continent inexploré considérable, comparable selon le mot d'un chercheur à la partie immergée d'un iceberg. Il sous tendrait ce que nous croyons être les réalités actuelles, celles du monde biologique macroscopique. Certes, il ne s'agit encore que d'indices dispersés, sur lesquels l'accord est loin d'être général. Mais si l'ensemble se confirmait, d'autres recherches seraient certainement entreprises et le phénomène apparaîtrait beaucoup plus répandu qu'il ne l'est actuellement. Il pourrait aussi apporter des solutions à bien des aspects de la vie qui restent encore mystérieux, par exemple son étonnante résilience aux agressions ou le fonctionnement du système nerveux, y compris celui du cerveau dit conscient.

Comment aujourd'hui pourrait-on décrire le phénomène? En simplifiant, on dirait que les organismes vivants se comportent comme des calculateurs quantiques relativement simples. Un calculateur quantique génère en tout petits nombres, non sans difficultés techniques pour les laboratoires en charge de sa réalisation, des bits quantiques dont il exploite les propriétés, notamment la superposition et l'intrication. Il peut ainsi réaliser dans des temps très réduits une grande quantité d'opérations élémentaires, par exemple la mise en facteur d'un nombre très grand. Une fois l'opération accomplie, le résultat du calcul est utilisé par le mathématicien comme s'il provenait d'un calcul ordinaire. Mais le temps gagné et l'avalanche de résultats jusque là impossibles à obtenir devraient révolutionner l'exercice des mathématiques.

Les organismes biologiques impliqués dans les observations relatées ici font un peu de même. Ils ont spécialisé certains de leurs organes dans des tâches difficiles ou impossibles à réaliser avec des processus physiques ou chimiques traditionnels. Ces organes spécialisés sont capables d'utiliser des particules quantiques le temps de leur faire effectuer des opérations essentielles aux fonctions vitales basiques: se procurer de l'énergie, se doter d'organes sensoriels élémentaires, impossibles ou difficiles autrement. Mais, le résultat de l'opération obtenu, les organismes biologiques en question ne s'enferment pas dans les facilités permises par les processus quantiques. Ils les dépassent et, sous la pression de la compétition, accomplissent des performances bien plus complexes, relevant de la biochimie macroscopique. Ils se comportent comme le feront les mathématiciens utilisant les futurs calculateurs quantiques. Les mathématiciens ne se contenteront pas des performances de ces calculateurs. Ils continueront à perfectionner les algorithmes et les applications de la mathématique ordinaire.

On serait tenté de supposer que les organismes biologiques procèdent de la même façon, n'utilisant que par défaut les processus quantiques. Mais ce faisant, ne risque-t-on pas de passer à côté précisément du corps immergé de l'iceberg, qui serait l'intrication à tous les niveaux de particules quantiques et de composants biochimiques ordinaires. Pour progresser dans cette dernière hypothèse, il faudrait poser et tenter de résoudre un grand nombre de questions. Nous en suggérons ici un échantillon, rédigé dans le désordre et sans plan de recherche précis:

- à quel moment dans l'histoire de la vie seraient apparus les processus quantiques venus en soutien du développement de cette même vie? dès les époques prébiotiques, chez les premiers procaryotes, chez les premiers eucaryotes, chez les premiers multicellulaires?

- cette apparition était-elle « inévitable », compte tenu de l'évolution des systèmes géologiques et biophysiques. S'est-elle au contraire produite une seule fois, « par hasard »? Sous quelles pressions évolutionnaires a-t-elle été exploitée par les premiers systèmes vivants?

- pourquoi ces premières réalisations, ayant prouvé leur succès dans des phases cruciales de l'histoire de la vie, ne se sont-elles pas étendues beaucoup plus largement? Auraient-elles été supplantées par des processus biochimiques macroscopiques plus efficaces ? Au contraire, seraient-elles restées actives, dans des domaines très importants mais restés cryptés pour nous?

- dans la suite de la question précédente, existe-t-il des applications vitales auxquelles les processus quantiques auraient servi et continuent de servir de support, autres que celles identifiées ici (fonction chlorophyllienne, odorat, navigation)? Autrement dit, ne pourrait-on pas suspecter que ces processus soient intervenus et interviennent encore dans de très nombreuses fonctions et dans les organes associés qu'ils conviendrait dorénavant d'identifier: métabolisme, perceptions sensorielles, transmissions nerveuses, fonctionnement du cerveau, reproduction et sexualité, langages intra et interspécifiques, tâches d'ingénierie variées, etc.

- pourquoi en ce cas seraient-ils jusque ici restés invisibles à nos yeux? Soit du fait du manque de culture quantique de nos intelligences, soit parce qu'ils auraient été masqués par les constructions de la biologie et de la culture macroscopiques qui s'y sont superposés ?

- au plan le plus basique, souvent évoqué par les chercheurs, en quoi consistent les outils biologiques naturels capables d'obtenir et de traiter en les protégeant du bruit atomique, autrement dit de la décohérence, des bits quantiques que les techniques les plus perfectionnées de nos sociétés technologiques ont encore le plus grand mal à obtenir et manipuler? Question qui n'est pas subsidiaire, ces outils naturels seraient-ils susceptibles d'être découverts et exploités par la science et la technologie moderne? Et pourquoi ne les recherche-t-on pas plus activement?

- Existe-t-il d'autres particules que les photons et électrons qui soient utilisées par les « processeurs quantiques » biologiques. L'omniprésence de celles-ci s'expliquent puisque ce sont eux qui transportent dans l'univers l'énergie indispensable à la vie. Mais d'autres particules ne pourraient-elles pas, y compris épisodiquement, avoir joué un rôle dans l'évolution? On pourrait penser au neutrino accompagnant des émissions de rayons cosmiques, malgré son caractère fortement allusif.

Nous terminerons ce petit inventaire de questions en évoquant un problème souvent mentionné. Aujourd'hui, il suscite des hypothèses dont les unes ont déjà donné lieu, ou pourraient donner lieu, à des recherches scientifiques, mais dont les autres relèvent d'une sorte de métaphysique New Age: les neurones, faisceaux de neurones et aires cérébrales du cerveau supérieur, dit conscient, utilisent-ils et de quelle façon des particules quantiques pour produire les performances de notre cerveau ? Comment, si les réponses à ces questions étaient positives, les tissus nerveux auraient-ils acquis de telles propriétés?

Le bon sens suggère qu'il n'y aurait rien d'étonnant à ce que les fonctions des organes sensoriels primaires, faisant appel au quantique comme dans le cas de l'odorat mentionné dans la première partie de cet article, aient trouvé un prolongement dans la construction des premiers organes centralisateurs et coordinateurs apparus simultanément, c'est-à-dire dans les systèmes nerveux et cerveaux primitifs. Il y a une continuité naturelle entre les neurones des aires sensorielles, ceux des cortex associés et ceux du reste du cerveau, y compris le cortex frontal généralement considéré comme responsable de l'intelligence et de la conscience. Ce serait donc en ce cas tous les mécanismes neurologiques qui pourraient relever de la recherche de solutions quantiques leur conférant leurs performances. Mais qu'en serait-il des traitements relevant de la conscience dite supérieure, notamment ceux relatif au moi, à qui l'on prête des qualités telles que le libre arbitre?

Nous pensons qu'une première voie permettant de répondre à cette question difficile serait de soutenir les efforts de scientifiques tels qu'Alain Cardon. Celui-ci a entrepris de modéliser des systèmes de conscience artificielle faisant appel aux logiques et informatiques classiques. Il serait possible sur ces bases de se demander si de tels modèles seraient ou non rendus plus performants par l'introduction de calculateurs quantiques et des algorithmes correspondants. En cas d'expériences positives, nous pourrions parier sans risque que les neurologues et neuro-psychologues découvriraient alors, à leur vive surprise, des opérateurs quantiques plus ou moins puissants à l'oeuvre depuis des temps immémoriaux dans les cerveaux biologiques. .


Partager cet article
Repost0
27 octobre 2011 4 27 /10 /octobre /2011 16:05

 

Jean-Paul Baquiast

 

Les représentants des institutions européennes et des 17 gouvernements des pays membres de la zone euro se sont mis d'accord in extremis le 26 octobre sur un dispositif complexe permettant à la Grèce de faire face à ses dettes publiques sans être obligée de quitter l'euro. Ce dispositif pourrait éventuellement être étendu à l'Italie, également menacée. Mais de l'avis général, il sera insuffisant pour résoudre les problèmes d'endettement à venir de ces pays, comme ceux des autres Etats membres de la zone euro. A plus forte raison, il ne pourrait être étendu aux déficits des 10 Etats membres de l'Union européenne mais membres de l'Union, si ceux ci-en ressentaient le besoin. Il faudrait donc d'urgence voir plus loin, en vue de solutions durables à long terme

Deux questions de fond restent posées à cet égard:

1. Dans quelles limites et pour quels objectifs les Etats européens peuvent-ils s'endetter? Autrement dit, comment distinguer les bonnes dettes des mauvaises?

2. L'euro étant une monnaie commune, comment gérer au niveau commun les décisions nationales relatives à ces dettes lorsque leur importance excède les capacités de remboursement des Etats pris individuellement ? La question est généralement formulée de façon plus explicite: qu'attendent les 17 Etats-membres de la zone euro pour mettre en place un gouvernement économique et financier commun capable d'harmoniser les politiques budgétaires nationales en matière de dépenses et recettes?

Beaucoup des intérêts économiques dominant en Europe, qu'ils soient non-européens ou même européens (que l'on nomme les Transnational Corporations, TNC), ne veulent pas d'un tel gouvernement économique et financier de la zone euro. Ils veulent continuer à diriger et spéculer sans entraves. Les peuples, ou à défaut les majorités social-libérales au pouvoir ou aspirant à gouverner à la suite des prochaines élections, devraient au contraire en faire leur priorité. Nous aimerions pour notre part entendre le candidat du PS français François Hollande confirmer clairement que ce sera pour lui la première des priorités à négocier s'il était élu.

Rappelons cependant que selon nous et pour beaucoup d'observateurs, une telle structure ne serait viable à long terme que dans le cadre d'une modification profonde des Traités conduisant à une Europe fédérale. Celle-ci devrait notamment être dotée d'un Parlement élu au suffrage universel commun, capable de négocier avec les exécutifs les grandes lignes des politiques communes et dont l'euro deviendrait un des outils. Nous ne traiterons pas de cette question dans le présent article.


Bonnes et mauvaises dettes publiques

Appelons pour simplifier dettes publiques ou dettes souveraines celles que souscrit le gouvernement d'un pays pour couvrir les déficits de ses budgets, budgets de fonctionnement ou budgets d'investissement. Il le fait en émettant des emprunts, soit auprès de diverses institutions financières, soit sous forme de bons du Trésor offerts sur les marchés financiers. Il faut apprécier l'opportunité de ces emprunts d'une part en fonction des dépenses qu'ils visent à couvrir et d'autre part au regard des prêteurs à qui l'on s'adresse.

Les dépenses à couvrir

On distingue à juste titre, concernant les Etats, les bonnes dettes et les mauvaises dettes. Les bonnes dettes sont celles destinées à financer des investissements qui seront rentables à terme: par exemple la construction d'infrastructures industrielles, de centres universitaires ou d'aides ciblées à des investissements de recherche dépassant la capacité de financement par les budgets annuels. Si ces aides sont bien gérées, elles rapporteront des produits générant eux-mêmes des activités pouvant à terme contribuer à l'augmentation des ressources fiscales. Les dettes seront donc remboursées. Il suffira de faire appel à un mécanisme d'emprunt à long terme permettant de faire la soudure entre les dépenses d'aujourd'hui et les recettes de demain. Dans des Etats (de plus en plus rares malheureusement) où la puissance publique conserve un rôle de pilotage global, ces dépenses sont indispensables. Elles doivent en priorité être financées par les budgets d'investissement. A défaut, l'appel à l'emprunt est tout à fait légitime. Il en est de même des dépenses d'équipement des collectivités locales.

Une difficulté de mise en oeuvre doit être résolue. Il s'agit de s'assurer que les crédits obtenus par l'emprunt iront bien aux activités destinées à en bénéficier. Il ne faut pas s'illusionner. Ces crédits , que ce soit au niveau de chacun des Etats ou au niveau communautaire, courront le risque d'être détournés soit par des gouvernements pour des raisons de clientélisme électoral, soit par des spéculateurs ou des hommes politiques corrompus. D'où la nécessité de prévoir, notamment au niveau européen, des dispositifs d'allocation soumis à un contrôle de gestion sérieux et à une évaluation démocratique a priori et a postériori efficace. Le concept de Fonds stratégique européen d'investissement pourrait être retenu, lui-même placé sous la tutelle du gouvernement de la zone euro mentionné ci-dessus. Le risque de détournement au niveau des collectivités locales est tout aussi grand. Malgré ces risques, l'expérience semble montrer que les investissement public atteignent leurs objectifs beaucoup plus souvent que des investissements privés ou mixtes (dans le cadre de partenariat dits publics-privés).

On pourra ranger également dans les bonnes dettes celles résultant de politiques publiques destinées à couvrir des dépenses exceptionnelles découlant de phénomènes naturels et de catastrophes technologiques ou sanitaires (dépenses militaires en cas de guerre). Mais dans ce cas, il faudra très rapidement en répartir la charge entre contribuables, nationaux ou européens, afin d'éviter de financer les dépenses correspondantes par des emprunts à court terme qui ne pourraient pas être remboursés.

Les mauvaises dettes sont celles destinées à couvrir les déficits des budgets de fonctionnement. Y recourir permet à des gouvernements laxistes de satisfaire les clientèles électorales, sans demander de contrepartie. Certes, comme en ce qui concerne les entreprises, les autorités budgétaires publiques doivent pouvoir emprunter à court terme pour faire face aux charges de trésorerie, résultant de la non simultanéité des recettes et des dépenses. Mais cette facilité, se traduisant par des écritures en déficit ne devrait pas dépasser 3% environ du montant des budgets, pouvant être modulé en fonction des cycles de croissance-décroissance. C'est ce qu'avait décidé, un peu arbitrairement il est vrai, le traité de Maastricht. On parle aujourd'hui de "règle d'or" qui devrait s'imposer à tous les budgets dorénavant, si l'on en croit les décisions prises au soir du 27 octobre. Emprunter au delà condamne irrévocablement à terme au défaut de remboursement, correspondant à la faillite en droit privé. Il convient donc d'une façon générale de couvrir les dépenses de fonctionnement par des impôts ou contributions obligatoires de même nature. C'est le prix que doivent consentir les citoyens pour disposer d'un Etat digne de ce nom. Il devrait en être de même des dépenses de fonctionnement engagées par les institutions européennes, à faire couvrir par des impôts européens.

L'inflation, pendant les 30 ans ayant suivi la 2e guerre mondiale, a été systématiquement utilisée pour permettre le non-remboursement des dettes des Etats à leur valeur initiale. Cette démarche correspond à un impôt sur les épargnants et les revenus fixes. Elle n'est pas admissible car, outre le fait qu'elle repose sur une tromperie, elle se traduit pas un assèchement des épargnes, les agents économiques préférant dépenser plutôt qu'économiser. En période de rareté croissante d'un certain nombre de ressources, ceci correspond à des gaspillages qui ne sont pas admissibles.

Il en résulte que les dépenses budgétaires directes ou indirectes (budgets sociaux) doivent être en permanence ajustées en fonction des recettes fiscales disponibles (contributions obligatoires). Celles, héritées du passé, dépassant ce niveau, doivent être réduites. Les impôts, de leur coté, ne peuvent pas être indéfiniment augmentés. Par ailleurs, pour être supportés, leur charge doit être convenablement répartie entre agents économiques et activités, de façon à ce que ne soient pas les seuls contribuables incapables de fraude qui en supportent la charge. Ce n'est pas le cas dans beaucoup d'Etats européens, notamment la France, où des réformes fiscales assorties de contrôles adéquats s'imposent de toute urgence, visant à la fois la justice et l'efficacité. Ce contrôle des dépenses et cette réforme fiscale s'imposent aux majorités au pouvoir et tout autant aux programmes des oppositions visant à leur succéder. Pour celles-ci, le nier relèverait d'un illusionnisme inquiétant. C'est ce que le socialiste Manuel Valls, en France, a eu raison de souligner.

Ces différentes règles limitent considérablement les possibilités d'action budgétaire des gouvernements en charge des pays les moins favorisés. A l'extrême, ceux-ci ne pourront même plus rémunérer des fonctionnaires pourtant indispensable à la bonne marche de l'Etat. Ce risque menace actuellement les pays européens du Sud, sommés de faire des économies. Des réactions sociales de plus en plus violentes en résulteront nécessairement. Pour éviter qu'en Europe, seuls les Etats les plus riches, ceux du nord, puissent disposer de budgets de fonctionnement suffisants, il faudrait assurer des transferts entre Etats riches et Etats pauvres. C'est ce qui se fait au sein des Etats nationaux entre collectivités locales inégalement prospères, sous forme de divers fonds de péréquation. C'est ce qu'à accepté l'Allemagne de l'Ouest au profit de l'Allemagne de l'Est à la suite de la réunification.

Dans cet esprit, les Européens devront accepter des politiques communes volontaristes par lesquelles les pays riches accepteraient des transferts de richesse au profit des pays pauvres. Pour le moment, malheureusement, sauf à la marge (dans le cas des fonds structurels européens), de telles politiques n'existent pas en Europe. Il en résulte que dans l'immédiat se font pleinement sentir les inégalités de puissance économique entre Etats-membres. On peut difficilement demander à la Grèce d'imposer à ses ressortissants des modes de vie austères alors que la libre circulation des personnes et des biens conduit à transformer en standards communs les modes de vie des pays plus riches.

D'où le besoin inéluctable, à terme, d'une structure fédérale qui assurerait la péréquation des ressources et des charges entre les différentes composantes de l'Europe. Seul un Etat fédéral européen serait capable de faire admettre cette péréquation par l'ensemble des citoyens, capable aussi d'imposer des mesures visant à combattre les fraudes qui sont souvent à la source de beaucoup d'inégalités apparentes. (Voir concernant les inégalités de puissance entre Etats européens et la fraude la note 1 ci-dessous).

L'origine des prêteurs

Certains Etats font appel à leurs propres épargnants pour couvrir leurs emprunts. C'est le cas, souvent cité, du Japon. C'est aussi, dans une large mesure, celui de la Chine. Mais il faut pour cela qu'ils disposent d'une épargne privée importante et mobilisable. Il faut aussi qu'ils acceptent le risque d'un effondrement général de l'économie si pour une raison ou une autre, ces épargnants ne peuvent plus être remboursés. L'Europe présente, nous l'avons vu, trop d'inégalités entre puissances économiques et donc entre épargnes pour faire financer à grande échelle par ses propres citoyens les emprunts émis par ses Etats. A petite échelle cependant, nous pensons que le fonds stratégique européen d'investissement mentionné ci-dessus pourrait tirer une partie de ses ressources de « dettes perpétuelles », c'est-à-dire non remboursable mais négociables, s'adressant à des épargnants européens, y compris petits épargnants, qui subsistent dans des pays restés relativement riches comme la France.

La solution jusqu'ici retenue par tous les Etats européens, qu'ils participent ou non à la zone euro, a été de faire appel aux marchés, sous diverses formes, la plus simple étant la vente de bons du trésor non affectés, la plus complexe étant l'émission d'emprunts d'Etat ou garantis par l'Etat. Dans tous les cas, ces procédures conduisent inévitablement les puissances publiques à donner un droit de regard sur leurs politiques régaliennes aux préteurs, c'est-à-dire à des intérêts privés pouvant ne pas avoir les mêmes objectifs. Longtemps les Etats occidentaux se sont tournés vers des prêteurs de leur mouvance politique, par exemple fonds de pensions et caisses d'épargne s'adressant à des nationaux ou des tiers de confiance. Mais avec la ruine de beaucoup de ces fonds patrimoniaux, ils se sont adressés à des fonds spéculatifs beaucoup plus exigeants en termes de rendement et de délais de remboursement. Par ailleurs, et faute de ressources suffisantes provenant des épargnants du monde occidental, ces Etats ont puisé dans les réserves accumulées par les pays asiatique, au premier rang desquels la Chine, qui vendent beaucoup aux pays occidentaux et dépensent très peu sur leur marché intérieur.

Les gouvernements européens sont longtemps restés très méfiants à l'égard des prêts consentis par la Chine. N'était-ce pas introduire dans leur zone économique non pas des actionnaires anonymes mais des acteurs publics animés d'une forte volonté de conquête. Pour leur part, les hommes politiques américains ont considéré qu'un tel risque n'existait pas. A quoi bon imposer les contribuables nationaux si la Chine fournit les ressources nécessaires à la couverture des dépenses publiques américaines? Mais ce raisonnement est de moins en moins admis par les économistes nord-atlantiques d'inspiration keynésienne, comme Paul Krugman. La Chine prête des dollars à l'Amérique à condition que celle-ci achète les produits industriels fabriqués en Chine. Certes ceux-ci sont vendus à bas prix, mais les importer au lieu de les produire, fut-ce à un coût plus élevé, s'est traduit à long terme par une forte désindustrialisation de l'économie américaine et la multiplication du chômage. Les mouvements d'Indignés qui se généralisent en résultent. Les conseils d'administration des entreprises américaines dites TNC (transnational corporations) en ont bénéficié, mais les bénéfices enregistrés n'ont pas été réinvestis dans l'économie réelle américaine. Les seuls secteurs en ayant profité ont été ceux des recherche/développement à usage militaire. Le considérable budget de recherche du Pentagone permet ainsi d'entretenir un potentiel de défense dont même la Chine est obligée de tenir compte.

L'Europe, n'étant pas une puissance fédérale, ne peut espérer pour le moment faire jeu égal avec la Chine. Elle devrait donc se méfier particulièrement des diverses propositions de Pékin visant à prendre en charge une partie des dettes publiques européennes. Ces aides ne seront pas sans contreparties. Leurs conséquences stratégiques pourraient être extrêmement néfastes, en termes de perte d'indépendance de l'ensemble européen vis-à-vis de la puissance chinoise. C'est ainsi que, à la date du 25 octobre, le gouvernement chinois a proposé , en échange du rachat de certaines dettes européennes, d'être admis comme partenaire de plein droit au sein de l'espace économique européen. Ceci interdirait de facto les mesures de rétorsion protectionnistes dans les domaines ou les entreprises chinoises ne respectent pas les règlements et contraintes européennes. Est-ce une telle capitulation que sont allés ce jour négocier à Pékin des représentants des institutions européennes?

Le recours aux prêts du Fonds monétaire international (FMI) n'est guère plus recommandable, en ce qui concerne les dettes publiques des pays européens. Le FMI est très largement l'agent des intérêts dominant à Wall Street et Washington. Ses interventions ont toujours visé à étendre le champ du capitalisme néolibéral anglo-saxon, aux dépends des pouvoirs de décision et de régulation des Etats et des secteurs publics.

La question du gouvernement économique et financier de la zone euro

Depuis longtemps cette exigence avait été formulée par des critiques des traités européens tels Jean-Pierre Chevènement leur reprochant leur excès de libéralisme. Nous l'avions nous-mêmes reprise dans notre essai de 2008 (avant la crise dite des subprimes) intitulé « L'Europe ou le vide de puissance. Essai sur le gouvernement de l'Europe à l'ère des super-Etats ». En pratique, quelques timides mesures ont été récemment étudiées, notamment entre l'Allemagne et la France, visant par exemple à l'harmonisation des taxes sur les entreprises. D'autres ont été évoquées lors de la réunion entre chefs d'Etats de la zone euro du 26 octobre. Mais le compte est encore loin.

Au delà de cet aspect, il faut se demander en quoi la participation à la zone euro, dotée d'un gouvernement économique et financier encore à définir, protègerait-elle les 17 Etats membres. On notera que si cette protection était effective, elle créerait des inégalités avec les 10 autres membres de l'Union européenne n'ayant pas voulu ou pas pu adopter la monnaie commune.

Inégalités de puissance découlant de la participation ou de la non participation à l'euro.

L'euro, c'est-à-dire la monnaie unique, protège-t-il les Etats qui l'ont adoptée? La réponse serait affirmative si les négociateurs du traite de Maastricht étaient allés jusqu'au bout de leur logique: mettre en place un gouvernement économique et financier commun dont l'euro aurait été l'un des instruments. Dans ce cadre, des harmonisations budgétaires, réglementaires, fiscales et douanières permettraient de mutualiser et de défendre, face aux autres zones monétaires (dollar, yuan), les ressources économiques des pays-Membres. Nous verrons ci-dessous que cette évolution s'imposera inévitablement mais pour le moment ce n'est pas le cas. L'euro, géré par la Banque centrale européenne (BCE) permet principalement trois choses: - donner un visage monétaire à la zone euro, ce qui est important dans un monde où seuls s'imposent durablement les grands ensembles - favoriser les échanges commerciaux internes à la zone en simplifiant les opérations de change - lutter contre l'inflation laquelle est la grande crainte de l'Allemagne, en réglementant les tentations de création de monnaie pour résoudre les déficits budgétaires et commerciaux.

Un certain nombre d'experts et hommes politiques européens dits souverainistes font valoir qu'un retour aux monnaies nationales permettrait de dévaluer celles-ci librement, en tant que de besoin, pour faciliter les exportations. Mais cet argument ne serait recevable que de la part d'un très grand pays européen, essentiellement l'Allemagne – qui pour le moment n'en formule pas l'exigence, la zone euro lui offrant une sorte de marché captif. En cas de sortie de l'euro, les pays économiquement plus faibles paieraient la prime à l'exportation résultant d'une monnaie faible par un renchérissement vite insupportable de leurs importations essentielles. Ils s'engageraient dans une course inflationnistes dont souffriraient tous les revenus fixes ou déclarés.

Nous avons un moment défendu ici une thèse radicalement contraire, celle selon laquelle un nouveau Traité européen devrait imposer aux 27 Etats membres de l'Union le choix entre appartenir à celle-ci, en adoptant l'euro et en acceptant les règles de bonne gestion en découlant, ou bien sortir de l'Union. Mais lorsque l'on voit aujourd'hui le désordre régnant au sein des petits Etats, membres ou non de l'euro, il est clair qu'en dehors de la mise en place d'une véritable fédération des Etats-Unis d'Europe, une telle perspective ne serait pas souhaitable, ni pour l'Union européenne en général, ni pour l'euro en particulier.

Certains observateurs préconisent aujourd'hui un éclatement de l'Union entre un coeur fédéral comportant les Etats du nord, la France et quelques Etats économiquement plus faibles mais acceptant le règle fédérale, et des Etats dont la Grande Bretagne serait le modèle acceptant d'affronter par leurs propres moyens la concurrence internationale. Nous sommes prêts pour notre part à parier que confrontés à ce choix, tous les Etats européens (hors peut-être la Grande Bretagne dont le tropisme atlantique demeure considérable) choisiraient la discipline imposée par l'appartenance à une Union fédérale correctement dirigée, dont l'euro et la BCE seraient les instruments monétaires et bancaires.

L'appartenance à la zone euro, dans son état actuel ne permet pas de compenser les inégalités de puissance économique entre Etats membres.

Dans tout Etat, qu'il soit national ou fédéral, il existe des inégalités entre régions. Elles sont acceptées comme le prix à payer pour l'unité nationale. Mais en général, nous l'avons rappelé, elles sont part compensées par des échanges spontanés (par exemple les migrations intérieures) et surtout par des politiques publiques systématiques visant à rééquilibrer les déséquilibres excessifs. La fiscalité, la protection sociale, l'aménagement du territoire tendent à organiser les transferts entre collectivités et régions, en vue de diminuer les inégalités structurelles. Elles y ont jusqu'ici réussi, sauf dans le cas des banlieues des grandes villes. Celles-ci sont malheureusement considérées, pour des raisons que nous ne discuterons pas ici, comme zones de cantonnement pour des populations de moins en moins bien assimilées.

L'Union européenne n'a pas les pouvoirs politiques – ni sans doute jusqu'à ce jour la volonté – d'organiser de tels transferts. Ils heurteraient directement, il faut bien l'admettre, des traditions nationales comportant une large part de refus de l'autre, fut-il européen. Il en est de même du groupe des pays membres de l'euro. Le gouvernement économique et réglementaire ambitieux de la zone euro, qui serait nécessaire pour assurer la viabilité d'une monnaie unique, a été refusé depuis les origines, tant par les pays riches que par les pays pauvres, compte tenu des contraintes qui en aurait découlé.

La BCE, pour sa part, n'est dotée d'aucun pouvoir suffisant sur les banques centrales et banques privées nationales. Elle a par ailleurs dès l'origine été privée du droit de faire des prêts aux Etats et aux entreprises, sous prétexte de lutter contre les tentations inflationnistes. Mais deux raisons de fond expliquent qu'elle ne dispose pas des pouvoirs de son homologue la banque fédérale de réserve américaine. La première est qu'il n'existe pas de gouvernement européen commun au service duquel elle pourrait être mise. La seconde est tout aussi significative de la faiblesse de l'Union européenne.

Il s'agit du fait que les pouvoirs financiers, européens ou internationaux, qui dominent l'Europe ont toujours refusé la mise en place de procédures et d'institutions publiques permettant d'échapper au passage obligé par « les marchés » pour financer les emprunts des entreprises et des gouvernements européens. De ce fait les marchés, dont l'influence est considérablement augmentée par le pouvoir prédictif des agences de notation, peuvent se réserver le monopole des bénéfices tirés de leurs activités de prêts aux Etats. Ils peuvent, ce qui est bien plus lourd de conséquence, leur imposer sous prétexte de redressement des mesures d'économies ou de « réforme » des administrations publiques. La conséquence inéluctable en sera la disparition des services publics et leur remplacement par des compagnies privées d'ailleurs plus coûteuses et moins efficaces, comme le montre amplement l'exemple américain.

Nous n'allons pas dans le cadre de cet article définir en quoi un gouvernement économique et financier de la zone euro pourrait permettre de rendre celle-ci globalement plus efficace, notamment en compensant les inégalités de puissance entre Etats-membres. Notons seulement qu'il faudra revenir sur l'indépendance absolue de la Banque centrale, exigée par l'Allemagne pour des raisons historique. Il faudra que la BCE puisse racheter en émettant des euros une part importante des dettes souveraines des Etats s'avérant incapables en tout ou en partie de les rembourser. Il faudra aussi qu'elle puisse fournir, directement ou indirectement, des prêts à long terme destinés à financer les investissements stratégiques européens. Dans ces deux cas, de telles procédures seront bien préférables à celles consistant à faire appel aux marchés. Si la BCE agissait ainsi, sous le contrôle du gouvernement de la zone euro, l'indépendance de l'Europe vis-à-vis de ses concurrents extérieurs en serait fortement augmentée.

Un dernier point doit être signalé, concernant le futur gouvernement de la zone euro. Il ne suffira pas d'instituer un quelconque ministre de l'économie ou du budget commun. Il faudra soumettre ce dernier à un processus de négociation, sinon de co-décision, associant le Parlement européen. A plus long terme, le Parlement européen devra être élu au suffrage universel européen, pour disposer de plus d'autorité démocratique. Mais comme ceci sera le premier pas vers des Etats-Unis d'Europe, il s'agira d'une réforme qui ne pourrait pas être négociée en urgence, sous la pression des marchés, c'est à dire finalement des TNC ou Transnational Corporations, évoquées ci-dessus. Pour bien faire, elle devrait répondre à ne demande majoritaire des citoyens européens. Si la crise s'aggravait, comme probable, les électorats s'y résoudraient sans doute.

Conclusion

Les réalités et contraintes sommairement évoquées dans cet article sont encore mal perçues par les gouvernements européens. Seules les TNC qui font très largement la loi en Europe en ont compris l'importance. Mais elles ne veulent rien changer aux répartitions de pouvoir actuelles, puisqu'elles en tirent profit. Concernant la France, nous pensons que le gouvernement issu des futures élections de 2012 serait très avisé d'en tenir compte. D'où la nécessité de le faire dès maintenant dans l'élaboration des programmes pour les 5 prochaines années, qu'il s'agisse de ceux de la droite encore au pouvoir ou de la gauche qui aspire à prendre le relais.

Lire Dette indigne ! : Dix questions, dix réponses, Gérard Filoche, Jean-Jacques Chaviré 2011

 

Note. Inégalités de puissance économique entre Etats européens et poids de la fraude

L'union européenne à 27 ou la configuration plus réduite associant les 17 Etats membres de l'euro rassemble des pays dont la puissance économique est très différente. On distingue ainsi à juste titre les pays à économie solide, nécessairement dominants: l'Allemagne, entraînant avec elle de petits Etats dits nordiques (Autriche, Hollande, Scandinavie) et les pays à économie fragile, pays méditerranéens ou du Sud, Italie, Espagne, Portugal, Grèce, d'une part, pays d'Europe centrale et orientale nouveaux entrants dans l'Union, d'autre part, La France et la Grande Bretagne (qui n'est pas dans l'euro) se situent entre ces deux ensembles.

Plusieurs raisons justifient ces inégalités de puissance. Elles tiennent à des inégalités liées à la géographie et à l'histoire: dimension territoriale, population, ressources naturelles, apports des investissements industriels ou des grandes infrastructures. Elles sont difficilement modifiables à court terme. Mais d'autres tiennent au poids plus ou moins grand de l'économie souterraine et de la pénétration des administrations publiques par des intérêts privés visant à frauder les réglementations fiscales et sociales. Aucun Etat n'y échappe, notamment de moins en moins la France. La Grèce ou dans une large mesure l'Italie supportent ce handicap depuis des décennies. Il en est de même des Etats non encore membres de la zone euro, pays de l'Est et même Grande Bretagne, qui use et abuse des paradis fiscaux offerts dans le cadre de la zone dollar. Au sein de l'euro, les pays du Nord, sans être exemplaires (nul ne l'est) sont fondés à refuser de prendre à leur charge les dérives spéculatives voire frauduleuses ou criminelles des pays du Sud. Ils suspectent de plus en plus la France de céder à une gestion politicienne hasardeuse, dont ils voudrait éviter l'effet contaminant.

Ceci veut dire que les négociations entre pays européens concernant la répartition du poids de la dette doivent certes tenir compte des différences de puissance structurelles ou historiques entre économies, pour essayer dans la mesure du possible de les compenser par des transferts. Mais en aucun cas elles ne devraient entériner des comportements frauduleux générateurs de faiblesses artificielles. Si un pays, profitant du non contrôle de ses transactions et de la non transparence des procédures bancaires, se déclare en déficit structurel alors qu'une partie des richesses produites sont dissimulées dans dans des banques échappant à tout contrôle, il ne peut prétendre bénéficier de l'aide provenant de pays dont la gestion est dans l'ensemble plus régulière. Pour revenir à la table des négociations, il doit prouver qu'il a d'une façon vérifiable par des audits externes mis de l'ordre dans les abus que commettent ses ressortissants.

La nécessité de moraliser les comportements économiques au sein des Etats de l'Union européenne, en alignant les moins vertueux sur ceux qui le sont davantage, s'imposera de plus en plus au fur et à mesure que s'aggravera la crise. Ce qui était toléré avec indulgence ne le sera plus. Il s'agit d'un point que de futurs gouvernements de gauche en Europe devront mettre à leurs programmes. Ce sont toujours les citoyens les plus pauvres qui supportent le coût des détournements de procédures et des fraudes. Il n'est peut-être pas très rentable au plan électoral de se présenter comme un père Fouettard, mais c'est la seule façon de faire rentrer des ressources jusqu'ici dissimulées dont la gauche aura besoin pour financer ses programmes. Bien évidemment, une telle « moralisation » se heurtera au concert de toutes les entreprises de par le monde qui profitent de la non transparence et du laxisme. Mais ce ne sera pas une raison pour refuser de la mettre en oeuvre dans les faits, c'est-à-dire bien au delà des discours électoraux.

Partager cet article
Repost0

Articles RÉCents

Liens