Overblog
Suivre ce blog Administration + Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

Archives

7 avril 2011 4 07 /04 /avril /2011 17:22

Avenir du nucléaire, avenir de l'humanité
Jean-Paul Baquiast 07/04/2011

Cette note est provisoire. Elle est destinée à être discutée. Elle est donc pour le moment de la seule responsabilité du signataire et ne reflète pas nécessairement le point de vue soit de Christophe Jacquemin, soit des autres personnes s'intéressant au contenu de notre site Automates intelligents. Les réactions que vous voudrez bien exprimer sur ce blog seront précieuses. .

L'accident majeur qui vient de se produire à Fukushima Dai-Ichi, dont l'issu semble encore indéterminée, est considérée par beaucoup d'observateurs comme devant obliger l'ensemble des pays du monde à s'interroger sur le recours à l'énergie nucléaire. Mais nous pensons qu'il faut aller au delà. C'est sur la nature même de l'évolution des sociétés humaines que cet événement pose des questions, ainsi que sur les directions que paraît prendre cette évolution. Les guerres mondiales, ou l'explosion de Tchernobyl, avaient pu malgré leur ampleur passer pour des évènements non symptomatiques. Aujourd'hui, Fukushima s'ajoute à un long enchaînement de crises qui semblent au contraire systémiques, c'est-à-dire remettant en cause l'avenir du Système global dont nous sommes tous des composants. Les Européens sont tout aussi concernés que les Japonais. Nous voudrions dans cette première note commencer à aborder ces perspectives. Les sciences, les technologies, mais tout autant les systèmes politiques et économiques, sont mis en cause. Il faut en discuter, tout en évitant les jugements précipités ou dogmatiques.

Dans la terminologie pratiquée sur ce site, nous dirons que Fukushima pose la question de l'avenir des sociétés anthropotechniques. On peut évidemment traiter de l'avenir des sociétés humaines modernes sans faire appel à cette dernière terminologie ni aux hypothèses méthodologique qu'elle sous-tend. Il nous paraît cependant intéressant de s'y référer, compte-tenu de son caractère selon nous éclairant 1). Rappelons que nous appelons anthropotechniques les sociétés de primates apparues il y a quelques millions d'années et ayant appris à utiliser en symbiose avec leurs composants biologiques des outils technologiques ayant leurs logiques évolutives propres. Ceux-ci sont susceptibles de modifier les processus évolutifs naturels de façon plus ou moins brutale et rapide. Ce fut le cas des outils de pierre, puis du feu. C'est aujourd'hui celui des technologies industrielles, biologiques, informationnelles, observationnelles (utilisées par les sciences). Parmi elles se trouvent les technologies nucléaires.

Celles-ci permettent aux anthropos d'intervenir aux franges, sinon au coeur du processus mis en oeuvre dans la formation et l'évolution des étoiles: production d'atomes lourds par fusion d'éléments légers (hydrogène, hélium) et dans certaines conditions restitution d'énergie par fission de ces mêmes atomes lourds 2). Les systèmes ou sociétés anthropotechniques sont, dans notre approche, des superorganismes en compétition darwinienne pour l'accès aux ressources. Elles ne sont que marginalement capables de se représenter l'avenir du monde et d'enclencher des comportements moteurs susceptibles de préserver les équilibres collectifs de la planète.

On peut admirer que des primates hominidés, qui ne sont pas agencés différemment au plan biologique de tous les autres organismes un peu complexes, aient réussi à pénétrer certaines des lois semblant régir l'évolution du cosmos. Les biologistes et anthropologues discutent des facteurs évolutifs qui leur ont permis de le faire, acquisition d'un cerveau surdimensionné, construction de vastes sociétés communiquantes, mémorisation et mutualisation des acquis de connaissances et des résultats d'expérience. Mais on ne doit pas oublier que la physique atomique ne constitue que l'une des nombreuses autres interventions dans les processus naturels auxquelles procèdent les systèmes anthropotechniques: processus biologiques, reproductifs, cognitifs... Les sciences et techniques en résultant sont utilisées aussi bien pour l'amélioration des conditions de vie des sociétés s'efforçant de les maitriser que pour la destruction des sociétés rivales. Il ne servirait donc pas à grand chose de discuter de l'avenir du nucléaire sans replacer celui-ci dans l'évolution des sociétés anthropotechniques que nous venons de résumer.

Pour la clarté de l'exposé, nous le présenterons en trois parties, qui seront elles-mêmes des résumés trop sommaires de la richesse des questions sous-jacentes.

1. Les contraintes majeures auxquelles l'humanité sera confrontée dans le présent siècle
2. Privilégier une vision pessimiste-réaliste de l'avenir
3. Regard sur les différentes formes d'énergie
Conclusions concernant la France et l'Europe

1. Les contraintes majeures auxquelles l'humanité sera confrontée dans le présent siècle

Il faut examiner l'avenir du nucléaire et plus généralement de toutes les technologies aujourd'hui émergentes en tenant compte des contraintes majeures auxquelles, du fait leur propre évolution, les sociétés anthropotechniques – ou si l'on préfère parler plus simplement, l'humanité mondiale – seront confrontées dans les 50 à 100 prochaines années. Il s'agit là de thèmes de prospective et de débats qui font par ailleurs l'objet de nombreuses discussions entre experts et scientifiques. Malgré de fréquentes divergences d'approches, de grandes lignes paraissent pouvoir en être dégagées. On doit mpérativement en tenir compte dans la réflexion engagée ici. Peut-on les résumer en quelques mots? Le pronostic que vient de proposer le géographe et spécialiste en sciences de la Terre Laurence Smith dans un livre récent « The World in 2050 » 3) nous parait tout à fait recevable. Certains diront même qu'il est banal, le constat ayant déjà été fait par de nombreux prospectivistes 4). Encore faut-il méditer ce qu'il implique.

Selon cet auteur, d'ici 2050, horizon auquel il imite sa prospection, l'humanité comme avec elle le monde biologique terrestre et maritime affronteront 4 grands phénomènes irrévocables dont chacun mériterait à lui seul de longs développements :

1.1. La croissance démographique.

Contrairement à ce qu'en disent les théoriciens de la « transition démographique » le développement démographique humain paraît loin d'être maîtrisé sur la période. Il se traduira selon les pays par des natalités excessives mais aussi par des vieillissements inquiétants. L'augmentation de la population contribue en premier lieu à la raréfaction des ressources naturelles (voir ci-dessous). On explique qu'en mutualisant les ressources, notamment alimentaires, l'humanité pourrait faire face à cet accroissement. Mais cette mutualisation ne sera pas facilement acceptée par les bénéficiaires actuels des surplus.

1.2. Une raréfaction croissante des ressources naturelles

Cette raréfaction ira jusqu'à la disparition de beaucoup d'entre elles, notamment dans le domaine biologique. La mise au point de nouveaux procédés (y compris la récupération) et de nouveaux produits ne pourront pas pallier les manques, du fait des coûts et délais impliqués, mais aussi parce que les nouveaux produits sont eux-mêmes consommateurs de ressources en voie de raréfaction.

1.3. Les conséquences généralement perturbatrices du réchauffement climatique, quelles qu'en soient les causes.

Ce point n'est plus discuté par les scientifiques sérieux. Il entraînera une remontée vers les pôles des températures moyennes et de nombreux phénomènes catastrophiques météorologiques et climatologiques. Plus vite peut-être qu'actuellement envisagé se manifestera aussi la montée du niveau des eaux maritimes imposant l'exode d'activités urbaines et industrielles parmi les plus productives du monde.

. 1.4. Le phénomène général de la mondialisation.

Ce terme recouvre une grande quantités de phénomènes dont certains peuvent être considérés comme positifs mais d'autres dangereux. On met à l'actif de la mondialisation la diminution du coût d'un certain nombre de biens de consommation due à la concurrence entre producteurs. Les niveaux de vie de nombreuses populations pauvres en ont bénéficié. Mais le processus a son aspect négatif. La diffusion des modèles de consommation propres aux classes riches des pays riches à travers la publicité commerciale sur les réseaux numériques conduit à une explosion globale des besoins exprimés, que les ressources mondiales actuellement disponibles ne permettront pas de satisfaire. Nul ne peut envisager sérieusement que chaque asiatique ou africain puisse disposer par exemple d'une automobile, comme la majorité des européens ou des américains. La mondialisation telle qu'elle s'organise dans le cadre du capitalisme et du libéralisme économique conduit plus généralement à la domination de modèles de consommation et de modèles de société qui sont à l'opposé des modes de vie plus associatifs, plus mutualistes et orientés vers de nouvelles valeurs encore à inventer.

La diffusion de ces modèles de consommation, sous la pression des producteurs et des distributeurs dominants, conduit par ailleurs à la destruction des sociétés traditionnelles, sans leur proposer de modèles de remplacement. Ces sociétés traditionnelles étaient essentiellement rurales. Au lieu de chercher à les faire évoluer et se moderniser sur place, les gouvernements encouragent ou tolèrent les migrations des populations rurales vers des mégalopoles urbaines dont certaines seront relativement riches mais d'autres misérables et instables. Il faut insister sur ce phénomène spectaculaire de l'urbanisation, se traduisant par le fait que prochainement la plus grande partie de l'humanité vivra dans des villes incapables de subsister seules. Il en résulte déjà, du fait de l'appel généralisé à différentes technologies relevant de l'artificiel, une fragilité extrême. Le fait que ces villes pourraient par ailleurs s'effondrer très rapidement si elles étaient privées d'énergie, sous sa forme la plus souple qu'est l'électricité, constitue un des aspects des questions posées par l'augmentation généralisée de la demande en énergie.

Nous pourrions pour notre part apporter à cette prévision un complément de type politique. Les anthropos ou humains, associés aux techniques, n'acquièrent pas nécessairement, nous y avons fait allusion, les propriétés mentales leur permettant de se représenter au delà de leurs intérêts propres ceux de l'humanité et de la planète au sens large. Si certains le font, les prévisions et recommandations qu'ils émettent demeurent impuissantes à modifier les comportements collectifs de façon telle qu'elles puissent inverser le cours de l'évolution. Malgré la puissance de nos cerveaux, nous ne sommes pas en effet capables d'influencer ce que l'on pourrait pour simplifier définir comme les gènes guidant nos grands comportements collectifs, gènes hérités d'un passé biologique lointain et toujours actifs. Le généticien (chrétien) Christian De Duve a fait récemment remarquer 5) que les humains ne sont pas génétiquement programmés pour prévoir l'avenir au delà de quelques jours et surtout pour adopter concrètement des mesures de précautions découlant de ces prévisions. Les discours les plus moralisateurs et les mieux intentionnés n'en changeront rien.

Ajoutons par ailleurs que les compétitions entre humains, moins que jamais en voie de s'apaiser, conduisent à l'émergence de minorités oligarchiques associant pouvoirs économico-financiers, pouvoirs politiques et pouvoirs médiatiques. Les uns et les autres font tout pour exclure de la décision la grande masse des humains. La démocratie participative reste partout un voeu pieu 6). Ces pouvoirs oligarchiques, dans leurs compétitions internes, comme l'a bien souligné De Duve, sont incapables de prendre en compte autrement que dans des discours démagogiques un intérêt général plus global. L'expérience montre que les foules dominées ne peuvent espérer sauf marginalement utiliser les procédures dites démocratiques (là où elles existent, ce qui n'est pas le cas partout) pour remettre en cause les pouvoirs des oligarchies. Les autoritarismes ne reculent que là où, poussées à bout par les excès de pouvoir dont elles souffrent, certaines populations génèrent spontanément en leur sein des révoltes plus ou moins sauvages, dont il est impossible de prédire les conséquences, qu'elles soient heureuses ou qu'elles aboutissent à de nouvelles tyrannies. Nous avons évoqué ce phénomène sur notre ce site, à propos des révoltes dites du nouveau monde arabe, ou de celles survenues au coeur du système capitaliste, à Madison (USA)


2. Privilégier une vision pessimiste-réaliste de l'avenir du monde

Si nous considérons comme globalement fiable l'évaluation rappelée ci-dessus des contraintes qui pèseront sur l'évolution des systèmes anthropotechniques (autrement dit des sociétés) dans le demi-siècle ou le siècle, nous ne pouvons qu'en retenir une vision pessimiste de l'avenir probable. Nul ne sait évidemment de quoi cet avenir sera fait. Mais la pire des erreurs de prévision consisterait à s'imaginer que  « tout s'arrangera », pour des raisons tenant plus d'une croyance quasi mystique au progrès que d'un réalisme froid. Le pessimisme ne doit certes pas être utilisé comme argument pour expliquer aux victimes des oligarchies qu'elles ne pourraient rien faire pour améliorer leur sort, notamment par la lutte sociale. Le pessimisme doit servir en priorité à mesurer les obstacles et les risques pour se préparer, au moins mentalement, à les affronter. Plusieurs tendances lourdes pourraient dans cette optique marquer les prochaines décennies.

2.1. Une croissance accélérée de la consommation et donc de la production des biens et services en général.

Pour les raisons indiquées ci-dessus, croissance démographique, mondialisation poussant à l'adoption de niveaux de vie inspirés de ceux des pays développés, urbanisation rapide, volonté de profit à court terme animant les principaux acteurs économiques, il serait illusoire d'espérer une stabilisation des consommations-productions globales. Tout au plus pourrait-on espérer, dans les pays riches, une stabilisation voire une « décroissance » des formes de production-consommation les plus gourmandes en ressources primaires. Mais, comme nous le verrons plus loin, une telle stabilisation ou décroissance ne se produira que dans certains milieux « activistes », inspirés par une morale de la sobriété et du partage proche d'une véritable religion. Les signes, symboles ou « mèmes » de cette nouvelle religion décroissantiste, il est vrai, pourront profiter pour leur « contamination virale » des supports offerts par les réseaux numériques.

Evidemment, on pourrait envisager une diminution globale massive des consommations et des investissements correspondants. Mais ceci ne se produirait qu'en cas de catastrophes mondiales dont personne ne peut raisonnablement espérer la survenue. Ces catastrophes pourraient provenir soit d'évènements de grande ampleur liés au réchauffement climatique, soit d'un accident technologique majeur, notamment nucléaire, empoisonnant une grande partie de la Terre (nous y reviendrons), soit de conflits généralisés.

2.2. Une croissance corrélative des besoins et donc de la consommation-production d'énergie.

Si la croissance des consommations se poursuivait, il serait illusoire d'espérer une stabilisation, ni même une limitation de la croissance du recours à l'énergie, quelles qu'en soient les formes, sauf, à nouveau, la survenue de catastrophes de grande ampleur affectant l'une ou l'autre de ces énergies et rendant son utilisation radicalement impossible. Rappelons que les économies d'énergie, qui seront plus que jamais indispensables dans cette perspective, supposent un haut niveau technologique général qui ne les rendent pas toujours accessibles aux pays pauvres. Ceci veut dire que, dans le demi-siècle, aucune force au monde ne semble pouvoir empêcher les pays en développement le plus rapide (Chine, Inde, Indonésie) de faire appel au charbon, au pétrole, au gaz mais aussi au nucléaire, comme sources primaires. Les énergies renouvelables se développeront aussi. Mais leurs contreparties , en termes de coût, stockage, transport, empêcheront qu'elles ne deviennent les seules sources utilisées. Par ailleurs, l'électricité, malgré ses inconvénients (coût des réseaux de transport et de distribution, dificulté de stockage) sera de plus en plus employée, sinon dans les transports automobiles, du moins dans l'industrie/services et dans la vie domestique

.2.3. La fragilisation accrue des systèmes économiques et sociaux.

Plusieurs facteurs expliquent cette fragilisation: l'accroissement de la population et de la demande globale au regard des ressources disponibles et des possibilités de réponse des écosystèmes, l'artificialisation accrue des modes de vie y compris dans les mégalopoles les plus pauvres, faisant dépendre la survie de facteurs de moins en moins susceptibles de solutions de secours en cas de crise (par exemple le recours généralisé à l'électricité pour assurer l'ensemble des activités sociétales), la course au profit immédiat et à la dérégulation qui dépossèdent les autorités étatiques de leur rôle traditionnellement protecteur et normatif, l'illusion que les progrès technologiques futures pourront pallier tous les risques. Il faut envisager aussi les risques tenant à des attentats soit d'origine politique, soit liés à des pathologies mentales.

Même dans les pays développés, les sociétés urbaines ont sacrifié par volonté d'économie et de profit la redondance, la diversité et la dispersion des sources et des réseaux. Une grève dans le secteur pétrolier, des pannes ou attentats dans certains noeuds de distribution ou de transports, une pandémie infectieuse meurtrière et tout s'arrête, y compris les services d'urgence et de police. Les régions soumises aux risques naturels sont encore plus fragiles, car elles ne sont pas encore préventivement protégées.

2.4. La bunkerisation sinon la militarisation de plus en plus systématique des riches et des puissants.

Plus les difficultés d'accès aux ressources s'aggraveront, qu'il s'agisse des matières premières ou des territoires, plus les moins favorisés des détenteurs de ces ressources feront pression pour y accéder. Les minorités favorisés se sur-protégeront en conséquence. Cela se constate déjà au niveau des frontières terrestres ou maritimes, mais aussi au sein des quartiers et zones résidentielles dans les villes. Les protections feront de plus en plus appel à des moyens de type militaire, confiés soit à l'armée ou la police régulières, soit à des compagnies privées. Le respect de la vie humaine ne comptera plus guère au regard de la volonté de rendre les frontières étanches. On le constate déjà en Europe, à toute petite échelle, devant l'indifférence sinon la satisfaction avec lesquelles certains accueillent la nouvelle de naufrages affectant les immigrants venus du Sud. La militarisation fera un appel croissant aux systèmes robotisés de surveillance et de contrôle qui n'ont pas d'états d'âme.

2.5. Le recul, partout dans le monde, des anciennes traditions de service publique et de régulation par des Etats protecteurs.

Ce phénomène, que l'on pourrait qualifier de dramatique au regard de la protection des populations contre les abus de pouvoir des oligarchies, a commencé dès la fin de la seconde guerre mondiale, sous la pression du capitalisme américain et de l'idéologie libérale derrière laquelle il s'abritait. Il a tiré parti, il est vrai, des abus de pouvoirs perpétrés au nom du peuple par les dictatures se réclamant du marxisme. Mais dans la débâcle des Etats et des administrations publiques qui en a résulté, les idéaux un moment illustrés avec succès en France au nom du programme du Conseil national de la résistance: Etat providence, administrations intègres, nationalisations des secteurs stratégiques y compris dans la banque et l'assurance, ont été balayés. Aujourd'hui, les fonctions publiques qui s'en inspiraient ne survivent plus que dans le souvenir de leurs membres retraités. Les actionnaires privés qui gouvernent maintenant les grands services publics n'hésitent plus, pour raisons de rentabilité, à confier les secteurs les plus sensibles, y compris le nucléaire, à des sociétés d'interim elles-mêmes privées des moyens essentiels de fonctionnement.

3. Les différentes formes d'énergie composant le mix énergétique

On appelle mix énergétique la façon dont se répartissent, soit au niveau mondial, soit pays par pays, l'appel aux différentes sources d'énergie. Le mix peut être calculé avec une relative précision quand il s'agit des productions/consommations actuelles. Il faut aussi l'évaluer pour les années et décennies à venir. La précision, dans ce cas, diminue avec le délai et la nature des sources prises en compte. Elle dépend des technologies d'extraction et de production, des réserves prouvées ou estimées, des capacités de transport et de stockage, mais aussi, concernant les énergies renouvelables et les économies d'énergies, de nombreuses variables industrielles et commerciales qu'il n'est pas encore possible de détrerminer. Les estimations des productions et ressources mondiales d'énergie sont difficiles à faire avec précision. Néanmoins, dans le cadre de cet article, elles sont tout à fait suffisantes. On pourra se référer à Wikipédia, qui indique aussi les unités de mesures utilisées (6)

Le mix énergétique fait aujourd'hui l'objet de nombreuses estimations destinées à évaluer le rôle du nucléaire, devenu sensible à la suite de l'accident de Fukushima. Globalement, la part du nucléaire dans le mix énergétique mondial paraît très faible. Elle est, selon des chiffres que vient de publier l'Agence internationale des énergies renouvelables (7) , de 6% contre 87% pour le trio charbon, pétrole, gaz et 7% pour les renouvelables. Ces chiffres devraient, sauf accident, passer respectivement en 2035 à 8%, 78% et 14%. Il est difficile de prévoir comment il évoluera au delà. Les combustibles fossiles auront peut-être atteint un pic d'extraction vers 2050, mais le nucléaire, faute de matière première et en attente problématique de la fusion, plafonnera également. L'importance des renouvelables dépendra beaucoup des financements et de la recherche qui leur seront consacrés. Voyons cela par grands domaines.

3.1. Les énergies fossiles.

Tout à déjà été dit concernant ces énergies: charbon, pétrole, gaz. Rappelons seulement ici quelques points concernant le propos de cet article. Concernant les atouts dont ils bénéficient, aux yeux des dirigeants mais aussi du public, disons que les réserves prouvées restent importantes, notamment à l'échéance du demi-siècle. Concernant les réserves probables, il existe des perspectives d'extraction coûteuses et dangereuse pour l'environnement mais que ne manqueront pas de recommander les industriels (schistes bitumineux, forages profonds, appel aux méthanes, etc. ) . Les réserves actuelles sont inégalement réparties, mais dans l'ensemble ce sont les pays pauvres ou émergents qui détiennent les plus importantes d'entre elles. L'extraction des combustibles fossiles est par ailleurs relativement facile et à la portée des pays ne disposant pas de technologies très avancées. Elle est dangereuse, notamment en ce qui concerne le charbon. Mais la mort des mineurs n'émeut manifestement personne. Un autre atout important est que l'utilisation des combustibles fossiles n'exige pas de transformation des parcs industriels ou, en ce qui concerne les transports, des moteurs.

Concernant le gaz, jugé globalement moins polluant et moins producteur de CO2 que le pétrole, la découverte récente de « gaz de schistes » ou « shale gaz » très présent dans de nombreux pays consommateurs est considérée par les intérêts gaziers comme une aubaine inespérée. Mais les méthodes de recherche et d'extraction, par hydro-fracturation, soulèvent à juste titre de fortes oppositions des personnes résidant près des puits. Comme ceux-ci sont très dispersés, la résistance s'étendra prochainement à de nombreux territoires. Elle risque de devenir aussi forte que celle s'opposant au nucléaire.

Au passif, les combustibles fossiles contribuent lourdement à la production de gaz à effet de serre et de diverses pollutions qui ont un effet sanitaire néfaste incontestable. Ils sont donc vivement combattus par les scientifiques du climat et les minorités politiques qui soutiennent leur combat. Nous sommes de ceux-ci. Il nous paraît incontestable que le réchauffement climatique entraînera de graves conséquence sur les équilibres économiques et sociétaux actuels. Les activités humaines n'en sont sans doute pas les seules causes, mais tout ce qui contribuera à en accentuer les effets serait à proscrire au plus vite. Les solutions proposés par divers lobbies industriels et scientifiques visant à séquestrer le carbone ou protéger la Terre des rayons solaires seront longtemps des utopies. Il faudrait donc sortir rapidement, comme on le dit à propos du nucléaire, de l'addiction au charbon et au pétrole.

Mais ceci ne se fera pas, notamment sous la pression des pays émergents qui ont besoin de ces ressources pour atteindre leur objectif actuel, approcher le niveau de vie des pays riches. Il serait donc illusoire de penser que la part des combustibles fossiles dans le mix énergétique mondiale diminuera sensiblement dans les cinquante prochaines années. Elle restera, comme nous l'avons indiqué, aux alentours de 70%. Ce sera indiscutablement très dangereux pour l'environnement. Il sera trop tard pour s'en soucier lorsque sera atteint ce que les climatologues nomment le « tipping point », avec emballement en chaine des effets destructeurs. Mais les risques n'étant pas immédiat, nul ne se préoccupera vraiment de ces échéances dans les prochaines années.

3.2. Les énergies renouvelables et les économies d'énergie

On peut examiner ces deux formes d'action, visant à diminuer l'appel tant aux combustibles fossiles qu'au nucléaire, dans la même rubrique. Elles présentent de nombreux aspects positifs. C'est moins dans l'immédiat au regard de leur effet en tant que producteurs primaires d'énergie que sur la forme de société permettant d'y faire appel que les énergies renouvelables paraissent intéressantes. Disons pour résumer qu'elles conviennent particulièrement à l'idéal d'une société où se démocratiserait l'accès aux technologies et aux sciences fondamentales. Dans le cadre de notre revue, nous ne pouvons pour notre part que militer pour leur développement. En principe, avec du temps, des moyens budgétaires importants, beaucoup de ressources en matières premières dont certaines rares, beaucoup d'énergie classique aussi aux débuts, une volonté politique sans faille enfin, la plupart des usages actuels de l'énergie traditionnelle, y compris ceux intéressant les carburants liquides, pourraient être satisfaits à partir du soleil, du vent, de la géothermie, de la houle, de la transformation des déchets, de la photosynthèse.Par ailleurs, à l'échelle du siècle, différents projets encore futuristes permettraient, par exemple avec des centrales solaires orbitales, de s'affranchir des contraintes locales.

Parallèlement, avec là aussi les mêmes moyens globalement importants, les économies d'énergie pourront contribuer sensiblement à la diminution de la facture énergétique globale. Il pourra d'abord s'agir de modes de vie moins dispendieux, plus ascétiques, (pouvant parfois il est vrai prendre la forme d'un certain « terrorisme intellectuel »). Il pourra aussi s'agir de nouvelles solutions industrielles visant à ce que l'on nomme l'efficacité énergétique: remplacer les techniques et matériels gros consommateurs, y compris en électricité, par des solutions plus économiques. Mais il pourra aussi s'agir là, sous l'influence des lobbies industriels pratiquant le 'green-washing", d'une façon de relancer de nouvelles formes de consommations non véritablement nécessaires.

Comme nous venons d el'indiquer, l'intérêt des énergies renouvelables, comme des économies d'énergies, est tout autant politique que strictement économique. Les recherches/développements comme les investissements à y consacrer, bien qu'importants, pourraient être distribués géographiquement et socialement. Ils ne seraient donc pas exclusivement le monopole des géants des secteurs énergétiques ou des industries manufacturières. Les collectivités locales, les « citoyens » pourraient s'impliquer directement, soit dans la mise en oeuvre des nouvelles sources d'énergie, soit tout autant et plus dans le domaine essentiel des économies d'énergie. Des modes de vie qui paraissent essentiels pour faire face aux crises futures pourraient en résulter: inventivité permanente, refus des modèles de consommation-gaspillage, volonté de partage social y compris au bénéfice des pays pauvres. L'avenir enfin pourra faire apparaître, car il s'agira de secteurs en inventivité permanente, des solutions technologiques ou sociétales tout à fait inattendues 8).

Tous ces avantages expliquent le fait que l'ensemble des Etats, des plus développés aux plus pauvres, mettent aujourd'hui les secteurs correspondants au premier plan de leurs programmes économiques et politiques. Mais il ne faut pas se faire d'illusions. Nous l'avons vu à propos des combustibles fossiles, ces mêmes Etats continueront pour l'essentiel à faire appel à des derniers. Nous allons voir ci-dessous ce qu'il en est de l'énergie nucléaire. Si l'on tient compte de différents facteurs de blocage que les défenseurs des énergies renouvelables n'envisagent pas volontiers, il paraît raisonnable de penser que dans les trente prochaines années la part des renouvelables de dépassera pas 30% des besoins, estimation d'ailleurs supérieure aux prévisions de l'Agence internationale précitée en charge du secteur. 9)

3.3. Le nucléaire.

Celui-ci pose des problèmes particuliers. A la site de l'accident de Fukushima.ils génèrent actuellement de nombreuses discussions. Nous devons y consacrer ici quelques développements spécifiques.

Pourquoi dira-t-on, courir tous les risques sous-jacents au nucléaire, et faire courir ces risques au monde dans son ensemble, pour un si faible résultat global soit quelques % du panier énergétique global. Les réponses sont complexes, car la maîtrise de l'énergie nucléaire peut dans une certaine mesure résumer toutes les ambitions et les contradictions de l'aventure humaine, autrement dit les ambitions des sociétés anthropotechniques qui se sont investies dans les filières à très haute technicité. Bien que moins risquée au plan global, l'exploration des planètes proches par certaines nations relève dans une certain mesure aussi de ce que certains qualifient d'aventure inutilement coûteuse.

3.3.1. Le nucléaire n'est pas une énergie comme les autres.

Nous avons vu que la compétition pouvant prendre la forme de guerres ouvertes a toujours été et demeurera sans doute longtemps un des moteurs de l'évolution des sociétés anthropotechniques. Les protestations pacifistes n'y changeront pas grand chose avant longtemps, à moins de catastrophe globale qui modifierait en profondeur les états d'esprits. Il ne faut pas oublier que ce fut la réalisation d'armes atomiques qui a poussé chacun à son tour les 5 grands du club nucléaire mondial initial (USA, Russie, Grande Bretagne, France, Chine) ) à se doter des moyens d'extraire de l'énergie à partir de la fission de l'uranium puis de la fusion de l'hydrogène. Les armées de ces pays considèrent encore par ailleurs que la propulsion atomique appliquée à certains de leurs navires demeure la seule solution permettant d'assurer autonomie à long terme et discrétion. L'arme nucléaire enfin reste partout considérée, y compris dans les pays qui n'en sont pas dotés, comme un moyen ultime mais incontournable de dissuasion. Le nombre des Etats qui ont suivi ou veulent suivre cette voie ne cesse de grandir, malgré les efforts des Cinq pour empêcher la prolifération dans le cadre du Traité du même nom. Israël, l'Inde, le Pakistan, sans doute la Corée du Nord, sont dorénavant dotés de la bombe. D'autres comme l'Iran, le Brésil, l'Afrique du Sud s'y s'efforcent plus ou moins discrètement.

Tous les programmes politiques affichant l'objectif de « sortir du nucléaire » se heurteront longtemps à cette réalité. Les industries et les laboratoires nucléaires travaillant pour la défense ne seront jamais fermés, quels que soient les risques pouvant en résulter. Les militaires et les diplomates feront valoir, sans doute à juste titre, qu'un pays comme la France renonçant à sa force nucléaire stratégique pour faire preuve de bonne volonté dans la compétition entre les nations se mettrait ipso facto sous la dépendance de pays n'hésitant pas à utiliser des armes dites conventionnelles tout aussi destructrices. Ce point est régulièrement discuté dans les cercles stratégiques européens. On peut penser que des Etats comme l'Allemagne ou l'Italie qui pour diverses raisons n'ont pas développé de « parapluie nucléaire » seraient heureux de profiter, en cas de menaces majeures, de la dissuasion offerte par la France et la Grande Bretagne, à défaut de l'appui des celle des Etats-Unis, sur lequel les Européens ne peuvent désormais plus compter 10).

Un autre atout de l'énergie nucléaire, qu'elle soit appliquée au militaire ou au civil, est qu'il s'agit d'un « vecteur de puissance ». Ce point est généralement peu mis en évidence par les Etats qui souhaitent y faire appel. On désigne par ce terme les technologies dont le développement ou l'utilisation obligent à recruter et former des équipes de haute compétence, sous la responsabilités d'administrations centralisées très proches des gouvernements. Elles nécessitent aussi une forte protection poussant à la mise en place de mesures policières de contrôle inhérentes à une vision régalienne exacerbée de la gestion publique. On peut dire la même chose des technologies ou équipements militaires ou spatiaux, comme de tous les grands réseaux centralisés et fragiles sur lesquels reposent dorénavant les sociétés civiles. Les défenseurs des autres formes d'énergie vantent au contraire leur caractère modulable et décentralisable, présenté comme plus démocratique.

Il est facile de critiquer les technologies de puissance et les administrations fortement organisées et sécurisées qui devraient en principe être chargées de les mettre en oeuvre. Mais le faire serait oublier que le siècle actuel ne sera pas celui de la facilité et de l'improvisation. Ce sera celui des crises. Ne survivront que les organisations ayant un minimum de contrôle et de cohérence dans leurs actions. L'expérience acquise dans la prévention voir dans la réparation des grandes crises naturelles, technologiques, humaines, sera une des condition de la survie. A cet égard, on peut penser qu'un pays ayant réussi pendant 50 ans à gérer l'industrie nucléaire sans catastrophes majeures sera mieux armé pour faire face aux difficultés qui s'annoncent qu'un pays s'étant dédié au tourisme et aux beaux-arts.

Il est donc particulièrement paradoxal que sous l'influence du néolibéralisme développé en Occident, voire dans des pays plus autoritaires comme la Russie et la Chine, les oligarchies au pouvoir veuillent sous-traiter les tâches nécessairement régaliennes de conception et de contrôle des industries et des activités nucléaires à des entreprises privées ne visant que le profit à court terme de leurs actionnaires. Cette même volonté de privatisation est en train de détruire les traditions militaires et aujourd'hui spatiales de pays comme les Etats-Unis ou la Russie. Les compagnies privées y assurent dorénavant, au mépris de l'intérêt général, des objectifs stratégique de long terme. Avec la sécurité des biens et des personnes, elles accaparent des responsabilités jusqu'ici confiées à des administrations militaires et civiles disposant de décennies de tradition du service public.

Il est évident que dans ces conditions, comme le montre l'exemple déplorable du Japon, la gestion « privée » de l'énergie nucléaire ne pouvait que révéler à long terme des failles désastreuses. Certes, répétons-le, le nucléaire est dangereux, mais en confier la responsabilité à des sociétés capitalistes ne peut qu'augmenter sa dangerosité. Une nationalisation s'imposerait, mais le Japon, sous l'influence du gouvernement américain champion du libéralisme l'ayant mis sous tutelle à la fin de la 2e guerre mondiale, a perdu toutes les références en matière de gestion publique dont il disposait sous l'ancien Empire du Soleil Levant – dont les militaires il est vrai firent un usage désastreux dans les années 1930-1945. Il y a tout lieu de craindre qu'en Europe la « libéralisation rampante »  du gaz, de l'électricité et du nucléaire ne conduise aux mêmes catastrophes.

3.3.2. Avantages et risques spécifiques au nucléaire

Au delà des considérations de nature stratégiques, qui peuvent pousser à conserver l'industrie nucléaire comme un vecteur de puissance, d'autant plus formateur qu'il est générateur de risques, que peut-on dire des avantages et risques du nucléaire au regard des autres formes d'énergie. Le sujet a été amplement débattu. Inutile de s'y attarder ici. En ce qui concerne les avantages, d'une façon générale, même s'il ne couvre qu'une partie des besoins en énergie (essentiellement en électricité), le nucléaire permet aux pays utilisateurs de diversifier le panier énergétique, de faire appel à des emplois locaux pour la maintenance et de générer des revenus pouvant bénéficier aux collectivités locales hébergeant les sites. Pour les pays producteurs de centrales, à ces avantages s'ajoutent les économies sur les redevances versées aux pays pétroliers, l'acquisition d'une capacité exportatrice et une certaine indépendance politique, même s'ils ne disposent pas directement des gisements d'uranium nécessaires.

Au regard, jusqu'à ces dernières semaines, les risques apparaissaient statistiquement faibles, pouvant au pire se limiter à des accidents maîtrisables. Le principal reproche fait au nucléaire était son coût qui, selon les promoteurs des autres formes d'énergies, notamment les renouvelables, empêchait de développer celles-ci à l'échelle et à la vitesse dorénavant nécessaire. L'argument ne tient pas dans les pays prudents où, comme en Chine, l'appel au nucléaire reste partiel et n'assèche pas les ressources d'investissement consacrées à l'énergie en général.

Mais l'expérience du Japon conduira sans doute à réévaluer les risques au regard des avantages, même si ceux-ci demeurent incontestables. La menace d'un accident majeur pouvant rayer des régions entières de la carte, dans un pays ou pire encore dans un ensemble de pays, ne serait évidemment pas acceptable, ni par un gouvernement , ni par la communauté internationale. Mais un tel accident pourrait-il se produire, si des précautions et des sécurités particulièrement contraignantes étaient mises en oeuvre? Ce sont à ces questions que devront répondre les pays décidés à fermer leurs centrales ou à ne pas en acquérir, comme les pays décidés à conserver leurs centrales ou à en construire de nouvelles. Rappelons que la construction de dizaines de nouvelles centrales était jusqu'à présent programmée dans l'ensemble du monde.

3.3.2. Le choix d'abandonner le nucléaire.

Le nucléaire n'est pas une énergie comme les autres, en ce sens que,comme nous l'avons rappelé ci-dessus, elle touche aux bases mêmes de l'organisation de la matière-énergie. Elle est potentiellement particulièrement dangereuse en terme de production de catastrophes brutales et visibles. L'utilisation des combustibles fossiles présente des risques certains, notamment contribuer à l'effet de serre et donc aux catastrophes découlant du réchauffement climatique, mais ces risques sont plus diffus et bien plus lointains. On conçoit donc que de plus en plus de personnes demandent l'abandon de l'énergie nucléaire. Cela ne posera pas de problèmes particuliers lorsqu'il s'agira, comme ce sera le cas dans la majorité des pays, de renoncer à construire des centrales. Il faudra seulement trouver des sources d'énergies de substitution, en évitant la facilité consistant à s'en tenir aux combustibles fossiles. Bien plus difficileà faire sera le choix consistant à fermer des centrales existantes. Celles-ci produisent de l'électricité que l'on ne pourra pas obtenir d'autres sources du jour au lendemain. Chacun convient, même les anti-nucléaires les plus convaincus, que renoncer aujourd'hui au nucléaire posera de nombreux problèmes qui ne seront pas résolus avant plusieurs décennies.

Il faudra d'abord arrêter et démanteler les centrales les plus dangereuses: centrales vieillies mais encore en service dans les pays développés, centrales soit vieillies soit mal entretenues dans des pays plus pauvres. Les pires de celles-ci sont les réacteurs de type Tchernobyl encore en activités. Il faudra aussi sécuriser les entrepôts de combustibles et les décharges de déchets ou d'armes nucléaires tels que ceux laissés à l'abandon en Russie. Tout ceci demandera plusieurs années sinon plusieurs décennies, en fonction des moyens affectés. Il faudra par ailleurs que ces mesures s'appliquent à tous les pays potentiellement menacés. sans exception. A quoi bon arrêter une centrale dans un pays donné si une centrale bien plus dangereuse potentiellement demeure en activité dans un pays voisin?

Il faudra ensuite entretenir les centrales dont l'arrêt progressif aura été décidée, avant que cet arrêt puisse effectivement être concrétisé – avant notamment que de nouvelles formes d'énergie aient pu prendre le relais. Mais comment alors distinguer entre entretenir une centrale en l'état et implémenter progressivement des solutions qui la rendrait plus sûre et donc plus acceptable?
Dans les deux cas, tous les crédits affectés à ces opérations, dont le chiffrage est très difficile, seront prélevés sur des dépenses que les gouvernements ou les électorats jugeront prioritaires – y compris d'ailleurs sur les investissements destinés aux énergies renouvelables. On peut craindre que dans ces conditions, les dépenses de sécurisation soient limités au maximum, ou étalées dans le temps, quitte à espérer que les catastrophes possibles ne se produiront pas
.
3.3.3. Le choix de conserver le nucléaire

Un tel choix est caricaturé par le terme de « tout nucléaire ». Le terme n'a pas lieu d'être. Personne n'a jamais prétendu ou, en tous cas, plus personne ne prétendra après Fukushima, qu'il faudra ne conserver que le nucléaire comme source d'énergie. Ceci même en France où le nucléaire couvre environ 70% des besoins en électricité. Pour les raisons de sécurité qui viennent d'être évoquées, il faudra donc quel qu'en soit le coût programmer l'arrêt et le démantèlement des centrales les plus vieillies ou situées sur des sites reconnus comme à risques au regard de normes de sécurité renforcées. Ceci aux conditions de délais et de sécurisation que nous avons évoqué dans le paragraphe précédent. Faudrait-il renoncer pour autant à construire de nouvelles générations de centrales. Les défenseurs de l'énergie nucléaire feront valoir qu'une telle décision représenterait un véritable crime contre la science. Elle consisterait à priver de toutes compétences nucléaires, civiles ou militaires, les générations futures.

Une solution de compromis consisterait, non à remplacer toutes les centrales anciennes par des centrales de nouvelle génération, mais à mettre en place, pays par pays ayant fait le choix de conserver une compétence nucléaire, une ou deux centrales présentant le maximum de solutions de sécurité . Est-ce le cas de la solution EPR actuellement proposée par Aréva? Serait-ce le cas des solutions dites de 4e ou de 5e génération discutées dans les cercles techniques. Ce n'est pas le lieu d'en traiter ici. Mais il devrait certainement être possible de s'accorder sur des solutions de ce type, à condition qu'elles soient développées par des opérateurs non-commerciaux (autrement dit des services publics non astreints à rentabilité) et sous un contrôle démocratique permanent. Ceci veut dire aussi qu'il faudra parallèlement proscrire chez soi comme chez les autres, par un accord international en ce sens, l'appel à des solutions dites low-cost dans lesquelles certains pays se sont déjà engagés.

Corrélativement, les pays qui conserveront des centrales nucléaires devront accélérer la mise au point des énergies de fusion considérées aujourd'hui comme ne présentant pas tous les risques de la fission, fut-elle de 4e ou 5e génération. Le seul chantier en cours actuellement se trouve en France, à Cadarache, sous le nom d'Iter 11). Nous en avons souvent débattu sur ce site. C'est un honneur pour l'Europe de l'héberger, mais le site géographique lui-même est-il le mieux choisi? On notera par ailleurs qu'en mettant davantage de moyens dans la recherche consacrée à la fusion nucléaire et à toutes les technologies associées, notamment en ce qui concerne les enceintes en métaux spéciaux destinés à confiner les neutrons rapides qui seront produits, les délais du demi-siècle annoncés pour le réacteur de démonstration Iter pourraient certainement être diminués.

Conclusion. Perspectives possibles concernant le nucléaire, en France et en Europe

Nous ne présentons pas pour le moment de propositions sur ces points.

Notes
1) Référence. Jean-Paul Baquiast. Le paradoxe du Sapiens, JP. Bayol 2010
2) Chronologiquement le fission des atomes de métaux hyperlourds naturellement instables tels que le radium et l'uranium a été maîtrisée la première. La fusion demandant beaucoup plus d'énergie extérieure a été été entreprise ensuite. Elle est loin d'être encore d'être maîtrisée, sauf dans les coeurs de bombes nucléaires ou en laboratoire dans de très petits volumes assurant le confinement et la pression nécessaire.
3) Laurence C. Smith « The World in 2050 » Dutton 2010
4) Dont Martin Rees (http://www.automatesintelligents.com/biblionet/2003/avr/rees.html), James Lovelock ( http://www.automatesintelligents.com/biblionet/2009/mar/lovelock.html ) et Jacques Blamont (http://www.automatesintelligents.com/biblionet/2004/sep/blamont.html) ...dont nous avions présenté les travaux.
5) Interview de C. De Duve. http://www.newscientist.com/article/mg20928015.400-biology-nobelist-natural-selection-will-destroy-us.html
6)Voir le livre de Hervé Kempf, « L'oligarchie c'est fini » qui résume bien cette question déterminantes des oligarchies prenant en mains l'évolution de l'ensemble de la planète (http://www.automatesintelligents.com/biblionet/2011/mar/kempf.html)
7) L'Agence internationale des énergies renouvelables (Irena, http://www.irena.org/) a été créée au sein de l'Onu en janvier 2009, sur une initiative allemande. Elle compte quelques 75 membres. Elle vient de tenir sa première assemblée générale les 4 et 5 avril à Abou Dhabi. Lieu de nombreuses tensions, elle a été en effet récupérée par l'émirat pétrolier, avec l'appui des Etats-Unis et de la France, ce qui compromet sa légitimité. L'Allemagne y reste présente, par le Centre d'innovation et de technologie implanté à Bonn.
8)Wikipedia: http://fr.wikipedia.org/wiki/Ressources_et_consommation_%C3%A9nerg%C3%A9tiques_mondiales. Voir aussi l'OCDE http://www.observateurocde.org/news/fullstory.php/aid/433/_C9nergie_mondiale_.html
9) On étudiera le scénario présenté par l'association negaWatt qui, insiste à juste titre, non seulement sur l'appel aux énergies renouvelables, mais sur les économies d'énergie, sous la double forme de la sobriété énergétique et de l'efficacité énergétique. Mais telles qu'exposées par cette association, ces différentes solutions ne semblent accessibles dans l'immédiat qu'à des pays ayant déjà une forte expérience industrielle et citoyenne, au rang desquels en Europe l'Allemagne et les pays scandinaves. NegaWatt http://www.negawatt.org/
10). En avril 2011, fait significatif, la Grande Bretague vient de proposer à la France d'étudier une mise en commun des forces nucléaires strétégiques des deux pays. Cela est présenté sous l'angle des économies d'échelle. Mais on notera qu'aucun des deux pays n'envisagerait pour cette raison de renoncer à leur force de frappe.
11) Iter http://www.iter.org

Partager cet article
Repost0
8 décembre 2010 3 08 /12 /décembre /2010 23:06

Jean-Paul Baquiast 08/12/2010

La totalité des biologistes considèrent que la vie sur Terre est une émergence de la chimie. Autrement dit, les premiers éléments constitutifs d'un organisme auquel on prête les caractéristiques définissant un être vivant seraient apparus à la suite de processus intéressant la combinaison et la synthèse de corps chimiques, eau, carbone, oxygène, etc. Ainsi la production des premières molécules biologiques n'aurait pas été possible sans la présence de composés de type biochimiques tels que les enzymes. Certes des processus physiques, tels que les modifications de gradients de température et de pression, ont été nécessaires pour accélérer sinon déclencher les réactions vitales évolutionnaires, mais celles-ci n'auraient pas eu lieu sans l'existence préalable de telles enzymes 1)

Or un article récent associant un physicien et un biologiste reconnus, Nigel Goldenfeld et Carl Woese de l'Université de l'Illinois, propose un paradigme tout à fait différent, susceptible de bouleverser bien des opinions établies intéressant le concept même de vie, et pas seulement son apparition. Il implique la vie telle qu'elle a pu ou pourrait être, sur Terre mais aussi dans l'univers au sens large. Nous avons dans des articles précédents mentionné le rôle de Carl Woese comme « inventeur » d'un 3e domaine de la vie, les archées, et d'un mécanisme essentiel dans la production d'espèces nouvelles, le transfert horizontal de gènes. Il a aussi proposé de conférer à l'ARN se développant sur des substrats favorables un rôle essentiel dans la production des premières formes de vie. Il s'agit de l'hypothèse dite du « monde de l'ARN » (RNA world) 2). Quant à Nigel Goldenfeld, il est professeur de physique et de biophysique, très investi dans l'étude des phénomènes de complexité 3).

Aujourd'hui, dans l'article de arxiv.org référencé ci-dessous, ils font l'hypothèse que l'apparition de la vie n'a pas été liée, au moins primitivement, à des phénomènes d'évolution de type darwinien entre composants chimiques et biochimiques. Ils proposent de la lier à une branche de la physique dite de la matière condensée. Plus précisément, la vie serait un phénomène émergent se produisant dans certains systèmes physiques définis comme loin de l'équilibre, selon l'expression popularisée par Ilya Prigogine. On appelle condensées les phases de la matière qui apparaissent dans les systèmes où le nombre de constituants est grand et les interactions entre eux sont fortes (Voir wikipedia). Cette matière ne se rencontre à l'état naturel que dans des milieux cosmologiques exotiques, tels que les étoiles à neutrons. Mais elle peut être produite en laboratoire.

On avait constaté (wikipedia) dès les années 1960 qu'en ce cas, nombre de théories et de concepts développés pour l'étude des solides pouvaient s'appliquer à l'étude des fluides, les propriétés du fluide quantique constitué par les électrons de conduction d'un métal étant très similaires à celle d'un fluide constitué d'atomes, ainsi que le montre la forte ressemblance entre la supraconductivité conventionnelle et la superfluidité de l'hélium-3. Nous pouvons définir ici la supraconductivité (ou supraconduction) comme un phénomène caractérisé par l'absence de résistance électrique et l'annulation du champ magnétique. La superfluidité, pour sa part, peut être décrite comme la propriété de l'hélium liquide à très basse température lui permettant de s'écouler à travers des canaux capillaires ou des fentes étroites sans adhérer aux parois. Ces deux propriétés apparaissent subitement, lorsque l'on modifie les conditions de température et de pression, d'une façon mal expliquée, de sorte que la plupart des physiciens estiment légitime de parler d'émergence.

Mais comment la vie pourrait-elle émerger de processus loin de l'équilibre? Là encore un minimum de définition s'impose dans le cadre de cet article. On nomme loin de l'équilibre les systèmes physiques soumis à la thermodynamique et donc au temps. Lorsque l'on modifie les conditions de l'équilibre d'un corps, par exemple la température ou la pression, on augmente au niveau microscopique sa capacité à bifurquer vers des états imprévisibles. La matière peut alors se réorganiser en faisant par exemple apparaître de nouvelles structures cristallines. Ceci est vrai tant pour la matière macroscopique que pour la matière microscopique ou infra-atomique 4) . Dans le cas de la vie, que pourrait-il se passer?

Goldenfeld et Woese prennent l'exemple de la supraconductivité citée ci-dessus. Les phénomènes de supraconductivité pourraient être expliqués par l'appel à des processus chimiques, les propriétés des atomes étant modifiées par les changements d'orbite de leurs électrons résultant des modifications de température et de pression. Mais pour Goldenfeld et Woese ces explications ne suffisent pas. Ils rappellent que la supraconductivité est liée aux caractéristiques quantiques de la matière (on parle notamment de condensat de Bose-Einstein). Il s'agit de théories qui décrivent les relations entre des champs magnétiques et des phénomènes plus profonds intéressant la matière/énergie au plan fondamental.

Pour eux, la vie est comparable à la supraconductivité, sans évidemment qu'elle découle de causes analogues. Elle devrait pouvoir être décrite comme un phénomène émergent nécessitant la compréhension des lois physiques fondamentales qui commandent son comportement. Les algorithmes darwiniens qui sont utilisés pour décrire les phénomènes de l'évolution biologique sont pour eux bien trop réducteurs. Ils font très vite apparaître des contraintes, telles que celles résultant de la « construction de niches », qui limitent et canalisent les possibilités théoriques du paysage évolutionnaire. Dès qu'une solution est trouvée par l'évolution biologique, qu'ils nomment un « minimum local », que l'on pourrait aussi qualifier d'optimum local, elle est exploitée aux détriment de ce que pourraient être l'exploration d'autres embranchements évolutifs conduisant à des solutions profondément différentes.

Or l'on pourrait imaginer que les lois physiques relevant de l'aléatoire quantique puissent faire « émerger » des formes prévitales (prébiotiques) qui seraient d'abord de nature physique, puis ensuite biologiques, ceci à partir de contraintes beaucoup plus larges et donc moins limitatives. Dans ce cas, dans les trillions de planètes peuplant la voie lactée, aux conditions physiques variées, pourquoi ne pas penser que des formes de vie très différentes de celles que nous connaissons aient pu ou pourraient apparaître. Pourquoi ne pas essayer en laboratoire de mettre en oeuvre des processus physiques partant des mêmes hypothèses?

Dans l'immédiat, certains physiciens font valoir qu'à défaut de pouvoir mettre à l'épreuve l'hypothèse en laboratoire, il serait possible de le faire à moindre frais à partir de modèles mathématiques et informatique développant le concept de l'univers computationnel, soutenu par des cosmologistes tels que Seth Lloyd. 5)

Nous pourrions ajouter ( mais ceci n'a peut-être pas de rapports avec cela) que des expériences récentes portant sur des couches minces de graphène présentant dans certaines conditions des propriétés caractéristiques de la matière condensée ont permis au cosmologiste Petr Horava de formuler des hypothèses révolutionnaires concernant les relations entre l'espace-temps relativiste et la mécanique quantique . Les atomes de graphène sont de très petites particules et les mouvements des électrons qui s'y meuvent peuvent être décrits par les équations de la mécanique quantique. Comme par ailleurs ils se déplacent à des vitesses très inférieures à celle de la lumière, il n'est pas nécessaire de tenir compte des effets relativistes. Le temps n'intervient donc pas. Si cependant l'on refroidit le graphène aux alentours du zéro absolu, les mouvements des électrons y accélèrent considérablement, comme les distances parcourues, si bien qu'il faut faire appel aux théories de la relativité, et donc au facteur temps, pour les décrire correctement. Le temps émerge 6). L'émergence du temps n'est certes pas comparable à celle de la vie. Mais ces recherchent montrent que la matière condensée n'a pas encore livré tous ces mystères.

Quoiqu'il en soit, force est de constater que la plupart des biologistes qui se sont exprimés sur le papier de Goldenfeld et Woese ont paru très réservés. Ils attendent, disent-ils, des preuves. C'est tout à fait légitime de leur part, mais le mérite d'un nouveau paradigme scientifique n'est-il pas de faire germer dans les esprits de nouveaux ensembles d'hypothèses et de vérifications expérimentales?

Notes
1) Une étude récente a montré que le temps mis par une enzyme pour faciliter la production d'un élément nécessaire à la vie peut varier de 2 milliards d'années à quelques heures en fonction de la température ambiante, aux alentours de 1 à 2° degré dans l'eau de mer ordinaire ou dépassant 100° dans les « fumeurs » volcaniques sous-marins. (Voir Space Daily http://www.spacedaily.com/reports/Heat_Helped_Hasten_Beginnings_Of_Life_999.html
2) Carl Woese. Voir notre article
http://www.automatesintelligents.com/echanges/2006/fev/newbio.html
ainsi que Wikipedia http://fr.wikipedia.org/wiki/Carl_Woese
3) Nigel Goldenfeld http://guava.physics.uiuc.edu/~nigel/
4) Selon Ilya Prigogine (La fin des certitudes): « Alors que, à l'équilibre et près de l'équilibre, les lois de la nature sont universelles, loin de l'équilibre elles deviennent spécifiques, elles dépendent de processus irréversibles (…) Loin de l'équilibre, la matière acquiert de nouvelles propriétés où les fluctuations, les instabilités jouent un rôle essentiel : la matière devient plus active ".
5) Voir notre article http://www.automatesintelligents.com/biblionet/2006/avr/lloyd.html
6) Voir notre article Nouvelles considérations sur le temps http://www.automatesintelligents.com/echanges/2010/oct/horava.html

Références
* http://www.technologyreview.com/blog/arxiv/26059/?ref=rss
* http://arxiv.org/abs/1011.4125

Partager cet article
Repost0
2 octobre 2010 6 02 /10 /octobre /2010 14:14

Anisotropie supposée de l'univers et statistiques bayésiennes
Jean-Paul Baquiast 29/09/2010


L'excellent précis en ligne canadien consacré à une présentation de l'univers, dont nous ne pouvons que conseiller la lecture (http://universe-review.ca/index.htm), écrit ceci à propos des anomalies observées dans le rayonnement fossile micro-ondes ou CMB (cosmic microwave background radiation) par le satellite américain Wilkinson:

1. It has been deduced from the absence of radio sources that there is a big hole in the sky devoid of both normal and dark matter in the direction of the constellation Eridanus. Its size is nearly a billion light years across at a distance 6 - 10 billion light years away (40 times larger in volume than the previous record holder). The void coincides with an extra large cold spot in the WMAP map covering a few degrees of the sky (many times more than the full moon). The temperature of the void is between 20 and 45 % lower than the average. It is suggested that the discovery of the void ties in neatly with the WMAP cold spot and the existence of dark energy as the photons would lose energy passing through an empty space.
2.WMAP's temperature variations can be decomposed into set of patterns called multipoles. The lowest multipoles are the largest-area, continent- and ocean-size undulations on the temperature map. Higher multipoles are like successively smaller-area plateaus, mountains and hills (and trenches and valleys) inserted on top of the larger features. As shown in Figure 02-09b both the quadrupole and the octupole are aligned along an "axis" which standard cosmology cannot explain. This could happen by chance only about 0.1% of the time (
NDLR: en fait 0,05%). Critics have considered a variety of possibilities. One explanation involves some kind of imperfection in WMAP's detector that introduces the patterns, but there is no evidence for this.


Ce texte fait allusion à deux anomalies qui ont provoqué une avalanche de commentaires, d'une part un vide local de radiosources faisant penser à une absence de matière, matière ordinaire ou matière noire, et d'autre part une répartition anormale de masses, contraire à l'isotropie supposée de l'univers dans le modèle cosmologique standard (est isotrope ce qui a les mêmes propriétés dans toutes les directions). Cette répartition s'organise selon un certain axe baptisé de façon spectaculaire par João Magueiro l'Axe du Mal. Si les anomalies en question avaient été dues au hasard, il n'y aurait eu, a-t-il été calculé que 0,05% chances de les observer. De là à suspecter l'influence de forces encore inconnues, sinon du Diable lui-même, il n'y avait qu'un pas.

Deux chercheurs britanniques, Andrew Pontzen et Hiranys Peiris viennent de rappeler (NewScientist 7 août 2010 p.23) ce dont apparemment personne ne s'était avisé jusqu'ici. Si je jette une pièce en l'air et obtient 5 faces de suite (ou 5 piles), vais-je immédiatement supposer que cette pièce, pourtant prise parmi d'autres dans mon porte-monnaie, est truquée? Non. J'attribuerai cet événement au simple hasard. Instinctivement, j'utiliserai pour cela la connaissance commune que j'ai du monde, un monde où les pièces non truquées sont infiniment plus nombreuses que les pièces truquées.

De même, si je constate l'existence d'un axe privilégié de répartition des images telles que recueillies par le WMAP, sachant par ailleurs que toutes les observations faites à ce jour de l'univers visible, à quelques échelles que ce soit, montre qu'il est isotrope, avant de crier au miracle, je ferai l'hypothèse que l'axe constaté est le produit du hasard.

Mais s'agit-il d'un hasard qui n'aurait eu que 0,05% chance de se produire? On comprend qu'avec une probabilité aussi faible, l'on éprouve quelques doutes. C'est là que doit intervenir, comme le rappellent nos deux chercheurs, le théorème de Bayes. Quand l'on s'interroge sur la probabilité de voir ce que l'on voit, on se réfère, disent-ils, à l'approche fréquentiste. Celle-ci peut conduire à des erreurs considérables. Si, disent-ils, un extraterrestre s'empare d'un pilote de ligne en débarquant sur Terre, sachant qu'il n'y a qu'un pilote sur 2000 humains, il en déduira que ce spécimen à toutes les chances de ne pas être un humain.

A l'opposé, les statistiques bayésiennes prennent au contraire en compte d'une part l'information fournie par l'expérience mais aussi toutes les informations dont elles disposent intéressant le monde relatif à l'observation. Dans le cas cité, l'extraterrestre informé de l'approche bayésienne conclurait que le pilote dont il s'est emparé est un humain car il n'existe pas d'autres créatures terrestres capables de piloter des avions.

Dans un article publié récemment (http://prd.aps.org/abstract/PRD/v81/i10/e103008) Andrew Pontzen et Hiranys Peiris expliquent que remettre en cause le modèle cosmologique standard, qui postule l'isotropie de l'univers, au prétexte d'une observation qui selon l'approche fréquentiste n'aurait que 0,05% de se produire, ne serait pas le bon choix. Face à une apparente anomalie, obligeant à remettre en cause un modèle standard reposant sur un nombre énorme d'observations contraires, il faut être extrêmement prudent et s'en tenir à l'approche bayésienne.

Celle-ci, soulignent les deux auteurs, sera encore plus utile dans les sciences autres que la cosmologie, sciences où les erreurs statistiques sont de bien plus lourdes conséquences. Faudra-t-il pour autant rejeter toutes les observations sortant de la normale et privilégier dans tous les cas la conservation des modèles en vigueur? Le dilemme ne sera pas facile à trancher.


* Théorème de Bayes http://fr.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_de_Bayes

 

Partager cet article
Repost0
2 juillet 2010 5 02 /07 /juillet /2010 21:24

 

par Jean-Paul Baquiast  02/07/2010

 

Revenons ici, quelques semaines après l'annonce de Craig Venter, sur la portée de l'exploit indéniable réalisé par ses équipes. On pourra se reporter, pour les détails de l'opération, à notre brève d'actualité du 28/05/2010 que nous ne reprendrons pas ici.
( http://www.admiroutes.asso.fr/larevue/2010/106/actualite.htm#actu2 )


Craig Venter, toujours emphatique, avait annoncé qu'il avait « réalisé la première espèce capable de se reproduire sur la planète qui ait pour parent un ordinateur ». Il voulait dire sans doute que ce fut avec l'aide de l'informatique qu'il avait séquencé les génomes des bactéries utilisées pour l'expérience et construit par assemblage un génome bactérien entièrement synthétique en collant des séquences d’ADN synthétisées bout à bout. Mais cette formulation pouvait prêter à confusion, laissant penser que la nouvelle bactérie résultait d'une démarche entièrement informatique, l'ordinateur pouvant désormais créer de la vie en s'éloignant des processus biologiques naturels.

Il n'est pas inutile donc de préciser la portée actuelle exacte de la réalisation au demeurant très remarquable de Craig Venter. Il a indéniablement créé, ou plus exactement construit, un organisme bactérien qui n'existait pas jusqu'à présent dans la nature. Mais il s'est borné à ce stade à assembler différemment des composants biologiques existants. On pourrait comparer l'opération à celle qu'aurait réalisé un mécanicien en construisant à partir de pièces détachées un nouveau moteur de voiture et en le montant sur le châssis d'un autre véhicule débarrassé de son moteur d'origine. Si la nouvelle voiture, dite de synthèse, avait pu se mettre à rouler normalement, le mécanicien aurait été très content de lui.

Concernant l'affaire Craig Venter, les composants de la nouvelle bactérie sont restés entièrement biologiques. Le génome, en particulier, n'a pas intégré de séquences purement chimiques et moins encore physiques, à base par exemple de puces électroniques. Autrement dit, il n'avait pas encore été question de réaliser de véritables hybrides ou chimères dites augmentées, bio-robotiques, du type de celles que l'on cherche à obtenir par ailleurs dans d'autres laboratoires.

Par ailleurs, le génome de synthèse implanté n'avait pas fait l'objet à notre connaissance de manipulations génétiques lui permettant de comporter des gènes ou chromosomes capables de synthétiser telle ou telle protéine ou enzyme, sur le modèle qui intéresse par ailleurs d'autres chercheurs et Venter lui-même. Craig Venter s'est borné à réaliser une plate-forme métabolique, selon l'expression utilisée, à partir de laquelle il sera possible ultérieurement d'implanter tel ou tel composant biologique ou non-biologique, conçus en vue d'objectifs déterminés au cas par cas.

Complexes anthropotechniqes

On voit cependant qu'il s'agit d'une avancée scientifique et technologique considérable, car elle ne tardera pas à être exploitée par les biotechnologies actuelles, elles-mêmes constamment renouvelées sous la pression des humains qui en assurent le développement. Les écosystèmes dans lesquels se trouvent inclus les organismes vivants, humains compris, vont ainsi se trouver soumis à des facteurs évolutifs bien plus puissants et rapides que ceux découlant des mécanismes de mutation/sélection décrits par le darwinisme et à l'oeuvre depuis 4 milliards d'années. Nous devons parler d'écosystèmes puisque, comme on le sait, les modifications génomiques, qu'elles soient naturelles ou induites par l'homme, ne prennent de portée qu'en co-évolution avec l'environnement, les corps biologiques d'abord, les niches les abritant ensuite. C'est ce que l'on résume par le terme de déterminisme épigénétique.

Il est donc désormais inévitable, Craig Venter n'ayant fait qu'accélérer le rythme, de voir se répandre sur la Terre des entités présentant un certain nombre des caractères par lesquels on identifie la vie, mais qui ne seront pas « vivantes » ou plus exactement biologiques, au sens traditionnel du terme. Elles seront de plus en plus artificielles. On parlera de biologie synthétique tant que les composants biologiques resteront dominants, même s'ils sont profondément modifiés. Mais très vite, on devra parler de vie artificielle, lorsque le robotisé et le virtuel y deviendront prédominants.

La composante artificiel le se manifestera sans doute très rapidement, dans la mesure où certaines expériences actuelles, exploitant les recherches relatives à l'émergence thermochimique des premières formes de vie, conduiront à mettre au point dans quelques années des molécules chimiques auto-catalytiques susceptibles de se reproduire et muter sur le mode biologique, à l'instar des premières formes de vie. Il s'agira de formes tâtonnantes, imparfaites, dont beaucoup disparaîtront. Mais le phénomène reproduira en l'amplifiant peut-être, le mécanisme de l'évolution biologique.

Il est donc évident que ces recherches, dont on a tendance à faire des épouvantails, auront dans un premier temps l'avantage de permettre aux biologistes de mieux comprendre les organismes vivants, ceci jusqu'au plus cachés de leurs déterminismes. Comme le disent les scientifiques, on ne peut pas espérer comprendre un mécanisme naturel tant qu'il n'a pas été reconstruit. Les ingénieurs disent « simulé ».

Pour notre part, nous voyons là une nouvelle illustration, particulièrement pertinente, des phénomènes que nous avons décrits par le terme de complexes anthropotechniques. Dans de tels systèmes, des composants évolutionnaires biologiques, anthropologiques et technologiques s'imbriquent étroitement pour donner naissance à de nouvelles entités en compétition darwinienne. De très bonnes choses, au sens que nous donnons actuellement à ce terme de « bonne chose », pourront en découler. Mais aussi des catastrophes, au sens là encore que nous donnons aujourd'hui à ce dernier terme. Nul ne peut en tous cas les prévoir et moins encore les organiser.

NB. Fabrice Papillon et Joël de Rosnay viennent de recenser les différentes techniques en cours ou prochaines intéressant la vie de synthèse. Nous ne partageons pas toujours leurs diagnostics, à la fois sommaires et alarmistes, concernant ces recherches et leur avenir. .
"Et l'homme créa la vie... : la folle aventure des architectes et des bricoleurs du vivant " Les liens qui libèrent (LLL), 2010

Partager cet article
Repost0
10 février 2010 3 10 /02 /février /2010 17:04
L'oxygène, les cyanobactéries et les premiers organismes multicellulaires
par Jean-Paul Baquiast 10/02/2010

 

Le biologiste Nick Lane, chercheur au Provost's Venture Research du London University College, s'intéresse particulièrement aux changements de l'atmosphère terrestre ayant accompagné l'apparition de la vie. Inutile de souligner l'intérêt de ces recherches aujourd'hui, alors que l'on veut évaluer les causes et les conséquences d'une plus ou moins grande abondance de gaz à effet de serre dans l'atmosphère. Dans un premier ouvrage, Oxygen (OUP 2002), il avait présenté ce qu'il nommait la saga de ce gaz, devenu indispensable à la grande majorité des organismes vivants aujourd'hui, et dont la présence dans l'atmosphère résultait de l'activité des premières bactéries capables de photosynthèse. Dans son dernier livre, Life Ascending: The ten great inventions of evolution (Profile) Nick Lane remet quelque peu en cause le schéma simple qu'il avait évoqué dans Oxygen. Il montre que le taux de ce gaz dans l'atmosphère a sensiblement (dramatically) varié entre -2,7 milliards d'années (mdA) et aujourd'hui, sous l'effet non seulement de l'activité des organismes, mais de divers facteurs liés à la géophysique.

Les hypothèses relatives au rôle de la composition de l'atmosphère sur le climat d'une planète s'appuient sur l'étude de la géologie terrestre mais aussi, toutes choses égales d'ailleurs, sur l'exemple de deux planètes proches, Mars et Venus. Mars est aujourd'hui dépourvue d'oxygène et probablement de vie, alors qu'elle disposait apparemment de beaucoup d'eau il y a quelques mdA. Mais faute d'oxygène, son atmosphère n'a pu développer une couche d'ozone la protégeant des rayons solaires. Ceux-ci ont progressivement décomposé l'eau en hydrogène qui s'est dispersé dans l'espace et en oxygène qui s'est combiné avec le fer présent dans le sol martien pour donner des oxydes responsables de la couleur rouge de celui-ci.

On peut penser que la vie, si elle existait initialement sur Mars, n'avait pas pris la forme des cyanobactéries capable de photosynthése apparues sur Terre. Rappelons que celles-ci, autrefois appelées « algues bleues », réalisent la photosynthèse oxygénique et peuvent donc transformer l'énergie lumineuse en énergie chimique utilisable par la cellule en fixant le dioxyde de carbone (CO2) et en libérant du dioxygène (O2).

Sur Venus au contraire, pour des raisons qui sont encore mal comprises, une épaisse atmosphère constituée de gaz à effet de serre s'est durablement installée et à empêché que s'évacue la chaleur interne produite par l'activité géologique vénusienne. Il ne semble pas que des organismes vivants y aient été pour quelque chose.

Quant à la date d'apparition sur Terre des premières cyanobactéries, Dick Lane reconnait que lui-même comme beaucoup d'exobiologistes se sont trompés. On fixait cette date à -3 voire -4 mda, au vu de l'analyse de roches australiennes, les plus anciennes qui nous soient parvenues, âgées de – 3,5 mna. Les paléontologues y avaient détecté des formations rocheuses dites stromatolites (photo ci-dessus) attribuées à l'accumulation de cyanobactéries primitives. On avait cru aussi observer en Australie et au Groenland la présence d'un isotope de carbone constituant la signature de la vie. Ces dates étaient très précoces, au regard de l'âge présumé de la Terre, - 4, 6 mda. Certains en tiraient des conclusions relativement au caractère « obligé » de l'apparition de la vie dès la formation de planètes de type terrestre.


En 2002 cependant, le paléontologue britannique Martin Brazier a vivement attaqué ces interprétations, rejoint en 2006 par des océanographes américains puis par des biologistes et enfin en août 2009 par Daniele Pinti de l'université du Québec. Ils veulent démontrer l'impossibilité que les stromatolites aient pu être formés de microfossiles. Il s'agit d'une nouvelle importante dont on peut s'étonner qu'elle n'ait pas été sérieusement commentée à ce jour.

En tous cas, pour Dick Lane, les plus anciens fossiles de cyanobactéries connus à ce jour sont nettement plus récents. Ils se trouvent dans les iles Belcher au nord du Canada et datent de – 2,1 mda. On peut dans ces conditions supposer que ces bactéries elles-mêmes sont apparues un peu plus tôt, vers - 2,7 mda, inaugurant alors un cycle de production d'oxygène qui ne s'est pas arrêté depuis.

Un cycle tourmenté

Mais cette production ne fut pas un long fleuve tranquille. Le taux d'oxygène ne s'est pas élevé graduellement jusqu'à son niveau d'aujourd'hui. En fait, l'oxygène, nécessairement produit en petite quantité au début, fut d'abord consommé dans des processus d'oxydation des composés métalliques présents dans les océans. Une partie cependant initialisa la mise en place de la couche d'ozone protégeant la Terre des rayons ultraviolets mortels pour la vie. A partir de ce moment l'histoire de la Terre (heureusement pour nous) à divergé de celle de Mars. Cependant, dans le même temps, l'oxygène d'origine biologique se heurtait à des éruptions volcanique, nombreuses entre -2,7 et -2,4. .L'hydrogène sulfuré et le méthane émis se combinèrent avec l'oxygène libre jusqu'à le faire presque disparaître, en produisant du C02 et des oxydes de soufre. Ceci jusqu'à ce que les épisodes éruptifs s'atténuent. Mais ce n'était pas la fin de la saga.

Vers – 2, 4 mda, selon une hypothèse généralement admise aujourd'hui, en même temps que diminuaient les émissions de méthane volcanique, l'oxygène que continuait à produire les cyanobactéries occida le méthane atmosphérique qui demeurait abondant. Ce méthane était un puissant gaz à effet de serre, contribuant à maintenir sur la Terre une température clémente. Sa diminution provoqua une longue glaciation (la Terre dite « snowball earth » ou boule de neige) qui dura au moins 0,4 mda, de – 2,4 jusqu'à – 1,9 mda. Il s'ensuivit une destruction massive des formes de vie existantes.

La vie ne survécut que dans les profondeurs océaniques et sous la forme peu attrayantes de bactéries productrices de gaz SH2 ou hydrogène sulfuré. Pendant 1 milliard d'années il en résulta une phase dite du « boring billion », (traduisons par « le milliard d'années peu excitantes ») les mers présentant l'aspect de vastes étendues verdâtres, malodorantes et apparemment dénuées de vie.

Mais il ne s'agissait que d'une apparence. Selon le biologiste allemand William Martin, de l'université de Dusseldorf, ces océans verts étaient riches en composés nutritifs multiples, comme le sont les sources géothermales sous marines actuelles qui entretiennent des formes de vie très actives. Ce serait en leur sein qu'apparurent les premières cellules eucaryotes (à noyau) se distinguant des algues vertes initiales ou procaryotes (sans noyau) dont certaines s'incorporèrent aux eucaryotes sous la forme de mitochondries, organules jouant un rôle dans la production de l'énergie nécessaire à la cellule. Plus tard, les eucaryotes s'assemblèrent en organismes multicellulaires, qui sont à l'origine des végétaux et animaux supérieurs.

Pour le biologiste français Pierre Henri Gouyon, du Museum national d'histoire naturelle, que nous aurons le plaisir d'interroger sur ce site dans quelques semaines, ce fut le passage du monocellulaire au multicellulaire qui mérite aujourd'hui d'être étudié. Il ne s'agissait pas d'un mécanisme anodin d'assemblage, mais d'une émergence autrement plus complexe sur laquelle il y a beaucoup à dire.

Procaryotes et eucaryotes, après de nouveaux épisodes plus limités de « snowball earth », finirent par se développer suffisamment pour que des algues bleues, vertes et des lichens puissent envahir les bords de mer, les décomposer en éléments nutritifs et accélérer la production d'oxygène résultant de la photosynthèse. L'horloge du temps marquait alors – 0,6 mda environ. Après plusieurs faux départs, la voie se libérait pour une compétition darwinienne effrénée entre grands organismes marins et terrestres, s'ajoutant à celle des micro-organismes. Comme nul ne l'ignore, certains de ces organismes terrestres devinrent, ceci tout récemment sur l'échelle des temps préhistoriques, des primates homo sapiens.


Inutile d'ajouter que cette évolution aurait tout aussi bien pu ne pas se produire. Aujourd'hui, elle pourrait tout aussi bien s'arrêter à la suite de désastres écologiques provoqués par la multiplication desdits homo sapiens et des destructions qu'ils génèrent autour d'eux.

Pour en savoir plus
* page personnelle de Nick Lane http://www.nick-lane.net/index.html

 

Partager cet article
Repost0
26 avril 2008 6 26 /04 /avril /2008 18:19

La révolution du zootechnocène
par Jean-Paul Baquiast 24/04/2008
( en discussion )

Appelons Ere du zootechnocène la période d’évolution de la Terre qui s’est ouverte avec l’apparition des premiers outils techniques au sein de certaines espèces de primates, voici environ 1,5 million d’années avant le temps présent. Cette ère évolutive, qui se poursuit encore, est caractérisée par la prolifération sur le mode darwinien d’organismes zootechniques qui ont changé et continuent à changer profondément les équilibres géologiques et biologiques précédents.

On sait que certains scientifiques ont proposé d’appeler cette même période l’« anthropocène », compte tenu des bouleversement apportés par l’homme (anthropos) aux milieux géologiques et biologiques antérieurs. Nous voudrions ici introduire un changement important de point de vue. Ce n’est pas l’ « homme », concept dont les définitions sont multiples et dont les correspondances dans la nature n’ont cessé de changer au cours des temps, qui serait le facteur causal de ces bouleversements. Nous estimons que le regard contemporain, inspiré par l’anthropocentrisme traditionnel, s’attache à l’homme comme le regard de l’imbécile, selon le dicton chinois, s’attache au doigt du sage qui montre la lune.

De ce fait, il ne voit pas l’essentiel, l’évolution induite par la prolifération des techniques instrumentales dont les lois de développement obéissent à d’autres logiques que celles mises en œuvre par les organismes vivants. Certes, ces techniques instrumentales ont pris naissance (pour l’essentiel) au sein des sociétés humaines, à l’intérieur desquelles elles ont trouvé les « aliments » nécessaires à leur croissance. Mais les sociétés humaines ne les ont pas plus créées qu’elles n’ont créé les maladies contagieuses qu’elles hébergent également. Elles n’en sont pas davantage « responsables ». Il s’agit de développements parallèles co-induits (s’influençant respectivement) mais répondant à des logiques différentes. Ces différences vont peut-être apparaître plus clairement dans les prochaines années. Le temps parait venu en effet où, sans couper tous liens avec les sociétés humaines, les techniques instrumentales prendront un essor propre, de type auto-évolutionnaire ou auto-référent, grâce auquel elles construiront des mondes où le biologique « traditionnel » jouera un rôle de moins en moins grand au regard de ce que l’on nomme l’ « artificiel. »

Les enseignements de la mémétique

Mais comment, dira-t-on, prêter aux techniques instrumentales, objets inobservables par les moyens de la science traditionnelle, des propriétés leur donnant la capacité d’agir de façon proactive sur le monde matériel ? Nous voudrions pour répondre à cette question inscrire l’approche proposée ici dans une tradition déjà vieille de quelques décennies, celle de la mémétique. On sait que la mémétique, à la suite de Richard Dawkins et de quelques autres chercheurs tels que Suzan Blackmore, pense possible d’expliquer de façon scientifique l’évolution de l’espèce humaine par le développement en son sein d’entités informationnelles réplicatrices sur le mode darwinien, qui ont été nommés les mèmes. Pour la mémétique, l’homme n’existe pas en tant que tel. Certes, l’espèce humaine (sapiens sapiens) parait définie au plan génétique par la possession d’un génome qui n’aurait pas varié depuis quelques dizaines de milliers d’années. Mais ce ne sont pas les mutations survenues au sein de ce génome qui auraient été la cause première de son évolution récente. Ces mutations, ayant par exemple permis l’acquisition d’un « gros cerveau », ont été induites par la prolifération au sein des groupes humains d’innombrables entités de type culturel, se reproduisant par imitation, les mèmes.

Pour Suzan Blackmore, par exemple, des mèmes ayant pris la forme des « mots » échangés lors des premiers échanges langagiers, imités et transformés sans cesse au sein des sociétés primitives, ont provoqué l’expansion des aires cognitives du cerveau. A côté des mots, de nombreux autres mèmes, prenant la forme de modules comportementaux reproductibles par l’imitation, tels des gestes ou attitudes, ont construit et continuent à construire des édifices sociaux transcendant les individus humains. Les méméticiens n’aiment pas beaucoup que l’on compare les mèmes à des virus ou à des bactéries. Cependant, les mèmes se reproduisent et colonisent les humains sur un mode très ressemblant à celui des virus ou des bactéries. Leur comportement est « égoïste », en ce sens qu’ils se développent là où le terrain leur est favorable. Parfois, ce développement peut bénéficier à la survie adaptative de leurs hôtes, donnant naissance à des symbioses dont chaque partenaire profite (c’est ce que font certaines bactéries qui peuplent les viscères des animaux en permettant à ceux-ci l’assimilation des aliments). Mais dans d’autres circonstances, le développement du mème entraîne la destruction de l’hôte. Cette destruction ne provoquera pas nécessairement celle du mème, qui ne s’en répandra que mieux 1)

En simplifiant, nous retiendrons que pour la mémétique, les contenus de la culture humaine d’une part, ceux du cerveau des individus humains d’autre part, sont les produits de la compétition ou de la coopération d’un ensemble très riche de mèmes. Suzan Blackmore pousse le paradoxe en affirmant que le Moi, revendiqué par l’individu conscient comme l’expression la plus haute de sa personnalité, n’est pas autre chose qu’un « mèmeplexe », exprimant la présence de mèmes dominants ayant pris possession de son cerveau. Pour Richard Dawkins, ce serait la compétition-coopération darwinienne entre gènes « égoïstes » qui permettrait de comprendre l’histoire génétique des espèces vivantes à travers les âges. Parallèlement, ce serait la compétition-coopération darwinienne entre mèmes « égoïstes » qui permettrait de comprendre l’histoire des cultures animales et humaines à travers les âges. Il existe évidemment des interactions permanentes (dites parfois épigénétiques) entre ces deux évolutions, nature et culture, dont tous les phénomènes du monde vivant actuel sont les résultats.

On voit donc que dans l’esprit de la mémétique, des agents informationnels invisibles pour le regard non averti jouent un rôle éminent dans la transformation d’un monde physique dont les composants chimiques et biochimiques sont, eux, facilement observables. Cela n’a rien d’étonnant pour les théoriciens de l’information. Plutôt qu’étudier des objets physiques immédiatement observables (par exemple une mélodie, prenant la forme matérielle d’une suite de notes jouées par un instrument ou transcrite sur un document papier), ils attachent de l’importance aux relations en réseaux qui s’établissent entre ces objets physiques, par l’intermédiaire des corps et cerveaux momentanément en relation avec eux ou occupés par eux. Ce sont ces relations qui provoquent les changements du monde matériel que nous pouvons constater.

Pour reprendre l’exemple de la Marseillaise, ce ne sera pas la texture de la mélodie qui intéressera les méméticiens, mais le fait que cette mélodie, reprise par des centaines d’humains, puisse constituer un signal politique déclencheur d’un assaut victorieux. Le mème, qui est un agent informationnel, agit sur le monde matériel par l’intermédiaire du ou des corps qu’il mobilise. Pour expliquer le pourquoi de l’action matérielle visible induite par tel ou tel mème, il faut retracer l’histoire évolutive de ce mème au travers des milieux corporels ou immatériels qu’il a traversé. On n’étudiera pas le mème d’un côté et les milieux d’un autre, mais l’évolution de leurs relations respectives.

Ceci posé, les méméticiens accepteront-ils de considérer comme des mèmes les techniques instrumentales et les usages qu’elles véhiculent. Qui dit technique instrumentale dit instrument. Or un instrument, par exemple une arme à feu, est un objet du monde matériel. Il ne s’agit pas d’idées ou d’images. Mais à nouveau, ce ne sera pas l’instrument lui-même qui nous intéressera en premier lieu. Ce seront les comportements que sa manipulation provoquera chez ses utilisateurs, autrement dit les conséquences des relations entre l’instrument et les hommes.

Le lecteur de cet article ne devra donc pas s’étonner de nous voir élargir l’approche mémétique, dont la fécondité est indiscutable, en proposant de prendre comme objet d’étude scientifique les relations qui s’établissent entre les instruments techniques et leurs utilisateurs humains, plutôt qu’en attachant le regard soit sur les instruments seuls, soit sur les utilisateurs seuls. Ajoutons qu’enraciner l’approche mémétique dans le monde relativement concret des techniques instrumentales et des comportements qu’elles génèrent au sein des sociétés humaines lui donnera un terrain solide qui, selon nous, manque encore à beaucoup des développements de cette science. En effet, un des points faibles de la mémétique « grand public », celle qui fait l’objet de milliers d’échanges dans les listes de diffusion mémétiques, est de ne pouvoir définir avec précision ce qu’elle entend par mème. Tout peut jouer ce rôle, un comportement que l’on imite, un refrain que l’on colporte, une image du type de celles que distribuent désormais à profusion les réseaux multimedia modernes, mais aussi un outil qui passe de mains en mains en générant des comportements stéréotypés. Pour nous, ce devrait être dorénavant autour de l’évolution de l’outil et de sa technologie, points forts indiscutables, que la mémétique devrait concentrer ses efforts.

Quoiqu’il en soit, notre propos ici n’est pas de réformer la mémétique, mais seulement de profiter du regard nouveau qu’elle propose pour rajeunir et compléter les études consacrées par la sociologie traditionnelle aux relations entre l’homme, ses outils et plus généralement les machines (voir par exemple les travaux de Simondon ou de Foucault). Ces études vont d’un extrême à l’autre. Ou bien elles mettent l’accent sur l’homme considéré comme responsable de l’évolution des techniques, ou bien elles considèrent les techniques comme responsables de l’évolution de l’homme (notamment dans l’esprit, très oublié aujourd’hui, du matérialisme d’inspiration marxiste). Ce faisant, elles n’aboutissent à rien de constructif car elles passent à côté de ce qui devrait être l’objet de leurs études, l’organisme ou le superorganisme né de la relation permanente et co-évoluante (co-développement) associant les techniques et leurs utilisateurs du monde vivant. 2)

Nous proposons donc ici ce que l’on pourrait nommer une version zootechnocentrée de la mémétique. A cette fin, nous ferons l’hypothèse que l’évolution du monde terrestre résulte des compétitions darwiniennes s’établissant au sein d’une faune proliférante d’organismes encore mal identifiés, véritables acteurs dont il est temps de faire sérieusement l’étude, et que nous nommerons des organismes zootechniques. Ces compétitions ne se substituent pas aux compétitions existant entre les gènes et entre les mèmes, mais elles élargissent leur territoire. Elles obligent à prendre en compte, comme on le verra, l’ensemble des sphères où se joue l’avenir de la vie sur la Terre : géosphère, biosphère et infosphère. Mais elles obligent aussi à revoir toutes les idées reçues relatives à l’homme, à la conscience, à son libre-arbitre...

Exemples d’organismes zootechniques

Appelons organisme zootechnique un ensemble symbiotique constitué d’un certain nombre d’organismes biologiques (parlons d’humains pour simplifier cette première présentation) réunis par l’utilisation d’un objet ou d’un processus physique qui n’est pas un organisme biologique mais qui évolue cependant sur un mode darwinien (mutation/sélection) selon des lois qui lui sont spécifiques. L’objet sert d’outil aux humains. Ceci signifie qu’il leur fournit énergie et subsistances. Les humains, en échange, apportent à l’objet les soins qui lui permettent de survivre et de muter en fonction de ses lois évolutives. Il s’agit d’une évolution que l’on dira artificielle parce qu’elle n’obéit pas aux processus de l’évolution darwinienne biologique, mais elle s’inscrit cependant dans les règles de l’évolution darwinienne par mutation-sélection.

Les organismes zootechniques sont de plus en plus nombreux et de plus en plus performants, leur nombre se multipliant selon une loi exponentielle. Comme cependant ils se développent dans un monde naturel dont les ressources ne sont pas illimitées, ils entrent en compétition pour l’accès aux ressources, détruisant les équilibres du milieu terrestre acquis depuis des millénaires. Nul ne peut évidemment prédire l’avenir des conflits ainsi engagés, ni le visage du monde de demain.

Prenons pour illustrer un propos qui pourrait demeurer trop abstrait, parmi des centaines d’autres possibles, l’exemple de trois grands organismes zootechniques qui influencent en profondeur l’évolution des écosystèmes contemporains. Il s’agit du système [homme-arme individuelle], du système [homme-automobile] et du système [homme-robot autonome]. Le premier remonte à l’histoire des civilisations, le second a pris un grand essor à partir du début du 20e siècle au sein des sociétés industrielles, le troisième commence à se mettre en place dans certaines sociétés technologiquement avancées.

Pour lire la suite (l'article est trop long pour ce blog) faire svp
http://www.admiroutes.asso.fr/larevue/2008/88/zootechnocene.htm
Merci de votre intérêt

 

 

Partager cet article
Repost0
9 février 2007 5 09 /02 /février /2007 17:23

Article
Robert Laughlin. Nouvelles réflexions sur l'émergence
par Jean-Paul Baquiast
09/02/07

 


Le jardin de Monet. Les iris. Musée d'Orsay

La revue La Recherche présente dans son numéro 405 du mois de janvier 2007 un dossier intitulé "Emergence, la théorie qui bouscule la physique". Ce dossier comporte entre autres un article de Michel Bitbol et un interview de Robert Laughlin. Rappelons, pour la petite histoire des idées, que notre revue avait dès avril 2005 consacré un long article de présentation au livre fondateur de ce dernier, A Different Universe (Basic books, 2005) http://www.automatesintelligents.com/biblionet/2005/juin/laughlin.html 1).

L’article de Michel Bitbol présente un bon résumé de la problématique de l’émergence, considérée comme une alternative au réductionnisme. L’auteur s’y rallie sans ambiguïté à la thèse de Laughlin. Il nous semble cependant qu’il ne fait pas assez le lien avec la question du constructivisme telle qu’elle est abordée dans l’œuvre de Mioara Mugur-Schächter, souvent citée dans cette revue. Autrement dit, Michel Bitbol, qui pourtant connaît bien cette dernière, ne semble pas faire le rapprochement entre la façon dont un observateur « macroscopique » qualifie d’émergent un phénomène dont il ne connaît pas les hypothétiques lois profondes, (par exemple la superfluidité ou plus simplement la transformation de l’eau en glace) et celle dont un observateur du monde quantique qualifie les micro-états quantiques sur lesquels il a décidé d’expérimenter. Reprenons rapidement cette question, que nous avions abordée en détail dans notre article précité d’avril 2005.

Résumé de la présentation de Michel Bitbol

Michel Bitbol rappelle d’abord la thèse de Laughlin selon laquelle toutes les « lois de la nature » sont « émergentes ». A tous les niveaux d’observation que ce soit, physique, biologie, sociologie, etc. ces lois résultent d’un comportement d’ensemble des parties ou entités observées (atomes, cellules vivantes, individus et groupes sociaux…) et sont indépendantes des lois qui régissent les comportements de ces parties ou entités prises unes à unes. Ceci, encore une fois, à tous les niveaux d’observation que ce soit, y compris aux niveaux que nous estimons être les plus élémentaires. Il est donc vain de faire appel au réductionnisme pour expliquer les lois de la nature. Le réductionnisme en l’espèce consisterait, loi par loi, à rechercher celle qui régirait les entités hiérarchiquement inférieures afin de s’en servir pour trouver la loi régissant le fonctionnement des entités supérieures. Ainsi, pour le réductionnisme, le comportement des cellules pourrait être expliqué par celui des atomes dont elles sont faites, de même que celui des atomes pourrait l’être par celui des particules élémentaires qui les composent.

Depuis longtemps, les scientifiques avaient constaté qu’ils ne pouvaient pas utiliser l’approche réductionniste pour expliquer et prédire, mais ils avaient longtemps attribué cela à l’insuffisance de leurs instruments ou de leurs outils mathématiques, ceux-ci ne leur permettant pas de décrire, autrement que de façon probabiliste, le comportement des parties constituant un tout. Si bien que beaucoup d’entre eux ont mis leurs espoirs dans la physique des hautes énergies pour faire apparaître une loi ultime. Mais cette recherche de plus en plus coûteuse n’a pas abouti à ce jour. D’où le succès des premières théories émergentistes, dont Michel Bitbol présente l’historique dans la première moitié de son article. Il montre que, dans tous les domaines, l’hypothèse pourtant théoriquement irréfutable selon laquelle les phénomènes complexes résultent nécessairement de l’interaction entre les parties s’est révélée n’avoir qu’une portée philosophique puisqu’il n’était pas possible d’en tirer des conclusions utilisables en ce qui concernait la formulation de prédictions conformes aux observations.

Ainsi les phénomènes « complexes » caractérisant le comportement d’un Tout, par exemple celui d’une cellule vivante, ne peuvent pas être déduit de ce que l’on sait des comportements des atomes constituant cette cellule, à moins de les agréger en grandes quantités. Le biologiste est donc obligé de considérer que des lois nouvelles, que l’on dira émergentes, sont à l’œuvre dans la détermination des comportements complexes de la cellule. Toute sa science consistera à déterminer ces lois, le plus précisément possible, en fonction des instruments d’observation et des outils mathématiques dont il dispose. Les lois ne seront évidemment validées que si elles permettent de prédire des évènements vérifiables par l’expérience.

L’avènement de la mécanique quantique avait fait supposer que les diverses lois identifiées dans les différentes sciences s’intéressant aux niveaux supérieurs d’organisation de la matière, thermodynamique, mécanique classique, biologie, etc., dérivaient des lois quantiques. Mais celles-ci sont caractérisées par l’indéterminisme. On ne peut évaluer que les probabilités des valeurs des observables. On en a donc conclu qu’il n’était pas possible, jusqu’à ce jour, d’identifier une loi élémentaire permettant d’expliquer les lois émergentes. Cet indéterminisme, qui n’est pas remis en cause aujourd’hui, se répercute tout au long de l’échelle des complexités. Une loi émergente de niveau supérieure, celle concernant la vie, par exemple, ne peut être expliquée par les lois émergentes de niveau inférieur, celles concernant l’agencement des atomes et molécules par exemple, puisque celles-ci à leur tour ne sont pas des entités déterministes. On ne peut que constater l’existence des lois émergentes de tous niveaux. Selon le terme de Michel Bitbol, celles-ci sont « multiréalisables » ou « survenantes ».

Cette conviction était apparue, puis s‘était largement répandue, bien avant Laughlin. Quel est donc l’apport de ce dernier en matière d’émergence ? D’abord, pour lui, il s’agit d’une hypothèse qu’il convient de généraliser sans exceptions. Mais il a fait davantage. Il a montré, en créant le concept de « protection », que les lois émergentes restent stables même si leurs bases varient, c’est-à-dire qu’elles sont indépendantes non de ce qui se passe au niveau sous-jacent, mais du détail de ce qui s’y passe. Cela n’a rien de surprenant si l’on admet qu’elles résultent d’une moyenne de processus désordonnés dans une certaine catégorie d’objets matériels. Mais elles prennent aussi des formes semblables, analogues, quels que soient les substrats, matière macroscopique, matière condensée ou « matière fondamentale ». Ceci prouve le caractère universel de l’émergence. Dans son article, Michel Bitbol justifie le point de vue de Laughlin par des considérations qui éloigneront sans doute le lecteur non averti, concernant la théorie des champs et la renormalisation. Nous préférons, même s’il n’est pas très correct de se citer soi-même, reprendre ici ce que nous en disions dans l’article que nous avons consacré au livre de Robert Laughlin :

" Un mystère bien protégé "

" Si l'on considère qu'il est fondamental de comprendre comment fonctionnent les lois de l'organisation permettant à la complexité d'émerger, il faudrait rendre prioritaire l'étude de ces lois. Mais si cela n'a pas encore été fait, c'est pour différentes raisons que Robert Laughlin s'efforce d'aborder dans la suite de son livre. Un mécanisme qu'il appelle la protection permet à un système complexe de conserver un fonctionnement homéostatique même si ses composants tombent en panne ou manifestent des incohérences locales. Il s'agit d'une sorte d'aptitude à l'autoréparation qui est bien connue dans le vivant mais qui existe aussi dans les systèmes physiques naturels, y compris les plus élémentaires, comme la conservation de la stabilité de phase dans un métal ou un liquide. Mais ce mécanisme de protection présente un inconvénient pour l'observateur (The dark side of protection), c'est qu'il dissimule ce qui se passe exactement aux niveaux atomiques et sub-atomiques. Il faudrait pouvoir observer la matière à ces niveaux. Mais, comme on se trouve alors soumis aux règles de la physique quantique, l'observation détruit généralement ou transforme l'entité observée. On pourrait compter sur un phénomène général nommé l'invariance d'échelle pour extrapoler à partir de l'observation de petits échantillons comment pourrait se manifester l'émergence de nouvelles propriétés dans des échantillons plus grands (renormalisation). Mais les petits échantillons peuvent évoluer de multiples façons et rien ne garantit que cette évolution aboutira au type de complexité que l'on voudra expliciter dans un échantillon plus grand. Autrement dit, la renormalisation ne garantit pas la conservation du caractère étudié en cas de changement d'échelle. On parle alors de non-pertinence (irrelevance), ce qui signifie « condamné par les principes d'émergence à être trop petit pour être mesurable ».


Il est particulièrement pénalisant de ne pas pouvoir observer ce qui se passe dans les moments critiques correspondant aux transitions de phases, lorsque le système jusque là bien équilibré à la frontière de deux phases semble avoir du mal à prendre la décision de se réorganiser. Il apparaît alors un facteur causal qui grandit progressivement au point de devenir observable ou pertinent (relevant) et qui provoque le changement d'état. La protection initiale disparaît alors. Mais ce facteur effectivement causal est généralement dissimulé par de nombreux autres facteurs qui ne le sont pas. Ceci rend l'observation très difficile. Lorsque la protection devient instable, phase critique pour lui, l'observateur peut prendre pour un phénomène pertinent ce qui ne l'est pas et ne pas apercevoir la vraie cause du changement d'état qu'il voudrait mieux comprendre, afin de l'utiliser ou de mieux se prémunir contre ses effets. » .

Finalement, quelles conclusions Michel Bitbol nous incite-t-il à retenir de l’exposé qu’il fait de l’opposition entre réductionnisme et émergence ? Elles sont claires. Ou bien l’on continue à espérer que l’on pourra un jour édifier une théorie unifiée fondamentale exprimant les lois ultimes de la nature, aujourd’hui théorie des cordes ou des supercordes, à la poursuite de laquelle on engloutira beaucoup d’argent sans guère progresser 2)…Ou bien l’on admet qu’il n’existe pas de niveau fondamental à atteindre, ni de lois ultimes à formuler, ni même d’éléments au sens strict. C’est dans ce deuxième camp qu’il se range explicitement. Mais il précise que cette position n’a pas pour effet d’annuler l’intérêt des approches réductionnistes. Il est toujours possible d’unifier un certain nombre de lois en les considérant comme portées par une même base. Mais il ne faut plus se préoccuper alors du caractère ultime ou non de cette base (en se posant la question de son « existence »). Seule se pose une question de méthode : quelle base intermédiaire remplit le mieux sa fonction unificatrice ? Ainsi la théorie de l’émergence présente l’intérêt philosophique de transformer les questions ontologiques, relatives à l’existence ou non de lois fondamentales, en questions méthodologiques. On renonce à savoir ce qu’est la nature dans l’absolu. On s’intéresse seulement à ce qu’elle apparaît être ici et maintenant en fonction des recherches que l’on mène. Dans ce cas, ces recherches peuvent et doivent être poursuivies, à quelque niveau de complexité que l’on se place, aussi longtemps qu’il est possible de le faire car elles feront toujours apparaître du nouveau.

L’interview de Robert Laughlin, qui fait suite à l’article de Michel Bitbol, reprend les mêmes idées. Il rappelle que dans toutes les sciences, l’approche est « phénoménologique ». Ce qui est observé expérimentalement est utilisé pour reconstituer des lois physiques dites fondamentales, résultant davantage d’un travail d’observation et d’analyse que de prédiction. Ainsi l’univers ne serait que le produit d’évènements contingents liés à des modes d’auto-organisation de la matière. Pour Laughlin, il est tout autant impossible d’écrire les équations qui prédiraient la structure d’un grain de pop corn afin de simuler et prédire son explosion que celles intéressant un phénomène tel que le Big Bang.

Observations

Nous n’avons évidemment rien à reprendre à ce qui précède. Pour des commentaires plus détaillés, nous renverrons le lecteur à notre article de 2005. Tout au plus pourrions-nous faire ici quelques observations rapides.

La première concerne la possibilité de mathématiser les lois de la nature, fussent-elles émergentes. Il est certain que l’on ne peut mathématiser que ce que l’on peut observer. Stephen Wolfram montre que certains automates cellulaires peuvent évoluer pour donner des structures prodigieusement complexes à partir d’éléments simples sans qu’il soit possible d’observer de règles générales permettant de prédire cette évolution. Il n’est donc pas question d’élaborer une loi mathématique décrivant de tels phénomènes. D’une façon plus générale, comme la plupart des changements brutaux d’état, tel la transformation de l’eau liquide en glace, se produisent sans qu’il soit possible, en conséquence du « mécanisme de protection », de décrire exactement ce qui se passe, l’espoir de mathématiser de telles transitions doit être abandonné. Au contraire, à l’intérieur d’un niveau donné de complexité, il devient généralement possible d’observer des régularités et de donner à ces observations une forme mathématique. Les expressions mathématiques seront plus ou moins rigoureuses selon le degré de précision avec laquelle on peut observer les phénomènes, cependant elles joueront dans tous les cas un rôle utile. Si ce n’était pas le cas d’ailleurs, les mathématiques n’auraient pas été inventées et ne seraient jamais utilisées. Mais la description mathématique d’un système vivant sera nécessairement moins précise que celle d’un système mécanique ou planétaire.

Il résulte aussi de ce qui précède qu’aucune loi mathématique exprimant ce que l’on appelle des constantes fondamentales de l’univers ne pourra résister à des expériences la mettant en défaut. C’est le cas de la vitesse de la lumière. Robert Laughlin insiste sur le fait que cette vitesse, aussi fondamentale puisse-t-elle sembler aujourd’hui, est une émergence. S’il apparaît des endroits de l’univers où l’observation ne vérifiait pas la loi, il faudrait réviser la loi. Une autre représentation de la vitesse de la lumière émergerait. Encore faudrait-il que les expérimentateurs aient l’idée de mettre en défaut la loi et d’observer « les yeux ouverts » des phénomènes susceptibles de le faire. D’où l’insistance que met Laughlin à demander aux scientifiques de ne pas se laisser enfermer dans les lois admises à leur époque, comme s’il s’agissait de lois décrivant un prétendu univers fondamental. Il n’y a pas pour lui d’univers fondamental, il n’y a que des émergences, l’une pouvant chasser l’autre.

Une seconde observation concerne plus généralement le statut des lois scientifiques, qu’elles prennent une forme mathématique ou non. Pour Robert Laughlin, toutes les lois sont émergentes, y compris celles décrivant ce que l’on appelle les constantes fondamentales de l’univers. Soit, mais qu’est-ce à dire ? Qu’est-ce qui émerge, la loi ou le phénomène qu’elle est censée décrire. Pour les émergentistes, ce n’est pas le phénomène qui émerge, le phénomène a toujours été là. L’émergence se produit au niveau de l’observateur, qui prend conscience de quelque chose qui n’était pas jusqu’alors entré dans ses représentations. Mais cette prise de conscience par l’observateur ne correspond pas à une véritable observation, laquelle supposerait qu’un phénomène nouveau, observable et effectivement observé, soit apparu dans la nature. Elle correspond à un changement brutal dans la construction symbolique du monde que l’observateur avait généré en interagissant avec ce même monde. L’observateur, qu’il vaudrait mieux désigner par le terme d’observateur/acteur, comme le fait Mioara Mugur-Shächter, se trouve modifié en permanence par le fait qu’il interagit avec un milieu dont il est d’ailleurs partie. Ces modifications le conduisent à se représenter le monde autrement et ces nouvelles représentations prennent pour lui l’aspect d’émergences. A la question donc de savoir qui émerge quand on parle d’émergence, nous pourrions répondre selon cette façon de voir que c’est un nouvel état de l’observateur/acteur. Autrement dit, cet observateur/acteur se construit en permanence, d’une façon qu’il est obligé de constater sans pouvoir la prévoir et qui le surprend toujours car il ne peut pas observer de l’extérieur son processus d’auto-construction.

Nous terminerons par une troisième observation concernant la question des processus à l’œuvre dans les mécanismes d’émergence. On admet qu’ils sont identiques ou très voisins, quels que soient les domaines d’émergence. On les associe généralement aux mécanismes d’auto-complexification. Mais ce mot ne veut pas dire grand-chose. Pour les théoriciens de la théorie constructale, ces lois relèvent, en gros, de la thermo-dynamique c’est-à-dire de l’exploitation aussi économique que possible de l’énergie. Peut-être. Mais là encore, commencer à raisonner de cette façon conduit à supposer qu’il existe des lois en soi, relevant de la thermodynamique, lesquelles agissent indépendamment de l’observateur et que celui-ci est obligé de décrypter puis d'appliquer pour comprendre le monde. Si nous estimons au contraire que l’émergence résulte de l’interaction d’un observateur/acteur avec un monde non défini a priori, le processus d’émergence à étudier concernera la façon dont l’observateur/acteur intégrera de nouvelles constructions, résultant de son interaction avec le milieu, dans l’ensemble de celles résultant de ses activités antérieures.

Comme il n’est pas envisageable que n’importe quelle « observation » puisse être validée et incluse dans le corpus des constructions antérieures, il faut élucider les processus par lesquelles de nouvelles constructions seront effectivement validées et d’autres rejetées. On peut admettre que ces processus seront identiques ou voisins, à l’intérieur de grandes catégories d’observateurs/acteurs, humains, animaux ou végétaux en ce qui concerne les êtres vivants. Comme nous l’indiquions, il nous semble que le travail fondamental de Mioara Mugur-Schächter 3) donne des pistes très importantes pour expliciter ces processus, qui relèvent du constructivisme. Mais beaucoup de points nécessiteraient encore d’être explicités. Ceci admis, il n’y a pas de raison de penser que l’univers en soi imposera des limites absolues à la démarche constructiviste. Tout laisse penser au contraire que l’univers en soi s’il existe, sera très tolérant. Il n’imposera pas des constantes fondamentales ou autres frontières indépassables. Les entités auto-complexificatrices ou auto-constructives auront toute liberté, en fonction des acquis de leurs auto-constructions précédentes, individuelles ou collectives, pour approfondir sans cesse ce qu’elles appelleront leurs connaissances, c’est-à-dire leur nature même. Autrement dit, de nouvelles lois émergentes pourront sans cesse être mises en évidence. Mais ce ne seront pas des lois décrivant l’univers. Elles décriront l’état d’avancement de l’auto-construction définissant l’observateur/acteur, domaine par domaine. Dans cette optique, la nature, qu’elle soit représentée ou non par le monde quantique, se comportera effectivement comme un puits sans fond.

Faut-il alors continuer à engloutir des milliards dans des accélérateurs de particules géants, à la recherche d’une loi fondamentale qui marquerait l’existence d’un fond au-dessous duquel il ne sera plus possible de descendre, et dont l’on pourrait remonter triomphalement, comme l’imaginent les réductionnistes, pour comprendre les étages supérieurs, plutôt qu’étudier à moindres frais des phénomènes plus banaux tels que la superfluidité ? Disons dans l’optique de l’émergence, que de tels accélérateurs pourront provoquer des phénomènes inattendus et actuellement imprévisibles. Ceux-ci, à condition que l’on sache les voir, pourront faire apparaître de nouvelles lois émergentes et suggérer de nouvelles hypothèses. Mais en aucun cas, ils ne révèleront le fond. C’est bien ce qu’avait compris les physiciens des particules il y a trente ans quand ils parlaient d’un phénomène de boot-trap ou tire-bottes. Les expériences sur les particules de haute énergie en faisaient apparaître toujours de nouvelles, au désespoir des théoriciens. Rien n’a changé depuis semble-t-il.

Robert Laughlin utilise dans son interview l'oeuvre « Le Jardin de Monet, les Iris » comme l’illustration d’un phénomène complexe émergeant à partir d’objets élémentaires auxquels il n’est pas réductible. Ce tableau n’exprime pas l’émergence d’un jardin ni même d’une représentation de jardin. Il exprime l’émergence du Monet tel qu’il était au moment où il l’a peint, c’est- à--dire au stade qu’il avait atteint à ce moment précis de son processus d’auto-construction. Bien plus, il exprime aussi l’émergence de l’état qui est le nôtre quand nous percevons ce tableau. On pourrait imaginer que d’innombrables autres Monet auraient pu succéder au premier, par émergence, construisant d’innombrables autres tableaux, avec des millions d’amateurs d’art émergeant à la suite de ces divers Monet, sans que jamais l’univers « en soi », véritable puits sans fond en l’espèce, n’impose de limites au processus d’auto-construction pictural ainsi engagé. C’était peut-être d’ailleurs ainsi que Monet, avec ses célèbres suites, concevait intuitivement son art, c’est-à-dire son rapport au monde.


Notes

1) Cet article est dans le peloton de tête des références de Google, au nom de Robert Laughlin, tant pour l’édition française que pour l’anglaise. La Recherche ne le cite pas, mais faut-il s’en étonner ?
2) Comme le déplore Lee Smolin dans son dernier livre « The Trouble with Physics ».
3) Mioara Mugur-Schächter, "Sur le tissage des connaissances" Hermès-Sciences 2006. Voir http://www.automatesintelligents.com/biblionet/2006/sep/mms.html

 

Partager cet article
Repost0
30 juillet 2006 7 30 /07 /juillet /2006 16:04
Couverture du livre "Sur le tissage de la connaissance", de Miora Mugur-Schächter

Collection : Ingénierie représentationelle et constructions de sens
Hermes Lavoisier 2006

Présentation et commentaire par Jean-Paul Baquiast (28/07/06)


 


Présentation par l'éditeur
L'humain prélève de l'information de son environnement et bâtit des systèmes complexes de représentations abstraites. Néanmoins, quel rapport y a-t-il entre ces systèmes représentationnels et le réel ?

Sur le tissage des connaissances propose une réponse à cette question. La méthode de conceptualisation relativisée qui en constitue le coeur comporte un saut épistémologique décisif, remettant en question l'existence d'objets et de propriétés qui préexisteraient aux descriptions que nous en élaborons, et faisant de la connaissance un construit dont le rapport avec le réel est essentiellement (inter)subjectif et finalisé.

Ce livre secoue les fondations de l'édifice fragile construit autour de l'information depuis Shannon. Il permet de cerner de façon tangible la substance même de la connaissance, fournissant les bases d'une nouvelle théorie plus appropriée pour comprendre ce que nos cerveaux et nos machines manipulent lorsqu'ils traitent de l'information. Il éclaire de façon inédite le concept de sens, notamment dans ses dimensions partageables et communicables. Il change ainsi par là même notre vision de la "réalité du monde".

Au sommaire
Une méthode générale de conceptualisation relativisée
Source de la méthode
La méthode de conceptualisation relativisée (MCR)
Quelques illustrations majeures de la méthode de conceptualisation relativisée
Introduction à la deuxième partie
Logique classique versus logique-MCR
Reconstruction-MCR du concept de probabilité
Unification-MCR de la logique et des probabilités
MCR versus la théorie des transmissions de messages de Shannon
Unification entre probabilités et l'entropie informationnelle de Shannon : la fonctionnelle d'opacité
Estimations de complexité selon MCR
Représentation-MCR du concept de temps
Conclusion générale


Introduction

Due à la physicienne et philosophe des sciences Mioara Mugur-Schächter, la Méthode de Conceptualisation Relativisée (dite MCR) a été élaborée progressivement à partir de 1982 . Ce travail constitue selon nous une révolution dans la façon de se représenter les processus d'acquisition de la connaissance et par conséquent, la "réalité" ou le "monde" objet de cette connaissance. La question de la consistance du réel s'impose dans pratiquement tous les domaines des sciences macroscopiques: mathématiques, biologie, science des organisations, théorie de la communication, robotique et vie artificielle. Elle est évidemment aussi à l'ordre du jour dans la philosophie des connaissances ou épistémologie. Elle se situe d'une façon claire dans le débat entre le réalisme et le constructivisme. Enfin, elle intéressera très concrètement les regards que la politique de demain voudra poser sur le monde.

Aujourd'hui, il faut admettre que la réalité, tout au moins les modèles et produits de toutes sortes résultant de l'activité humaine, sont "construits" par cette dernière, d'une façon jamais terminée mêlant inextricablement le constructeur et son œuvre. C'est la physique quantique qui a imposé ce nouveau regard, mais celui-ci, nous dit Mioara Mugur-Schächter, devrait s'étendre désormais à l'ensemble des connaissances, qu'elles soient scientifiques ou qu'elles soient véhiculées par les langages empiriques assurant la communication inter-humaine. Dès les débuts de la physique quantique dans les années 1930 du XXe siècle, les physiciens quantiques avaient annoncé que les manifestations observables des micro-entités qu'ils étudiaient étaient "construites" au cours du processus d'investigation. Mais il aura fallu de nombreuses décennies pour que l'on puisse clairement distinguer entre les méthodologies d'étude de la physique quantique et celles des sciences du macroscopique, c'est-à-dire de toutes les autres sciences. Il faudra encore beaucoup de temps pour que, grâce à des ouvrages comme celui-ci, les premières puissent enrichir les secondes et les débarrasser de leurs adhérences métaphysiques.

Comme l'indique Mioara Mugur Schächter, ce délai a tenu en partie (et tient encore) au caractère apparemment ésotérique du formalisme quantique ainsi qu'au peu d'intérêt des physiciens vis-à-vis des questions épistémologiques et philosophiques. Peu leur importait, sauf exceptions, d'étudier le type de méthodologie qu'ils utilisaient au regard de la philosophie des connaissances. Ils avaient également renoncé, faute de réponses évidentes, à définir ce qu'il y avait ou non derrière les observables, pourvu que les prévisions faites sur les phénomènes se révèlent justes. Ce souci de pragmatisme est encore dominant. Ainsi demain, les ingénieurs pourront réaliser un ordinateur quantique sans se poser la question de la consistance métaphysique de l'intrication et de la décohérence, pourvu qu'ils puissent tirer parti de ces deux phénomènes avec un taux d'erreur acceptable dans des technologies applicatives.

Pourtant, les succès dorénavant éclatants de la physique quantique, qui en font véritablement la science des sciences, impose de sortir de cette indifférence quant à ses méthodes. La méthode MCR vient véritablement à temps, comme le dit Mioara Mugur Schächter, pour sortir l'entendement commun de ses impasses et des pièges où il s'enlise dorénavant. MCR propose ce qui aurait déjà du être entrepris depuis longtemps par les scientifiques et les épistémologistes s'ils avaient davantage réfléchi à ces impasses et à ces pièges, au lieu d'en prendre parti soit par paresse intellectuelle soit par aveuglement. Elle met chacun d'entre nous à même d'apprécier, sans être physicien, les implications de la physique quantique sur les méthodes d'acquisition de la connaissance : généraliser à l'ensemble des sciences les processus de représentation (ou plutôt de “ construction du réel ”) utilisés par la physique quantique et y ayant fait leurs preuves.

Mais la révolution conceptuelle est cependant si forte, le déboulonnage des anciennes idoles du réalisme positiviste si radical et si exigeant, que beaucoup de gens continueront à "faire de la science" et "faire parler la science" sans avoir encore la moindre idée de l'effort qu'ils devraient faire pour commencer à être crédible dans l'effort de construction des connaissances scientifiques auquel cependant ils s'imaginent participer.

Nous avons dans cette revue, dès que nous avions pris connaissance des travaux de Mioara Mugur Schächter, signalé leur importance à nos lecteurs(1). Mais le handicap de MCR était jusqu'à présent le fait, outre la complexité intrinsèque de la présentation, qu'elle avait été publiée en anglais et qu'il n'existait pas de traduction française(2). Beaucoup des correspondants de Mioara Mugur Schächter la pressait d'en rédiger une version française, malgré l'important travail que représentait la nécessaire refonte des premiers textes et le fait que l'auteure dans l'intervalle n'avait pas cessé de travailler en développant de nouvelles applications de sa théorie. Le travail a cependant été fait. Du fait des compléments apportés et des nouvelles perspectives ouvertes, il s'agit d'une véritable oeuvre originale. C'est cette oeuvre, "Sur le tissage des connaissances", que nous souhaitons vous présenter dans cet article.

Nous pensons qu'il s'agit d'un événement majeur de la pensée scientifique et philosophique comme d'ailleurs de la pensée empirique quotidienne. Mais combien de gens passeront encore à côté de ce travail? Il heurte trop d'habitudes et même trop d'intérêts égoïstes, professionnels et politiques, pour bénéficier de l'accueil médiatique qu'il mériterait.

«Sur le tissage des connaissances» est malheureusement un livre difficile. On peut craindre qu'une lecture superficielle en décourage plus d'un. La difficulté tient d'abord au caractère révolutionnaire de l'approche méthodologique. Mais sur ce plan l'auteure procède pas à pas et de façon claire et constructive, pour celui qui veut bien entrer dans le livre. La principale difficulté tient à la notation et au caractère abstrait du texte, trop dépourvu d'exemples simples. La notation exclut les équations et autres démonstrations mathématiques, mais elle utilise abondamment la symbolique mathématique et logique, dans l'espoir de gagner du temps et de la clarté dans la formulation. Cette notation serait indispensable si l'on voulait «informatiser» la méthode, mais dans la lecture courante, pour peu que les enchaînements se complexifient, le lecteur voit son attention faiblir. C'est dommage(3).

Ici, il n'est pas question de résumer, même sommairement, un ouvrage considérable. Il faut absolument que ceux qui s'intéressent à la science fassent l'effort de l'acquérir, le comprendre et, si besoin était, le mettre en œuvre dans leurs propres recherches. Nous allons pour notre part présenter rapidement le contenu des principaux chapitres du livre et amorcer quelques commentaires, déjà abordés dans les précédents articles consacrés par notre revue à MCR.

Contenu

Le tissage des connaissances comprend deux parties, la première consacrée à la présentation de la méthode et la seconde à quelques uns des applications majeures pouvant en être faites. C'est évidemment par la première partie qu'il faut commencer la lecture, puisque on y trouve énoncé en détail tout ce qu'il faut savoir de MCR. Les applications présentées dans la seconde partie sont intéressantes et révélatrices. Examiner celles proposées par l'auteure éclairera beaucoup son propos, mais les chapitres qui y sont consacrés sont particulièrement ardus. Nous nous bornerons pour notre part à évoquer leur contenu en quelques phrases.

Première partie du livre. Présentation de MCR

Le chapitre 1 est à lire absolument. Il est d'un accès facile. L'auteure rappelle les sources du nouveau regard sur le monde proposé par la physique quantique. C'est sur cette base et pour la rendre applicable à l'ensemble des connaissances, qu'elle a voulu construire MCR de façon systématique. Mioara Mugur-Schächter était particulièrement légitime à faire ce travail, ayant conduit elle-même des recherches brillantes en physique et ayant travaillé, jeune, avec les plus grands scientifiques de la génération précédente.

Le nouveau regard apporté par la physique quantique, tout le monde le sait désormais, a signé, tout en moins dans cette discipline, la mort du « réalisme des essences », selon lequel il existerait une réalité indépendante de l'observateur, composée d'« objets » que l'observateur pouvait décrire « objectivement », en s'en approchant de plus en plus grâce à des instruments de plus en plus perfectionnés. Les physiciens de la grande époque de l'Ecole de Copenhague s'étaient aperçus qu'ils ne pouvaient absolument pas rendre compte de ce que montraient leurs instruments s'ils continuaient à faire appel au réalisme. Mais s'ils ont jeté les bases d'une nouvelle méthode, ils n'en ont pas tiré toutes les applications épistémologiques. Beaucoup de leurs successeurs ne l'ont d'ailleurs pas encore fait(4). Mioara Mugur-Schächter fut véritablement la première à proposer de généraliser cette méthode à l'ensemble des sciences. Son mérite est au moins aussi grand que celui de ses prédécesseurs.

Nous pouvons observer à ce stade, même si l'auteure n'aborde pas explicitement ce point, que c'est en premier lieu le perfectionnement des instruments d'observations appliqués aux phénomènes de l'électromagnétisme et de la radioactivité qui a obligé les physiciens utilisateurs de ces instruments à regarder autrement des phénomènes qu'ils ne s'expliquaient pas dans le cadre des anciens paradigmes, les contraignant par exemple à ne pas choisir entre le caractère ondulatoire et le caractère corpusculaire de la lumière. Or ces instruments étaient apparus, sur le «marché des instruments de laboratoires», si l'on peut dire, non pas du fait de géniaux inventeurs convaincus qu'ils abordaient de nouveaux rivages de la connaissance, mais du fait de modestes techniciens. Ceci correspond à l'intuition selon laquelle les super-organismes technologiques se développent selon des modes de vie propres, proche de la mémétique, et que c'est leur évolution quasi biologique qui entraîne celle des conceptualisations et connaissances organisées en grands systèmes dans les sociétés humaines.

Mais comme le rappelle Mioara Mugur-Shächter, l'évolution technologique n'aurait pas suffi à provoquer seule la révolution conceptuelle. Il a fallu aussi que des mutations dans les modes de représentation du monde hébergées par les cerveaux de quelques précurseurs de grand talent les obligent à voir les incohérences, plutôt que continuer à buter contre elles pendant encore des décennies. Nous estimons pour notre part, la modestie de l'auteure dut-elle en souffrir, que celle-ci a fait preuve d'un génie précurseur aussi grand, en sachant passer d'une pratique mal formulée et mal systématisée, inutilisable ailleurs qu'en physique, à une méthodologie rigoureuse applicable par toutes les sciences.

Les sources de la stratégie de conceptualisation proposée par MCR, présentée dans le chapitre 1, sont abondamment développées dans le chapitre 2, qui constitue l'exposé détaillé de la méthode. L'auteure procède de façon pédagogique, en faisant suivre l'énoncé des bases ou postulats de la méthode de commentaires permettant de lever les obscurités et ambiguïtés. Ce chapitre, cependant, est beaucoup plus difficile que le précédent. Nous conseillons néanmoins à nos lecteurs de l'étudier en détail, crayon à la main si nécessaire. Rappelons que dans les articles cités en note, nous avons essayé de fournir deux exemples imagés d'application de la méthode, qui rendront, espérons-le, la compréhension du chapitre plus aisée.

Evoquons ici en quelques lignes les grandes étapes indispensables à la construction des connaissances selon MCR. Il s'agit en fait d'une méthodologie pour la production des descriptions, car il n'y a de science que de descriptions, les «phénomènes en soi» étant réputés non-existants.

- Le Fonctionnement-conscience. On postule au départ l'existence d'un observateur humain, doté d'un cerveau lui-même capable de faits de conscience. Ce cerveau est tel qu'il peut afficher des buts au service desquels mettre une stratégie. Mioara Mugur-Shächter considère que l'organisme vivant, ceci à plus forte raison s'il est doté de conscience, est capable de téléonomie(5). Nous pensons pour notre part que le concept de Fonctionnement-conscience peut être étendu au fonctionnement de tous les êtres vivants, et peut-être même à celui de précurseurs matériels de la vie biologique, aux prises avec la Réalité telle que définie ci-dessous. Nous y reviendrons dans nos commentaires. Les concepteurs de robots véritablement autonomes espèrent que ces robots pourront procéder de même afin de se doter de représentations ayant du sens pour eux.

- La Réalité. On postule qu'il existe quelque chose au-delà des constructions par lesquelles nous nous représentons le monde, mais (pour éviter les pièges du réalisme), qu'il est impossible – et sera à jamais impossible - de décrire objectivement cette réalité. Peut-être pourrait-on (la suggestion est de nous) assimiler cette réalité à ce que la physique contemporaine appelle le Vide quantique ou l'énergie de point-zéro, à condition d'admettre que ce Vide est et demeurera indescriptible, d'autant plus qu'il ne s'inscrit ni dans le temps ni dans l'espace propres à notre univers. Seules pourront en être connues les fluctuations quantiques en émanant, si elles donnent naissance à des particules qui se matérialiseraient par décohérence au contact avec notre matière.

- Le Générateur d'Entité-objet et l'Entité-objet ainsi générée. Il s'agit d'un mécanisme permettant au Fonctionnement conscience, dans le cadre de ses stratégies téléonomiques, de créer quelque chose (un observable) à partir de quoi il pourra procéder à des mesures. Il n'y aurait pas de science sans ce mécanisme. Nous procédons de cette façon en permanence dans la vie courante, comme nous l'avons montré à propos des entités objets psychiques (Ma fiancée m'aime-t-elle ?). Nous construisons des « objets » d'étude, qui n'existaient pas avant notre intervention.

- Les Qualificateurs. Il s'agit des différents points de vue par lesquels nous décrivons d'une façon utilisable par nous les Entités-objets que nous avons créée. Ces Qualificateurs sont les moyens d'observation et de mesure, biologiques ou instrumentaux, dont nous disposons. Il n'y a qu'une qualification par mesure et celle-ci n'est pas répétable car généralement l'Entité-objet a changé. Mais la multiplication des qualifications donne ce que MCR appelle des Vues-aspects proposant des grilles de qualifications effectives et intersubjectives. L'opération peut conduire à la constatation de l'inexistence relative de l'Entité-objet créée aux fins d'observation (inexistence relative car il serait contraire à MCR de parler de faux absolu). Ceci montre que l'on ne peut pas inventer n'importe quelle Entité-objet et construire des connaissances solides à son propos. Il faut qu'elle corresponde à quelque chose dans la Réalité telle que définie plus haut et qu'elle puisse être mise en relation avec les grilles de qualification déjà produites. Ainsi les connaissances construites s'ajoutent-elles les unes aux autres.

- Le Principe-cadre. Il s'agit du cadre d'espace-temps dans lequel on décide d'observer l'Entité-objet afin de la situer.

Tout ceci permet d'obtenir un canon général de description, utilisable dans n'importe quel domaine. Il repose sur le postulat de la non-possibilité de confronter la description avec un réel en soi ou réel métaphysique quelconque. Il débouche par contre sur une « description relativisée », individuelle ou probabiliste, à vocation inter-subjective, c'est-à-dire partageable par d'autres Fonctionnements-consciences, à travers ce que MCR appelle des Descriptions relativisées de base Transférées. La somme de celles-ci devrait, correspondre à la somme des connaissances scientifiques relativisées que grâce à MCR nous pouvons obtenir sur le monde.

Deuxième partie du livre. Quelques illustrations majeures de MCR

Les chapitres constituant cette deuxième partie présentent le plus grand intérêt pour les lecteurs connaissant déjà MCR. Ils illustrent en effet des recherches menées sans désemparer par Mioara Mugur-Shächter dans ces dernières années, et jamais présentées à ce jour de façon synthétique. Ils apportent la preuve de l'intérêt de la révolution épistémologique qui découle de la généralisation de MCR à d'autres domaines de la représentation des connaissances. On y voit en effet remis en cause, d'une façon qui sera certainement fructueuse, l'essentiel de ce que l'on considérait jusqu'ici comme les bases de la conceptualisation dans les disciplines évoquées. Il ne devrait plus jamais être possible, dans ces disciplines, de continuer à raisonner selon les précédentes méthodes, sauf à le faire intentionnellement dans le cadre de recherches limitées. Malheureusement, ces chapitres sont véritablement difficiles. Nous les estimons hors de portée des non-spécialistes. Il est dommage que l'auteure n'ait pas essayé de les résumer sous une forme plus accessible, quitte à réserver l'exposé complet aux professionnels.

Nous n'avons ici ni le temps ni la compétence pour résumer l'argumentaire de chacun de ces chapitres, consacrés respectivement à la logique, aux probabilités, au concept de transmission des messages chez Shannon, à la complexité et finalement au temps, vu sous l'angle des changements identité-différence qui peuvent s'y produire.

Bornons nous à dire que, dans chacun de ces cas, on retrouve le postulat de MCR selon lequel on ne peut pas imaginer et moins encore rechercher une prétendue réalité ontologique ou en soi de phénomènes qui sont en fait des constructions du Fonctionnement-conscience et du Générateur d'Entité-objet tels que définis dans la première partie du livre. Prenons l'exemple de la logique. Si celle-ci était considérée comme un instrument du même type que les mathématiques (dont la plupart des mathématiciens n'affirment pas qu'elles existent en soi), on pourrait lui trouver quelque utilité, mais seulement pour donner de la rigueur aux raisonnements abstraits. Elle ne servirait pas à donner de meilleures descriptions du monde. Or la logique prétend au contraire décrire des classes d'objets, auxquelles elle applique des prédicats. Mais ces objets et ces prédicats sont présentés comme existant dans la réalité ou traduisant des relations réelles entre éléments de la réalité. La logique ne se pose donc pas la question du processus de construction par lequel on les obtient. Elle suspend dont quasiment dans le vide l'ensemble de ses raisonnements. Faire appel à ceux-ci risque alors d'être inutile, voire dangereux, en égarant l'entendement dans des cercles vicieux (comme le montre le paradoxe du menteur). La logique ne retrouvera de bases saines qu'en utilisant MCR pour spécifier les objets de ses discours.

Il en est de même du concept de probabilités tel que défini notamment par le mathématicien Kolmogorov. L'espace de probabilité proposé par ce dernier ne devrait pas être utilisé dans les sciences, sauf à très petite échelle. Il ne peut que conduire à des impasses. Si l'on pose en principe qu'il existe des objets en soi difficilement descriptible par les sciences exactes, dont la connaissance impose des approches probabilistes, le calcul des probabilités est un outil indispensable. Ainsi on dira que la probabilité de survenue d'un cyclone dans certaines conditions de température et de pression est de tant. Mais si, pour analyser plus en profondeur les phénomènes de la thermodynamique atmosphérique et océanique, on admettait que le cyclone n'existe pas dans la réalité, pas plus que l'électron ou le photon, mais qu'il est la construction ad hoc unique d'un processus d'élaboration de qualification selon MCR, le concept de probabilité changera du tout au tout. On retrouverait, à une échelle différente, l'indétermination caractéristique de la physique quantique et la nécessité de faire appel à des vecteurs d'état et à la mathématique des grands nombres pour représenter concrètement de tels phénomènes.

La mesure de la complexité oblige aux mêmes restrictions. Pour la science « classique » de la complexité, il existe des entités réelles (en soi) dont les instruments classiques de mesure ne peuvent pas donner, du fait de leur imperfection, de descriptions détaillées et déterministes. D'où une impression de complexité. Il faut donc tenter de mesurer les systèmes ainsi prétendus complexes par des méthodes détournées. Mais si l'on admettait que l'objet, complexe ou pas, est une création du Fonctionnement-conscience et relève dont de MCR dans la totalité de son étude, les choses se simplifieraient. On cesserait en fait de parler de complexité. On se bornerait à dire que l'on a créé une Entité-objet accessible aux opérations de qualifications, qui n'aurait pas d'intérêt en soi, mais seulement comme élément d'un processus plus général de construction de connaissances.

Mioara Mugur-Shächter ne le dit pas, mais le même raisonnement pourrait selon nous s'appliquer au concept de système. La science des systèmes s'évertue à identifier ceux-ci dans la nature et se noie évidemment dans le nombre immense des candidats-systèmes qu'elle peut identifier. Mieux vaudrait admettre d'emblée que le système en général, tel système en particulier, n'existent pas en soi, mais doivent être spécifiés en tant qu'Entités-objets créées par un Générateur ad hoc.

Le même type de raisonnement s'appliquera à la théorie de Shannon et au concept de temps, tels que présentés dans l'ouvrage.

Commentaires

Plusieurs questions se posent, une fois le livre refermé. En voici quelques unes, rapidement évoquées :

Prolongements médiatiques?

Si l'on considère, comme nous le faisons, qu'il s'agit d'une œuvre maîtresse, le premier souci qui devrait incomber, non seulement à l'auteure mais à ses disciples et lecteurs, serait de lui donner des prolongements. Mais pour cela, il faudrait que MCR soit mieux connue, discutée, amplifiée, enrichie dans les nombreuses directions, tant épistémologiques qu'applicatives, ouvertes par Mioara Mugur-Shächter. Est-ce le cas ? Sans doute pas pour le moment, hormis un cercle très étroit.

S'agit-il d'une question de communication ? L'auteure fait-elle appel comme il le faudrait aux nouveaux médias. A priori, la réponse est négative. Google donne environ 240 références sur son nom, ce qui est infime. Son site personnel, http://www.mugur-schachter.net/ n'a reçu que 230 visiteurs depuis sa création en février 2006. Les seules références critiques en français sont nos précédents articles. C'est très honorable pour nous mais ce n'est pas à la hauteur de l'oeuvre. Il faudrait donc que Mioara Mugur-Shächter fasse un effort considérable de meilleure diffusion par Internet. Celle-ci est aujourd'hui la clef du succès dans le monde scientifique et surtout dans le grand public Notre expérience nous montre que les journalistes scientifiques, notamment, ne vont pas directement aux sources mais s'appuient sur les références qu'ils trouvent en ligne.

Mais alors se pose à nouveau la question de la forme déjà signalée. Il faut absolument que MMS soit déclinée dans des versions diversifiées, attrayantes, éventuellement pour certaines d'entre elles dramatisées ou illustrées. Ceci suppose un effort considérable, qui n'est sans doute pas à la portée d'une personne seule, mais qu'il faudrait faire.

Prolongements scientifiques et méthodologiques?

MCR restera un exposé théorique dense et peu utilisable par les scientifiques, ingénieurs et autres concepteurs de systèmes cognitifs si la méthode n'est pas transformée en une sorte de langage de programmation (ou tout au moins pour commencer en un langage d'analyse fonctionnelle) qui puisse être utilisé de façon indifférenciée. La difficulté à vaincre est en effet la résistance des chercheurs et concepteurs. Même s'ils estimaient que les postulats réalistes qui sous-tendent leurs travaux ne résistent pas à la critique, ils ne feraient pas l'effort de changer de méthodologie si le coût d'investissement dépassait les bénéfices attendus d'une nouvelle méthode. En effet, le réalisme n'entache pas d'erreurs pratiques (en dehors pour le moment de la physique quantique) les résultats obtenus dans la plupart des applications. Certes, le postulat réaliste bloque les développements ultérieurs dans la plupart des cas. Mais les concepteurs ne se soucient pas en général du futur, mais de la rentabilité à court terme.

Il nous semble qu'un travail d'aide à la programmation analogue à celui réalisé par Stephen Wolfram avec son logiciel Mathematica serait réalisable et trouverait des clients. Les premiers utilisateurs, comme l'indique d'ailleurs Mioara Mugur-Shächter, devraient être les concepteurs de robots autonomes, désireux de doter ceux-ci d'une capacité interne (non programmée de l'extérieur) pour se doter de représentations de leur environnement ayant du sens pour eux.

Prolongements épistémologiques ?

Nous estimons, à tort ou à raison, que MCR si brillamment conçue par Mioara Mugur-Shächter comme une méthode canonique de description susceptible de s'appliquer non seulement aux sciences mais à l'ensemble des langages descriptifs, est bien plus que cela. Il s'agirait de la formalisation spontanée, réalisée pour la première fois, sinon dans l'histoire de l'univers, du moins dans l'histoire de la Terre, d'un processus de construction de toutes les formes organisées existant dans le monde. Si en effet nous considérons que l'univers s'est construit à partir du Vide Quantique par matérialisation aléatoire réussie de particules quantiques nées des fluctuations dudit Vide, il faut bien qu'un processus très puissant ait poussé à la complexification des composants élémentaires de matière et à l'apparition, par émergence, des complexités biologiques et mentales que nous connaissons. Cette idée rejoint, nous semble-t-il, celles présentées par les physiciens selon lesquelles l'univers serait un calculateur – et qui plus est, selon Seth Lloyd qui vient de donner à cette hypothèse une forme rigoureuse, un calculateur quantique(6).

Dès qu'une entité matérielle organisée, sous forme d'une molécule fut-elle simple, extrait du Vide une particule quantique (où ce qui correspond à ce terme dans la théorie quantique des champs) et l'intègre à sa structure, elle transforme ce qui n'était alors pas descriptible en une Entité-objet Qualifiable. En effet, se faisant, l'entité matérielle considérée se transforme, pour reprendre les termes de Mioara Mugur-Shächter, en Générateur d'Entité-objets. La nouvelle Entité-objet ainsi crée est Qualifiée par les relations qu'elle entretient avec le Générateur. L'opération répétée le nombre de fois qu'il faut aboutit à l'émergence d'un Fonctionnement (in)conscience, avec ses téléonomies, qui entrera dans la grande compétition darwinienne entre molécules primordiales. Le même schéma se reproduira lorsque apparaîtront les premières entités biologiques et que celles-ci, elles-mêmes, se doteront d'aptitude à la conscience(7). Les constructions matérielles et intellectuelles de la société scientifique terrestre feraient ainsi partie d'un univers beaucoup plus vaste, celui des Descriptions relativisées de base Transférées (pour reprendre le terme de MCR) cosmologiques.

Mais alors, demanderont les esprits curieux, pourquoi, si MCR représente un mouvement cosmologique aussi profond, a-t-il fallu attendre Mioara Mugur-Shächter et, avant elle, les premiers physiciens quantiques, pour qu'il prenne une forme langagière enfin intelligible ? C'est tout le problème de la construction de l'univers en général et du rôle de la science, processus constructif méthodique en particulier qui est alors posé. Pourquoi serait-ce seulement à notre époque (et par la voix de Mioara Mugur-Shächter) que les Terriens prendraient conscience de leurs aptitudes à construire cet univers et lui donner (éventuellement) des finalités compatibles avec leur survie ? Et, plus généralement, est-ce que d'autres Fonctionnement conscience existeraient ailleurs dans l'univers pour proposer des perspectives convergentes (ou divergentes) ? Nous laissons à la sagacité de nos lecteurs le soin de répondre à ces questions.

 

Notes
(1) Voir http://www.automatesintelligents.com/echanges/2004/avr/mioara.html ainsi que http://www.automatesintelligents.com/echanges/2004/juin/mrc.html et http://www.admiroutes.asso.fr/larevue/2004/55/mrc.htm On lira également un interview de l'auteure http://www.automatesintelligents.com/interviews/2004/juin/mugurschachter.html
Un article sur MCR a été présenté sur notre blog Philoscience: http://philoscience.over-blog.com/article-1542920-6.html remonter d'où l'on vient
(2) Method of Relativized Conceptualisation. Quantum Mechanics, Mathematics, Cognition and Action (Kluwer Academic, 2002). Un article de la revue Le Débat mars avril 1997 avait précédemment posé le problème: http://ns3833.ovh.net/%7Emcxapc/docs/conseilscient/mms1.pdf
(3) Nous pensons avoir montré qu'en paraphrasant dans le langage courant et sur des exemples simples les algorithmes proposés par le livre, il était possible de le rendre plus accessible (voir note 1). Mioara Mugur-Shächter annonce qu'elle a entrepris la rédaction d'un ouvrage destiné au grand public. Il s'agit d'une très bonne initiative. Mais que nos lecteurs n'attendent pas la parution de ce dernier pour s'intéresser au présent livre.
(4) Ceci apparaît, comme le note d'ailleurs Mioara Mugur-Shächter, dans le fait que beaucoup de physiciens quantiques continuent à trouver la physique quantique compliquée, voire incompréhensible. On cite toujours Feynman qui aurait dit que celui qui prétend comprendre la physique quantique montre qu'il n'y a rien compris. En fait, si le formalisme mathématique de la mécanique quantique est compliqué, il n'est pas le seul. Ce qui est compliqué, voire impossible, c'est de prétendre mettre derrière le formalisme des réalités en soi contradictoires, incompréhensibles par l'entendement humain. Mais à ce titre les Ecritures sont également compliquées voire incompréhensibles quand elles évoquent un Dieu en trois personnes. MCR vise précisément à éviter cette tentation métaphysique sinon mythologique appliquée à une science, la physique quantique, qui est devenue celle de tous les jours. La même observation vaudrait évidemment aussi pour ce qui concerne la cosmologie théorique. remonter d'où l'on vient
(5) Selon Wikipedia (http://fr.wikipedia.org/wiki/T%C3%A9l%C3%A9ologie), la téléologie est l'étude des systèmes finalisants acceptant différentes plages de stabilité structurelles et capables, en général, d'élaborer des buts ou de modifier leurs finalités, (en anglais:purposeful systems"). Dans les systèmes humains psycho-socio-politique, cette téléologie peut très bien se nommer de "autodétermination". La téléonomie est l'étude des systèmes finalisés par une stabilité; recherche de la stabilité structurelle et non du changement, (en anglais: "goal seeking systems"). En psychologie et en sociologie, la téléonomie peut très bien se nommer de "autonomie". Ces mots sont suspects pour les matérialistes. Mais il est tout à fait possible d'accepter les définitions ci-dessus sans se référer à des causes finales imposées par une divinité quelconque. remonter d'où l'on vient
(6) Voir notre article http://www.automatesintelligents.com/biblionet/2006/avr/lloyd.html remonter d'où l'on vient
(7) Nous renvoyons sur ce point au livre de Gilbert Chauvet http://www.automatesintelligents.com/biblionet/2006/fev/comprendre_vivant.html remonter d'où l'on vient

Partager cet article
Repost0
6 janvier 2006 5 06 /01 /janvier /2006 21:57

Un exemple d'acquisition des connaissances inspiré par la méthode de Mioara Mugur-Schächter: le chômage
Jean-Paul Baquiast
6 janvier 2006
Cet article est extrait et adapté de notre livre en libre accès: Comprendre - Nouvelles sciences, nouveaux citoyens. Introduction à la complexité
http://www.admiroutes.asso.fr/baquiast.htm

MCR ou MRC: Method of Relativized Conceptualisation: La Méthode a fait l'objet de divers articles et discussions et d'un ouvrage de présentation détaillé : Quantum Mechanics, Mathematics, Cognition and Action (Kluwer Academic, 2002). Le CNRS vient de décider d'en publier une version française actualisée.
Nous y avons consacré plusieurs pages dans la revue Automates-Intelligents, comme le lecteur pourra le voir en consultant notre tout nouveau moteur de recherche incorporé. A.I.

Abréviations:
- MQ: Mécanique quantique
- MCR: Méthode de Conceptualisation Relativisée, proposée par la physicienne Mioara Mugur-Schächter
- ANPE: Agence nationale pour l'emploi

Les processus de la MQ étant encore mal connus du grand public, proposons au lecteur une application simplifiée de MCR, en nous situant dans le champ des connaissances ordinaires afin d’éviter de laisser croire qu’elle n’intéressera que les physiciens.

Supposons un économiste qui cherche à comprendre le chômage qui persiste dans les économies occidentales malgré la reprise de l’activité. Cet économiste constate que les définitions classiques du chômage ne suffisent pas à expliquer les phénomènes constatés sur le marché de l’emploi dans un pays comme la France. Il en vient à les critiquer. Sont-elles pertinentes ?

Dans une science économique “ réaliste ”, c’est-à-dire persuadée de l’existence d’un réel existant indépendamment de l’homme, on a tendance à considérer qu’il existe des objets en soi, le chômage, l’inflation, la mondialisation, que l’on peut étudier de l’ extérieur et décrire de façon objective, en “ tournant autour ” comme on le fait en étudiant une machine ou un phénomène relativement objectif, par exemple une éruption volcanique. Mais un peu de réflexion montre que le chômage ou l’inflation sont des entités construites pour les besoins de tel ou tel discours. Le chômage n’est pas conçu ni décrit de la même façon par le Medef, la CGT, le ministre des finances ou une personne en recherche d’emploi. En d’autres termes, on ne peut pas “ réifier ” le chômage, c’est-à-dire parler de lui comme s’il s’agissait d’une réalité dont la définition s’imposerait à tous. L’entité chômage ne peut être décrite d’une façon qui fasse abstraction de la personne qui en parle. Les deux sont inséparables.

Que faire alors? Maintenir l’hétérogénéité des discours, reposant sur la diversité des personnes parlant du chômage et sur la non-compatibilité de leurs motivations ? C’est en général ce qui se passe. On aboutit à une sorte de babélisation, chaque personne (chaque locuteur) désignant sous le même mot des choses différentes et surtout, voulant provoquer des réactions politiques différentes. Ceci explique pourquoi la science économique est généralement considérée comme inexacte sinon menteuse, au même titre que la météorologie vue par la soi-disant sagesse populaire.

Mais si l’on voulait introduire de la rigueur dans le discours sur le chômage, il faudrait pour bien faire que celui qui en parle précise qui il est, à qui il veut s’adresser, ce qu’il veut démontrer, la définition qu’il propose de donner au concept de chômage, les raisons qu’il a de considérer que cette définition est scientifiquement pertinente et, finalement, les raisons qu’il a de considérer que les autres définitions ne le sont pas. On constatera alors que la plupart des gens parlant prétendument scientifiquement du chômage refuseront cette façon de relativiser leur discours, non pas parce qu’il s’agirait d’un processus trop complexe susceptible de créer une autre sorte de cacophonie, mais parce qu’ils refuseront d’admettre qu’ils ne sont pas objectifs quand ils abordent la question du chômage. Chacun en fait s’appuie sur la prétendue réalité de l’entité dont il parle pour se crédibiliser, c’est-à-dire pour donner de la “ réalité ” à son discours et à sa personne. Il s’agit, comme nous l’avons dit, d’une tentative de prise de pouvoir sur ceux à qui ce discours est destiné.

Accepter une régression conceptuelle

Que me propose la méthode MCR pour éviter cela ? Il faut d’abord que j’accepte une régression conceptuelle : je dois poser en principe que le chômage n’existe pas en soi. Je décide ensuite de créer une entité virtuelle que j’appellerai chômage, inobservable, puis de la fixer en tant objet d’étude, c’est-à-dire de connaissance. Connaître veut dire décrire et décrire qualifier. Quand il s'agit de qualifications par des opérations physiques, il faut spécifier une " opération de mesure " et l' " appareil de mesure " correspondant. Je réaliserai donc un certain nombre d’appareils non-virtuels pouvant fournir, à partir d'interactions avec cet objet virtuel supposé, des marques ou mesures qui me soient perceptibles. Il pourra s’agir d’enquêtes auprès de l’ANPE ou d’organisations professionnelles, mais aussi de sondages d’opinion ou toutes autres formes d’observation. En préparant ce matériel, par exemple en définissant les questions et les réponses possibles, j’accomplis ce que les physiciens nomment une "opération de préparation d'état" et je pose en principe que cette opération produit un état virtuel "correspondant" qui est précisément l'objet de l'étude que présuppose toute tentative de description.

J'admets a priori que l'entité virtuelle “ chômage ”, lorsqu'elle est soumise au mode d'interaction, change d'une façon que je ne connais pas. Mais ce changement inconnu peut être défini factuellement (objectivement), à savoir "c'est celui qui correspond au mode opératoire mis en action" et que je constate sur l’appareil de mesure. L'interaction ne détecte pas une propriété intrinsèque de l'objet, elle crée une propriété perceptible d'interaction. Si j’enquête auprès de l’ANPE, l’entité virtuelle chômage, susceptible d’innombrables définitions, est modifiée par cette enquête et devient, à travers celle-ci (et seulement à travers elle), le chômage tel que se le représente l’ANPE. Lorsque j’enquêterai auprès de la CGT, l’entité virtuelle sera à nouveau modifiée. Elle deviendra le chômage tel que le voit ce syndicat.

Les manifestations perceptibles de l'observable virtuel sont dénommées ses "valeurs propres". L'ensemble des valeurs propres d'un observable virtuel constitue son "spectre". Le mode opératoire d'interaction qui définit l'observable virtuel crée une valeur propre perceptible de cet observable. Mais l'observable n'est pas une propriété de l'entité virtuelle. C'est une opération d'interaction d'une entité virtuelle avec un appareil matériel. De ce fait la valeur propre créée qualifie l'interaction et non l’entité. Si l’enquête auprès de l’ANPE me dit que le taux de chômage est de 13% de la population inscrite auprès de ses caisses, ce chiffre qualifie l’interaction de l’entité virtuelle chômage avec les moyens d’information dont disposent ces caisses, et non l’entité virtuelle chômage toute entière.

Ainsi, afin de qualifier une entité virtuelle, je définirai des dimensions de qualifications opératoires qui seront des interactions entre cette entité et des appareils d’observations et qui créeront des effets d'interaction perceptibles interprétables selon certaines règles en termes prédéfinis de "valeurs propres d'observables…". On voit que dans le but de connaître une entité virtuelle du type du chômage, je suis obligé d’adopter une attitude de description radicalement active. Je dois créer aussi bien les objets de descriptions que les qualifications.

Imaginons maintenant que je refasse un grand nombre de fois l'opération de mesure, en m’adressant à d’autres interlocuteurs, le Medef, la CGT, le ministère du travail. Imaginons aussi que je change d’instruments de mesure, par exemple en réalisant des sondages individuels auprès d’un échantillon de population, salariés d’abord, chefs d’entreprise ensuite… Imaginons enfin qu'à chaque fois je trouve le même résultat (soit un chômage estimé à tel pourcentage de la population salariale, par exemple 10%). A ce moment je pourrai dire : “ la qualification de l’entité virtuelle chômage, soumise à telles opérations de mesure, conduit invariablement au résultat 10%. Donc la caractérisation du chômage face à ces opérations de mesure est terminée. Elle consiste dans la valeur propre 10% ”.

Mais en général, la réitération d'un grand nombre de fois une opération de mesure et le recours à un grand nombre d’opérations de mesure différentes font apparaître tout un spectre de valeurs propres de l’entité virtuelle chômage, allant par exemple de 8% à 15% et portant sur des catégories de travailleurs ou de chômeurs différentes. La situation se révèle être statistique.

Dans ces conditions, la valeur propre 11%, à elle seule, n'est pas caractéristique du chômage. Je suis obligé de faire un nouveau pas vers la caractérisation de cette entité virtuelle en établissant la distribution statistique des fréquences relatives obtenues pour l'entier spectre des valeurs propres. Mais je dois me souvenir que la distribution statistique du spectre des valeurs propres est elle aussi relative aux diverses opérations de mesure mises en jeu. Aussi, afin d'augmenter les probabilités d'avoir véritablement caractérisé le chômage, je rechercherai la distribution des fréquences relatives des "valeurs" de qualification obtenues par plusieurs biais de qualification différents. Je choisirai plusieurs observables différents tels que les opérations de mesure correspondantes soient mutuellement exclusives.

La fonction d'onde de l'entité virtuelle chômage

On résumera en disant que par un très grand nombre de réitérations d'opérations de mesure mutuellement exclusives, j'obtiens de l’entité virtuelle chômage une certaine connaissance globale, probabiliste, qui est un invariant observationnel pouvant lui être associé et le caractériser. Je puis aller plus loin en établissant un algorithme mathématique prévisionnel donnant une représentation abstraite du résultat obtenu. J’établirai, pour toute opération de préparation, une fonction d'état ou fonction de probabilités qui représentera l'ensemble de tous les résultats expérimentaux en fonction du temps – ce qui s’impose dans le cas du chômage puisque celui-ci est supposé évoluer dans le temps. Une fois que cette fonction de probabilité a été construite, des calculs simples permettront d’obtenir des prévisions quantitatives. Mais il ne s'agira que de prévisions probabilistes globales et pas de prévisions individuelles affirmées avec certitude. Elles pourront cependant se révéler d'une précision déconcertante. Ainsi l’entité chômage qui au départ n'était qu'un simple étiquetage subit finalement une transmutation en un outil mathématique de description probabiliste prévisionnelle, qui me sera fort utile dans la suite de mes travaux économiques. Ce sera en quelque sorte, pour reprendre le terme utilisé par la MQ, la fonction d'onde ou vecteur d’état de l’entité virtuelle chômage. L'opacité qui sépare le supposé niveau virtuel du chômage et mon propre niveau de perception et d'action sera – en ce sens et en ce sens seulement - levée. Une structure descriptionnelle prévisionnelle et vérifiable aura été mise en place.

Malgré les apparences, on voit que la méthode MCR est très différente des méthodes classiques. Ainsi, en ce qui concerne le chômage, l’observateur économique classique affirme a priori l’existence d’un phénomène, le chômage, tel qu’il le définit. Il exclut toute autre définition et c’est à partir de cette définition qu’il travaille. Ainsi tel auteur inclura dans le calcul du chômage les emplois à temps partiel et tel autre en enlèvera les emplois féminins non salariés. Ces auteurs procéderont ensuite à des mesures statistiques qui donneront une apparence de scientificité à leurs définitions, dont ils se garderont bien d’annoncer le caractère relatif. Evidemment, les économistes honnêtes ne sont pas tous incapables d’efforts destinés à exclure la subjectivité et le caractère partisan de leurs travaux. En croisant les points de vue, ils peuvent aboutir à des caractérisations, toujours relatives mais plus générales, des phénomènes qu’ils étudient. Mais dans ce cas, ils retrouveront sans le savoir les procédures de la MQ résumées dans la méthode MCR résumée ci-dessus. Ils courront cependant à tous moments le risque de retomber dans l’erreur de la réification – ce qui est plus difficile, bien que pas totalement impossible, en matière de physique quantique.

La généralisation de la méthode MCR

L'application de la méthode ne se limite pas aux représentations scientifiques du monde mais plus généralement à celles qu'en donnent tous les langages symboliques – y compris le langage politique, grand consommateur de références à de prétendus “ existants ” qui n’existent que par la volonté des acteurs de la vie politique. Sa portée est donc universelle. Selon nous, elle devrait donc être dorénavant enseignée et appliquée partout.

Il faut bien voir que c'est la transposition à la science macroscopique de la pratique épistémologique de la MQ qui représente la nouveauté de ce travail. Divers chercheurs en sciences de la complexité, par exemple Edgar Morin avec ses célèbres notations récursives [E.Morin, op.cit.] avaient essayé de proposer des modèles tenant compte de l'implication de l'observateur dans ses descriptions, mais ces tentatives n'ont jamais été convaincantes ni généralisables. Pour y réussir, il fallait d'abord interroger au fond la démarche du physicien quantique, puis la constituer en méthode utilisable dans tous les autres domaines de l'acquisition de connaissance.

Si on veut l'appliquer constamment, la méthode MCR paraîtra peut-être au premier abord un peu raffinée ou perfectionniste, étant donné que ses performances spécifiques ne sont vraiment frappantes que dans des cas relativement peu courants de la vie quotidienne. Notre lecteur n’aura pas manqué d'ironiser, nous en sommes persuadés, du luxe de précautions méthodologiques que nous avons évoquées pour traiter du chômage. Comme on dit, c’était un peu se noyer dans un verre d’eau. Mais il s’agissait d’une démonstration d’école. Par contre, ces précautions apparaissent comme indispensables quand on est confronté à des paradoxes ou à des faux problèmes qui semblent insolubles (par exemple, qu’est-ce qui existait avant le Big Bang, si on considère celui-ci comme le début de tout ?) ou dans des circonstances qui, suite à telle ou telle pratique particulière (recherches sur des crimes, investigations médicales, etc.) sont d'ores et déjà abordées par des méthodes professionnelles locales qui de fait englobent la méthodologie MCR, bien qu'à l'état implicite et non-systématisé. Mais rien n'empêche d'utiliser MCR comme référence explicite générale, tout en employant les raccourcis que cette méthode définit elle-même, à chaque fois que ceux-ci sont " légalement " acceptables sans introduire des contresens. On disposera ainsi d'une sécurité de conceptualisation permanente.

Dans ces conditions, quel est donc l'apport essentiel de MCR ? En résumant beaucoup, on dira que MCR permet de s'affranchir de ce que l'on pourrait appeler la tyrannie du " réalisme des essences " ou du monde en soi, qui conduit les hommes, que ce soient des scientifiques ou de simples locuteurs ayant recours au langage ordinaire, à oublier inconsciemment ou même volontairement que ce sont eux, à travers la façon dont ils perçoivent et se représentent le réel, qui définissent et construisent ce réel. Cet oubli fait que celui qui parle s'arroge l'autorité de quelqu'un qui serait en relation directe avec un réel objectif pour imposer aux autres ce qui n'est qu'une vue subjective des choses - ceci qu'il s'agisse de l'expression d'un point de vue qui lui serait individuel ou d'un point de vue représentant un consensus interpersonnel ou intersubjectif propre à un groupe d'hommes.

Pendant des siècles, un tel abus d'autorité du locuteur, parlant au nom du réel (on disait aussi "de la nature") face aux créations de l'imaginaire, a permis au rationalisme d'élaborer des représentations du monde échappant aux " vérités révélées " et aux autres mythes imposés par les autorités religieuses ou politiques. Mais aujourd'hui, où la science devrait ouvrir largement les portes de l'imagination créatrice pour répondre aux questions qui naissent du développement exponentiel de ses instruments d'observation et de ses modèles, affirmer a priori qu'un observateur-acteur puisse décrire, ne fut-ce qu'imparfaitement, un réel qui lui serait extérieur ne peut que stériliser la recherche en donnant à une telle description une autorité qu'elle n'a pas. La connaissance ne peut progresser qu'en s'appuyant sur le caractère relatif de ses propositions, considérées comme le produit ici et maintenant de l'interaction de tel observateur, équipé de tels instruments, avec un réel hypothétique dont on n'affirmera rien qui soit extérieur aux résultats de l'observation du moment. Il y a là un message très fort à retenir d'emblée. Il concerne ce que l'on pourra appeler la démocratisation de l'accès à la construction des connaissances. On ne peut plus réserver cette construction à des “ élites ”. Chacun doit pouvoir y contribuer, à condition de respecter une procédure permettant le travail coopératif avec les autres. Le paradoxe vient du fait que la méthode proposée découle de la pratique de la MQ, science réputée jusqu’ici comme la plus ésotérique qui soit.

Nous pensons qu’il faut absolument adopter cette méthode si l'on veut non seulement mieux comprendre et approfondir les travaux de la mécanique quantique et de la cosmologie, dont l'importance grandit tous les jours, mais beaucoup plus généralement, relancer l’heuristique, c’est-à-dire la recherche dans l'ensemble des sciences, en se libérant des barrières a priori imposées par ceux qui s'en tiennent aux vielles façons de se représenter le réel. Certes, comme noté plus haut, si je veux désigner une table ou une chaise, voire construire un pont, je ne serai pas gêné par le fait que ces différents concepts et modèles soient des constructions sociales et ne renvoient pas à d'hypothétiques entités en soi appartenant au monde des essences. Mais si je veux étudier les interactions des " gènes " avec les protéines dans la construction d'un embryon, je dois commencer à remettre en cause l'image naïve que je pouvais avoir de ces gènes à l'échelle macroscopique.

C’est en fait dans les sciences dites molles, la biologie par exemple et plus encore en matière de sciences humaines et sociales, qu’il est urgent de renoncer au réalisme pour faire progresser les connaissances. Les concepts de virus, gène, neurone, pas plus que ceux d'inflation, de libéralisme de terrorisme, d’homosexualité ne sont plus suffisants pour expliquer les faits et conduire les politiques, si on oublie qu'il ne s'agit que de constructions dont chacune est localisée dans le temps et dans l'espace. Ces constructions doivent aujourd'hui être dépassées par des démarches intégratives qui prennent en compte le point de vue de celui qui les utilise. On ne parle pas de la même façon du libéralisme quand on est riche ou pauvre.

Ajoutons que dans les domaines de plus en plus fréquents où le microphysique rejoint le macroscopique (par exemple dans les expériences et systèmes faisant apparaître la possibilité d'intrications entre particules quantiques et éléments de la physique macroscopique), il sera évidemment indispensable de recourir à MCR si l'on ne veut pas se fermer d'emblée à tout renouvellement des représentations du monde actuellement en vigueur.

Partager cet article
Repost0
20 décembre 2005 2 20 /12 /décembre /2005 15:45

 Thème. La science

Pour obtenir une vue générale des différentes pages composant ce dossier, consulter le Plan http://www.admiroutes.asso.fr/philoscience/plan.htm

Monnaie ancienne représentant Janus bifrons. Il regarde vers le passé et vers le futur. Mais pourquoi ne pas y voir un symbole de la pensée moderne qui devrait regarder à la fois vers la philosophie et vers la science?

Il est raisonnable de penser que la philosophie et la science se sont, au moins depuis l’Antiquité grecque, conjuguées pour construire les sociétés modernes, celles que l’on dit parfois intelligentes. Mais il convient de préciser en quoi leurs approchent diffèrent.

On peut considérer que la science consiste à construire un modèle du monde fait d’informations élaborées par l’interaction des organismes humains avec ce monde. Des hypothèses sont proposées sur le mode de l’exploration par essais et erreurs propre à tous les organismes vivants. Elles visent à établir des liens logiques entre les perceptions sensorielles. Ces hypothèses sont soumises à l’expérimentation. Celles d’entre elles qui se trouvent confirmées par l’expérience sont conservées et qualifiées de lois. Les autres sont abandonnées. Une telle façon de faire, indispensable à la survie, est très répandue dans le monde du vivant, mais ce qui distingue la science des autres activités visant à identifier des constantes dans la nature et lui confère un caractère universel est le fait que, par consensus, les scientifiques ont convenu d’utiliser un langage commun permettant de représenter les connaissances d’une façon compréhensible par tous. Par ailleurs, ils acceptent de se soumettre à l’expérience, c’est-à-dire de voir les connaissances acquises remises en cause au cas où de nouvelles preuves issues des protocoles communs de la recherche expérimentale seraient produites.

Nous avons vu en comparant
l’art et la science que la création artistique s’affranchit de la plupart des contraintes pesant sur la création scientifique. En art, n’importe quelle hypothèse relative à la perception du monde est considérée comme significative, quel que soit l’auteur qui la produit, le domaine pour lequel elle est formulée, la forme qu’elle revêt et la portée qui lui est donnée. En contrepartie de cette grande liberté, faute de normes communes de production et d’interopérabilité, la création artistique n’a pas réussi à constituer de grands modèles universels décrivant l’univers, sur lesquels il aurait été possible de développer un capital cumulatif de savoirs technologiques et industriels, analogue à celui résultant de l’exploitation des modèles scientifiques par les groupes humains. Ces différences ne signifient pas que l’art aurait un statut supérieur ou inférieur à celui de la science, mais que création scientifique et création artistique constituent deux modes complémentaires de l’exploration du monde par essais et erreurs à laquelle se livrent les êtres vivants et plus particulièrement les humains. Mais comment situer la philosophie dans ce duo ?

La philosophie ou la capacité de questionnement

Pour répondre à cette question, il faut s’interroger sur ce qui ferait la spécificité de l’activité philosophique. Les philosophes répondent en général que c’est la capacité de questionnement. La philosophie n’a pas pour rôle essentiel de proposer des réponses, mais celui de poser des questions. Le scientifique aussi pose des questions sur le monde. Sans cela, il n’aurait aucune raison de formuler de nouvelles hypothèses qui sont précisément censées répondre à des questions nouvelles. Mais le scientifique ne se pose de questions que dans les limites étroites de sa spécialité, ce qui réduit la portée de la démarche – même lorsque ces spécialités, par exemple la cosmologie, la biologie de la vie, les neurosciences cognitives, embrassent des pans entiers de l’univers. Le philosophe au contraire, et ceci dès les origines de la pensée, recherche en permanence la raison de tout ce qu’il voit et aussi de ce qu’il ne voit pas mais qu’il pressent. Il s’interroge aussi en permanence sur lui-même, ce que les scientifiques n’avaient jamais fait jusqu’à l’arrivée de la physique quantique. Comme la capacité de douter ou de remettre en question est le fondement même de l’activité philosophique, elle a été depuis longtemps codifiée par les usages de la discipline afin de s’exercer avec la plus grande efficacité possible, malgré les pressions sociales qui y voient souvent un facteur subversif. On dira qu'à ce compte chaque personne qui réfléchit un tant soit peu sur le monde fait de la philosophee ou est en passe d'en faire. Socrate et bien donc ont répondu par l'affirmative.

Dans une perspective évolutionniste, il faudrait expliquer à quel moment et pour quelle raison est apparue dans l’espèce humaine (à supposer que les animaux en soient dépourvus, ce qui n’est pas certain) cette faculté de prendre du recul sur l’immédiat pour se poser des questions profondes. De telles questions profondes, tout le monde aujourd’hui encore les associe au questionnement philosophique : qui suis-je, que sont les autres, dans quel monde suis-je plongé, où va le monde et où allons nous nous-mêmes ? Pour les spiritualistes, la réponse est simple. L’homme étant doté d’une âme et celle-ci pouvant entrer en contact avec l’immanence, les questions touchant à l’Etre démontrent la dimension spirituelle de l’homme. Mais cette réponse n’a pas de sens pour les matérialistes.

Pour le biologiste évolutionniste, il faut que des avantages concrets en matière d’adaptabilité aient justifié la sélection au sein du cerveau humain de circuits neuronaux capables d’engendrer l'interrogation et la recherche de solutions. La réponse la plus vraisemblable est que ce sont les premiers circuits auto-réflexifs, c’est-à-dire capables de générer ce que l’on appelle des états de conscience, qui ont servi de milieux favorables à l’émergence de questions à portée générale, c’est-à-dire de type philosophique. Ces questions une fois formulées dans les esprits permettaient certainement à ceux qui en étaient les bénéficiaires de prendre du recul sur l’activité quotidienne de survie et d’envisager des solutions à plus long terme, dont le bénéfice en termes d’adaptabilité était réel. Les psychologues du développement considèrent aussi aujourd’hui, comme on le sait, que cette faculté a eu un revers. Le fait de ne pas trouver de réponse immédiate à la question angoissante de savoir, par exemple, ce que l’on devient après la mort, a pu favoriser le développement de croyances en l’au-delà et en la vie éternelle chez des sociétés ayant pris conscience du fait que les individus étaient mortels. Mais comme nous allons le voir, le mythe religieux qui prophétise l’immortalité ne peut pas prétendre au questionnement philosophique puisqu’il apporte une réponse qui ferme la possibilité de continuer à s’interroger.

Revenons à l’art, dans cette perspective du questionnement philosophique. On admettra volontiers que les créateurs artistiques authentiques (non pas ceux qui vivent de la répétition et du commerce des stéréotypes) sont aussi des agents actifs du questionnement porté sur le monde. Mais, en conséquence de la dispersion et de la non-systématisation des productions artistiques, l’effet constructif du questionnement artistique est diffus, lent et très souvent invisible du plus grand nombre. On conclura donc que, même si l’art peut être présenté comme une activité pré-scientifique induisant à la recherche de solutions, c’est la pensée philosophique qui est vraiment à la source du processus de construction du monde dans lequel la démarche scientifique joue le rôle prédominant. C’est également la philosophie qui permet au scientifique de ne pas s’enfermer dans les voies déjà ouvertes et d’en initialiser d’autres.

La philosophie ne devrait proposer que des réponses ouvrant sur de nouvelles questions

Mais la philosophie se limite-t-elle à poser des questions ? Ne propose-t-elle pas aussi des réponses ? La philosophie propose évidemment des réponses, en grand nombre compte tenu de la fertilité de l’esprit philosophique. Mais elle les assortit d’une possibilité de remise en question immédiate. Chaque réponse philosophique ouvre de nouveaux champs de questionnement si bien que le processus ne se fige jamais sur des certitudes prétendues. Autrement dit, contrairement aux formes de pensées autoritaires, productrices de dogmes, la philosophie authentique porte en elle-même son dépassement continuel.

Certes, de tous temps ont existé de grands systèmes philosophiques tentant de s’inscrire dans des écoles et des règles obligatoires et figées. Leurs promoteurs tentent parfois de se parer du prestige des hypothèses scientifiques en empruntant le formalisme de la science, notamment le recours aux mathématiques. Mais nous pouvons admettre que, lorsqu’elle cède à cette tentation, bien humaine il est vrai, la philosophie trahit sa nature. Elle rejoint alors les mythologies et les religions, dont le principal rôle fonctionnel (diront les matérialistes réalistes) est de formater des esprits en proposant des modalités et contenus de croyance et de pensée destinés à assurer le pouvoir de ceux qui les inventent ou qui les propagent. Même si certains systèmes philosophiques érigés en dogmes se présentent comme des hypothèses sur le monde susceptibles de vérification expérimentale, ils ne le sont pas. Ils refusent de se soumettre à la sanction de l’épreuve expérimentale. Ils ne peuvent donc être démentis. Depuis longtemps on a reconnu par exemple que le marxisme, l’existentialisme ou …l’empirisme radical (auxquels on pourrait ajouter le freudisme) n’étaient pas plus vérifiables que les grands récits de type prophétique. Ce sont des constructions méritant d’être étudiées en tant que telles, notamment par les sciences humaines et sociales. Mais elles ne contribuent pas sensiblement à enrichir les connaissances scientifiques, contrairement aux hypothèses scientifiques contemporaines sur les origines de l’univers et de la vie, de portée apparemment philosophiques mais qui restent scientifiques car chacun peut entreprendre de les falsifier par de nouvelles hypothèses confirmées expérimentalement.

Nous pouvons donc considérer que l’esprit philosophique, toujours apte à questionner le monde et à se questionner lui-même, peut être considéré comme le précurseur de toute démarche d’invention. Il l’a été aux origines de la pensée rationaliste et le demeure aujourd’hui lorsqu’il s’agit d’encourager de nouvelles recherches scientifiques. Ce type d’esprit a certainement permis à l’espèce humaine de dépasser en compétitivité adaptative un certain nombre d’autres espèces qui n’en sont pas pourvues, au moins sous sa forme la plus efficace. Nous avons vu qu’il est sans doute inhérent aux mécanismes profonds de l’auto-réflexion qui fondent la conscience dans le cortex associatif de l’homme. Il ne faut donc pas s’étonner de trouver la philosophie associée à tous les progrès de la science. La philosophie incite à de nouvelles recherches mais elle joue aussi un rôle en essayant de critiquer et/ou d’expliciter les résultats des recherches antérieures, en les ordonnant, en les prolongeant et en les relançant.

La philosophie est associée à tous les progrès de la science

Les exemples de mariage heureux de la philosophie et de la science ne manquent pas. La philosophie des sciences ou épistémologie étudie l’histoire des sciences et, de plus en plus, les mécanismes créateurs de connaissance. L’esthétique s’intéresse aux processus de la création artistique. Les visions philosophiques sur les civilisations, les cultures et les hommes inspirent en permanence les sciences sociales et humaines. La philosophie générale qui médite sur la place de l’homme dans l’univers, qui s’intéresse au réel et à l’Etre, au sujet et à l’objet, représente incontestablement une incitation aux travaux les plus récents de la cosmologie et de la mécanique quantique.

Certes, le mariage entre philosophie et science pourrait être plus accompli. D’une façon générale, il semble que les scientifiques soient plus avides de philosophie que les philosophes ne le sont de s’informer des derniers résultats de la science. Les véritables équipes multi-disciplinaires sont rares, chacun tendant à s’enfermer dans sa spécificité, notamment en France. Mais avec le développement de réseaux de connaissances tels que ceux permis par Internet (dont notre revue offre un tout petit exemple, au demeurant apprécié de ceux qui le connaissent) la symbiose entre ce qui devrait être les deux faces de l’homme moderne, véritable Janus, celle ouverte sur la philosophie et celle ouverte sur la science, commence à se préciser. Veillons à ce que le mouvement se poursuive, aux dépends des divers dogmatismes et fondamentalismes.

Jean-Paul Baquiast 18/12/05

Partager cet article
Repost0

Articles RÉCents

Liens