Overblog Suivre ce blog
Administration Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

27 septembre 2011 2 27 /09 /septembre /2011 20:50

Jean-Paul Baquiast  27/09/2011

 

Nous avons noté, dans un article précédent, repris sur ce blog (A propos de l'expérience OPERA http://www.automatesintelligents.com/labo/2011/opera.html ) le grand nombre de réactions ayant suivi la publication d'un article assez ésotérique par lequel des chercheurs européens annonçaient, (sous couvert de confirmation) une légère différence entre la vitesse de déplacement de particules nommées neutrinos, telle qu'elle aurait été observée par eux lors d'une expérience récente, et celle qu'elle aurait du être dans le cadre des équations de la relativité restreinte. La nouvelle serait en effet d'importance, en termes de physique fondamentale, puisqu'elle pourrait conduire à reformuler ce que de multiples expériences paraissaient avoir confirmé, une structure de l'espace temps interdisant la possibilité de vitesses supérieure à celle de la lumière, c'est-à-dire la vitesse de photons dans le vide.

De plus, dans le grand public, cette annonce a poussé certaines personnes à remettre en cause ce qui était devenu un véritable dogme associé aux travaux ayant rendu Albert Einstein célèbre. Les iconoclastes, ceux pour qui rien n'est plus urgent que renverser les idoles, se sont précipités sur l'occasion, sans chercher à comprendre le fond du problème. Plus généralement, beaucoup ont vu là une opportunité pour relancer des rêves jusque là réservés à la science fiction, c'est-à-dire la possibilité pour des humains ou des machines conçues par eux de voyager dans le temps ou dans un lointain espace.

Ceux qui s'intéressent un peu plus en profondeur à l'évolution des théories scientifiques relatives au temps et à l'espace savent pourtant que, dès la publication des hypothèses d'Einstein, des théories alternatives avaient été proposées. Il en est toujours de même aujourd'hui. Peut-être auraient-elles pu être vérifiées par des expériences appropriées si de telles expériences avaient été tentées. Mais, comme le savent les philosophes des sciences, un paradigme scientifique devenu dominant, tel que celui de l'espace-temps einstenien (nous simplifions les formulations pour rester simple) possède dans les esprits la capacité darwinienne d'éliminer spontanément les contradictions et même les nuances. Plus personne, hors des chercheurs affrontant le risque de se mettre en dehors de la communauté scientifique dominante, ne se hasarde à le remettre à l'épreuve. Aujourd'hui, c'est seulement dans sa confrontation avec un autre paradigme, celui qui fonde la mécanique quantique, que le paradigme relativiste est soumis à critique. Comme l'on sait, l'un et l'autre s'appuient sur des expériences présentées comme incontestables, si bien qu'aucune théorie globale, dite de la gravitation quantique et faisant une synthèse entre les deux, n'a pu encore être établie - surtout si, comme il parait logique, il ne s'agit pas de théories purement mathématiques mais de propositions susceptibles de vérifications expérimentales.

Cependant, soit dans le cadre d'un rapprochement avec la mécanique quantique, où la variable temps n'apparait pas en tant que telle, soit plus généralement en vue d'une meilleure formulation de l'espace-temps einstenien, de nombreuses recherches ou réflexions se développent actuellement. Pour les chercheurs qui s'y impliquent, le buzz fait autour de l'expérience OPERA, quel que soit le résultat des vérifications actuellement en cours, devrait pensons-nous être une excellente occasion de faire connaître l'état de leurs travaux, et proposer de nouvelles expériences permettant de valider leurs hypothèses. Nous n'avons pas ici qualité pour nous substituer à eux. Pourtant il nous paraît indispensable de faire un rapide résumé des perspectives aujourd'hui ouvertes.

Pour simplifier, nous distinguerons les théories proposant un abandon de l'espace-temps einsténien au profit d'un espace plus général, incluant un espace dit des moments, et celles qui proposent des lectures de la relativité restreinte différentes de celles communément admises aujourd'hui, plus proches semble-t-il des conceptions originales d'Einstein. Il est remarquable que certaines de ces dernières théories proposent de rétablir la prise en compte d'un référentiel absolu, généralement désigné par le terme d'éther.

Dans ces divers cas, rappelons-le, il s'agit d'interprétations d'un ensemble d'expériences de moins en moins empiriques, faisant appel à des instruments de plus en plus complexes, aux résultats de plus en plus largement discutés, autrement dit de plus en plus scientifiques, conduites depuis plusieurs siècles par la physique.

On peut toujours critiquer les conditions dans lesquelles sont menées les expériences, mais il ne serait pas scientifique de proposer des théories allant directement à l'encontre d'une expérience reconnue comme recevable par la communauté scientifique du moment. Par contre, il n'est pas interdit d'utiliser ces expériences pour construire des modèles généraux du monde éventuellement différents les uns des autres, ou pour diversifier les interprétations que l'on en donne.

Le processus de l'interprétation est très utilisé en physique quantique, mais il l'est aussi dans le domaine de la relativité, c'est-à-dire en cosmologie. Rappelons par ailleurs que le terme de théorie ne désigne pas une formulation rendue indiscutable par des expériences elles-mêmes indiscutables. Pour élaborer une théorie, on part d'un postulat ou principe non démontrable autour duquel on construit un cadre théorique permettant d'en rendre compte. On propose ensuite des expériences permettant de démontrer la théorie. Si l'expérience est invalidée ce n'est pas forcément le postulat qui est faux, ni même la théorie dans son ensemble, mais certaines de ses formulations ou interprétations. Il est prudent cependant en ce cas de remettre en question la théorie voire dans certains cas le postulat lui-même.

Un espace à 8 dimensions élargissant l'espace-temps einstenien

La plus récente des critiques faites à l'espace-temps einstenien est due à un trio de physiciens déjà connus par leurs prises de positions radicales en matière de paradigmes cosmologiques. Il s'agit de Lee Smolin, Joäo Magueijo et Giovanni Amelino-Camelia. Nous avons précédemment analysé ici deux ouvrages importants des deux premiers, « The trouble with physics » http://www.automatesintelligents.com/biblionet/2007/juil/troublewithphysicshtml.htm et « Faster than the speed of light » http://www.automatesintelligents.com/biblionet/2003/mai/magueijo.html . Renvoyons le lecteur à ces articles. On y verra que les auteurs étudiaient depuis déjà plusieurs années divers cas où la géométrie de l'espace ne peut plus être considérée comme le résultat de lois fondamentales de la nature. Elle évolue en fonction de lois plus profondes. Il en est ainsi du temps et par conséquent de la vitesse.

Aujourd'hui, (voir l'article de Amanda Gefter «  So long space time  » dans le NewScientist http://www.newscientist.com/article/mg21128241.700-beyond-spacetime-welcome-to-du 8 avril 2011phase-space.html ?page=1 ) ces chercheurs proposent de remplacer le concept d'espace-temps (space time) par celui de « phase space  » (espace des phases, espace dans lequel tous les états possibles d'un système sont représentés, chaque état possible correspondant à un point unique dans cet espace. Voir http://en.wikipedia.org/wiki/Phase_space).

Dans leur esprit l'espace où nous évoluons serait un monde à 8 dimensions associant les 4 dimensions de notre espace-temps et les 4 dimensions d'un autre espace, qu'ils ont baptisé espace des moments (momentum space), le moment étant le produit de la masse et de la vitesse d'un objet. L'espace à 8 dimensions comprendrait toutes les valeurs possibles de position, de temps, d'énergie et de moment.

Dans l'espace des moments, le seul que nous percevions immédiatement par nos sens, nous observons seulement des niveaux d'énergie et des moments, généralement concrétisés par des photons dont l'énergie et le moment sont différents, en fonction de leurs sources et des corps qui les ré-emettent en direction de nos sens. A partir de là, nos cerveaux reconstruisent l'espace-temps familier. Nous vivrions ainsi dans un espace défini par l'énergie pour une dimension et les 3 dimensions de moment pour l'autre. Le temps cesserait d'intervenir en tant que dimension propre.

Des transformations mathématiques simples permettraient de convertir les mesures faites dans l'espace des moments en mesures dans notre espace-temps familier. Le physicien Max Born avait remarqué dès 1938 que plusieurs des équations de la mécanique quantique demeurent les mêmes, qu'elles soient exprimées en coordonnées de l'espace-temps ou en coordonnées de l'espace des moments. On a nommé ce phénomène « réciprocité de Born ». En conséquence de celle-ci, si l'espace temps peut être courbé par l'influence de la masse des astres, comme Einstein l'avait montré, l'espace des moments pourrait l'être aussi.

Lee Smolin et ses collègues se sont attachés à donner des exemples de tels effets de courbure, dues à l'influence des moments, c'est-dire, rappelons-le, le produit de la masse des corps et de leurs mouvements. Ils ont utilisé les règles standard pour convertir les mesures dans l'espace des moments en mesures dans l'espace temps. Ils montrent que des observateurs vivant dans un espace des moments courbé ne pourront plus s'accorder avec des mesures faites dans l'espace-temps. Pour eux, même ce dernier devient relatif. Ils nomment cela « localité relative » («  relative locality »). On devait pouvoir en déduire que le concept de vitesse limite dans l'espace-temps einstenien ne devrait plus être utilisable.

On s'interrogera sur l'intérêt de telles hypothèses ainsi que sur la possibilité de tester expérimentalement leur validité. En dehors de considérations relatives au comportement de la matière dans les trous noirs, sujet trop exotique que nous n'évoquerons pas ici, les hypothèses relatives à la courbure de l'espace des moments pourrait expliquer une observation relative aux différences de vitesse entre les photons des rayons cosmiques tels qu'ils nous parviennent à la suite d'explosions de rayons gammas. Le télescope Fermi de la Nasa a montré que les photons de hautes énergies nous parviennent plus tard que les photons de basse énergie provenant du même événement. Bien que ces observations soient encore en discussion, Smolin en a tiré un article malheureusement réservé au seuls spécialistes, justifiant ses hypothèses (Voir Freidel et Smolin, 29 mai 2011, Gamma ray burst delay times probe the geometry of momentum space http://arxiv.org/abs/1103.5626 ).

Le concept d'espace des phases à 8 dimensions dans lequel nous vivrions fournirait pour Smolin le pont nécessaire entre la relativité et la mécanique quantique, c'est-à-dire la théorie de la gravitation quantique qu'il recherche. En relativité, ce qu'un observateur mesure en termes d'espace, un autre le mesure en termes de temps et réciproquement. Dans la gravitation quantique de Smolin, ce qu'un observateur mesure en termes d'espace-temps, un autre le mesure en termes d'espace des moments. Seul l'espace des phases est absolu et constant pour tous les observateurs. Il pourrait donc s'agir là du tissu de la réalité ultime.

Il sera intéressant dans les prochaines semaines d'étudier la façon dont dans ce cadre conceptuel Smolin et ses collègues analyseront l'expérience OPERA. Les neutrinos et leur vitesse, qui font l'objet des observations relatées au Cern, appartiennent peut-on penser à l'espace des moments et donc à l'espace des phases global qu'ils étudient .

Des interprétations originales de la relativité einstenienne

Avant d'abandonner plus ou moins complètement l'espace-temps einstenien, il serait utile d'étudier comment, dans le passé et aujourd'hui encore, la pensée d'Einstein pourrait être interprétée pour nuancer la vision rigide que beaucoup de scientifique et en tous cas le grand public en ont aujourd'hui. Dans cette démarche toute en nuances, nous faisons appel ici à un manuscrit non encore publié communiqué par un correspondant de notre revue Automates Intelligents, le physicien Michel Gondran que nous remercions de sa confiance. On comprend que dans ces conditions, nous nous limitions à quelques aperçus de son travail, susceptibles d'intéresser plus particulièrement le thème abordé dans cet article.

Michel Gondran s'est attaché à étudier en détail, à partir de courriers peu connus, les échanges ayant eu lieu dès le début du 20e siècle entre Einstein et des scientifiques contemporains. Dans le chapitre 10 de son manuscrit il fait ainsi l'historique de la relativité afin de préciser les postulats sur lesquelles elle est basée, en particulier le postulat de l'invariance de la vitesse de la lumière et l'hypothèse de la non existence d'un référentiel privilégié. Il rappelle en particulier que le postulat de l'invariance de la vitesse de la lumière n'est pas nécessaire pour obtenir les équations de la relativité restreinte.

L'auteur fournit des éléments d'information d'un grand intérêt aujourd'hui, lorsque l'on cherche à interpréter les résultats de l'expérience OPERA en affirmant qu'ils mettent peut-être en défaut la relativité d'Einstein. Il montre qu'il existe en fait deux théories de la relativité restreinte, élaborées de manière presque simultanée, quoique indépendantes et différentes l'une de l'autre : la relativité restreinte de Lorentz-Poincaré et la relativité restreinte d'Einstein. Les deux théories vérifient les mêmes équations, mais elles se contredisent dans leur interprétation, tout en ayant chacune sa propre cohérence. Les équations de Lorentz, qui en forment l'ossature, sont devinées par Lorentz et Poincaré pour vérifier l'invariance des équations de Maxwell ; elles sont déduites des postulats de relativité et de l'invariance de la vitesse de la lumière par Einstein. La relativité de Lorentz-Poincaré suppose l’existence d’un référentiel privilégié (éther) où a lieu la contraction de Lorentz, référentiel qui est inutile dans la relativité restreinte d’Einstein.

Le chapitre 10 du manuscrit qui détaille ces questions comporte 9 paragraphes, ayant tous leur importance dans l'examen du thème qui nous occupe ici. Au premier paragraphe l'auteur présente un bref historique de la relativité avant Einstein : relativité de Galilée et Newton et début de la relativité restreinte de Lorentz et Poincaré. Il y rappelle en particulier les postulats de Poincaré et comment celui-ci montre que la transformée de Lorentz permet d'expliquer l'invariance des équations de Maxwell, du lagrangien électromagnétique et de l'action d'une particule libre relativiste.

Le paragraphe 2 expose comment Einstein, en ajoutant aux postulats de Poincaré le postulat de l'invariance de la vitesse de la lumière, en déduit la transformée de Lorentz. L'auteur explicite ensuite les deux postulats implicites qui sont à la base de l'interprétation einstenienne de la relativité restreinte : le postulat de l’identité physique des unités de mesure et le critère de la synchronisation d’horloges relativement immobiles. Il s'agit on le sait d'un des points clefs de l'expérience OPERA : synchroniser grâce au GPS les horloges utilisées pour mesurer le temps de départ et d'arrivé des flux de neutrinos.

Suit au paragraphe 3 le rappel que les postulats de Poincaré sont suffisants pour démontrer l'existence d'une vitesse limite et obtenir la transformée de Lorentz. Mais le plus important à notre avis est le paragraphe 4. Michel Gondran y rappelle que la négation de l'existence d'un éther sans propriétés mécaniques n'a jamais été vérifiée expérimentalement et que, contrairement à la croyance générale, Einstein a soutenu à partir de 1916 et jusqu’à sa mort l'existence d'un tel éther.Le livre reproduit une grande partie de l'article d'Einstein de 1920 « L'éther et la théorie de la relativité » où celui-ci présente un historique de la notion d'éther. Dans cet article peu connu, Einstein explique pourquoi la relativité générale oblige à postuler l'existence d'un éther (« Selon la théorie de la relativité générale un espace sans éther est inconcevable »), mais un éther sans propriétés mécaniques (« la notion de mouvement ne doit pas lui être appliquée »).

Il ne s'agit pas là de considérations n'intéressant que l'histoire de la physique. La question de l'existence d'un référentiel invariant ou privilégié reste posé, non seulement en physique cosmologique mais en physique quantique. Dans le paragraphe 5 sont donc discutées les quatre interprétations possibles de la relativité restreinte liées à l'introduction ou non de cet éther d'un type nouveau et à l’ invariance ou non de la vitesse de la lumière. Les résultats des expériences sur l'intrication EPR-B (Aspect 1982), étudiés en détail dans le chapitre 9 du livre, sont selon Michel Gondran un argument fort en faveur de l'existence d’un tel éther lié à un référentiel privilégié. Bien plus, comme le montre l'auteur dans le paragraphe 6 de ce 10e chapitre du livre, l'interprétation de la relativité restreinte avec un référentiel privilégié peut être généralisée à la relativité générale dans une théorie de la gravité quantique.

Concernant le point qui nous intéresse plus particulièrement ici, la question de la vitesse de la lumière présentée comme une vitesse limite, Michel Gondran cite un théorème et des propos du physicien Jean-Marc Levy-Leblond ;. « Il n'y a plus de raison théorique de faire l'hypothèse que la vitesse limite, appelée constante de structure de l'espace-temps, soit celle de la lumière ». On peut seulement supposer, ajoute Michel Gondran, que la vitesse de la lumière est très proche de la vitesse limite. Le choix de l'égalité est un choix arbitraire que l'on peut faire, mais que l'on peut aussi récuser. Il est équivalent au choix arbitraire de prendre la masse du photon nulle. L'expérience a déjà montré par exemple que la masse du neutrino, qui a été considérée comme nulle pendant des dizaines d’années, ne l'est finalement pas. Si on suppose que la vitesse de la lumière n'est pas la vitesse limite, comme l'a toujours pensé de Broglie, alors la fonction d'onde du photon n'est pas donnée par les équations de Maxwell, mais par les équations de Proca avec une masse m très petite. Levy-Leblond ajoute que c'est un choix peu satisfaisant sur le plan épistémologique :

« Pourtant la démarche heuristique d'Einstein, toute couronnée de succès et justifiée historiquement qu'elle ait pu l'être, n'est guère satisfaisante sur le plan épistémologique. La principale critique que l'on peut lui adresser est d'établir ce que nous avons appelé une "super loi", appelée à régir tous les phénomènes physiques, en définissant leur cadre spatio-temporel commun à partir des propriétés d'un agent physique particulier : comment comprendre, dans une telle perspective, que la relativité einsteinienne, fondée sur l'analyse de la seule propagation de la lumière, ait vocation à s'appliquer aux interactions nucléaires, de nature pourtant essentiellement différente - et y soit effectivement valide ? »(Levy-Leblond 1996)

En conclusion, à la lecture du manuscrit de Michel Gondran, que nous ne commenterons pas davantage ici, il nous semble que deux interprétations de la relativité restreinte mériteraient aujourd'hui d'être explorées à nouveau, notamment au regard des résultats de l'expérience OPERA, si ceux-ci sont confirmés. La première est une interprétation que l'auteur appelle la relativité de de Broglie. C'est une théorie sans éther et où la vitesse de la lumière n'est pas la vitesse limite. La seconde est une interprétation qu'il nomme la relativité de Newton-Lorentz-Poincaré-de Broglie : C'est une théorie avec éther et où la vitesse de la lumière n'est pas la vitesse limite.


Repost 0
24 septembre 2011 6 24 /09 /septembre /2011 16:36


Doit-on considérer comme intangibles les "lois fondamentales" par lesquelles la cosmologie contemporaine pense pouvoir décrire l'univers ?

par Jean-Paul Baquiast et Christophe Jacquemin - 24/09/2011

Doit-on considérer comme intangibles les "lois fondamentales" par lesquelles la cosmologie contemporaine pense pouvoir décrire l'univers ?

 

 Dans divers écrits, nous avons répondu pour notre part par la négative. Aucune loi, sauf par un acte de foi qui ne serait pas scientifique, ne peut être considérée comme intangible. La science expérimentale formule des théories qu'elle s'efforce ensuite de vérifier expérimentalement. Les lois présentées aujourd'hui comme bien établies, sous forme de constantes universelles, seront par définition soumises à reformulation si de nouvelles expériences, menées dans des conditions de scientificité indiscutables, obligent à le faire. Il en est ainsi de la vitesse de la lumière dans le vide [outre Einstein, profitons de cet article pour aussi rendre hommage ici aux travaux d'Henri Poincaré], ou de l'attirance entre les corps dans le vide, relevant depuis Newton de la loi dite de la gravitation. Une dizaine d'autres constantes, qui selon les défenseurs du postulat anthropique fort ont permis par leur réglage fin (fine tuning) l'apparition de la vie et de la conscience, sont dans ce cas.

 

Mais pour le grand public et même pour la majorité des scientifiques, physiciens ou non, redécouvrir la nécessité de cette prudence méthodologique ne va pas de soi.

On le constate par l'écho considérable donné à un article(1) publié le 22 septembre sur le site Arxiv par un groupe de physiciens européens, selon lequel la vitesse d'une particule nommée "neutrino"(2) aurait été mesurée comme légèrement supérieure à la vitesse de la lumière. Cette dernière était jusqu'à présent considérée comme indépassable en vertu de la formule d'Einstein à la base de la théorie de la relativité restreinte : un corps se déplaçant au-delà de la vitesse de la lumière devrait disposer d'une énergie ou d'une masse infinie... ce qui ne serait pas concevable sauf, dit-on, à remettre en cause la quasi totalité de la physique.

 

En effet, à l'annonce de ce résultat de la collaboration OPERA, la communauté et le public a réagi comme si tous les piliers de la science étaient ébranlés à la fois. Outre attendre la confirmation de l'expérience, la sagesse consisterait au contraire à ne pas considérer les lois de la physique comme décrivant une entité existant en soi, le réel, ou l'univers, mais comme une construction de notre savoir susceptible par définition d'évoluer. On retrouve là le postulat de la physique quantique, selon lequel ce que nous disons d'une infra-réalité sous-jacente à toute observation et par définition inconnaissable en soi, dépend des conditions de cette observation.

L'expérience OPERA
(Oscillation Project with Emusion tRacking Apparatus)

L'expérience OPERA : neutrinos arrivant avec 60 nanosecondes d'avance par rapport aux prévisions
D'après les calculs, les neutrinos ont 60 nanosecondes d'avance sur les 2,4 millisecondes
qui devraient leur être nécessaire pour parcourir les 730 km, distance séparant
le CERN du Gran Sasso à la vitese de la lumière.

Le détecteur Opéra (Gran Sasso, Italie)
Le détecteur du Gran Sasso (Italie), qui participe avec le CERN à l'expérimentation
OPERA-CNGS (Cern Neutrinos to Gran Sasso)


Présentation de l'expérience - Film réalisé par le CNRS


Comme nous le rappelons dans un article publié par ailleurs, les résultats de l'observation découlent tout autant des instruments que le chercheur utilise que de ce dernier lui-même. Le travail du cerveau humain, et ses produits, portent de manière inextricable les marques des grilles de qualification introduites par la structure biopsychique de l'homme, comme aussi plus généralement par son comportement, individuel ou social.

 

Si les observations relatives au neutrino ou à sa vitesse montrent que la vitesse de la lumière, c'est-à-dire celle des photons dans le vide, peut être dépassée dans certains conditions, il faudra en tenir compte dans l'élaboration d'un modèle de l'univers plus pertinent. Cela ne voudra pas dire que ce nouveau modèle décrirait à son tour une réalité en soi qu'il faudrait accepter comme un nouvel acte de foi. Dans l'avenir il sera modifié.

Il en est de même en ce moment du calcul de l'attraction gravitationnelle. Diverses expériences récentes conduisent à postuler qu'elle puisse être différente dans certains cantons de l'univers ou pour certaines particules hypothétiques. On parle ainsi de MOND (gravité modifiée, proposée par Milgrom en 1983) et de Whimps (Weakly interacting massive particles ). Ceci ne signifie pas que sur Terre, dans les conditions courantes, la force de gravité pourrait être annulée, et Newton remisé au rayon des antiquités. Les pommes continueront à tomber.

Il faut rappeler ceci à tous ceux qui s'appuient sur l'expérience OPERA pour imaginer la possibilité de voyages dans le temps ou de déplacements à très grande vitesse aux confins de l'espace astronomique. Peut-être qu'un jour la science expérimentale (en dehors des modèles théoriques qui le font déjà), admettra de telles possibilités, peut-être que la technologie construira des machines permettant les réalisations correspondantes, mais l'une et l'autre en sont très loin pour le moment.

Mais à l'opposé de cette prudence, nous refusons pour notre part les arguments d'autorité, s'appuyant sur les constantes dites fondamentales, lorsqu'ils affirment par exemple que notre univers ne pourrait comporter d'autres formes de vie et de conscience que celles observées par les humains sur la Terre.

D'une part, on peut postuler sans risque que ces constantes seront elles-mêmes modifiées dans la suite de futures observations scientifiques. Leur cohérence actuelle s'en accommodera car on fera apparaître alors d'autres cohérences, de niveau supérieur.

 

D'autre part, on doit dès maintenant chercher à concilier l'approche de la physique quantique et de la physique traditionnelle. Les recherches actuelles n'y arrivent pas ou ne sont pas jugées concluantes C'est le cas concernant la théorie des cordes. Mais, en remontant au supposé Big Bang lors duquel aurait émergé du vide quantique un univers matériel doté de façon aléatoire de constantes qui sont ce qu'elles sont, on pourrait très bien montrer à l'avenir que d'autres univers matériels pourraient émerger d'événements analogues en étant dotés de constantes différentes.

Il serait alors intéressant d'imaginer de tels univers et de tester, au moins virtuellement, leur capacité à générer des formes étranges de vie et de conscience.


Notes
(1) "Measurement of the neutrino velocity with the OPERA detector in the CNGS beam" : Télécharger l'article (format pdf).
Ces résultats ont été obtenus dans le cadre du dispositif expérimental OPERA ("Oscillation Project with Emusion tRacking Apparatus").

(2) Neutrino ou "petit neutre" : particule suspectée en 1930 (pour satisfaire la loi de conservation de l’énergie dans les réactions nucléaires - les désintégrations d’atomes - que l’on peut trouver dans les étoiles ou les réacteurs nucléaires) et mise en évidence en 1956. Comme son nom l'indique, cette particule n'a pas de charge électrique. Sa masse était considérée au départ comme nulle. Les chercheurs se sont aperçus plus tard qu'il n'en était rien : les physiciens estiment que sa masse serait inférieure à 1 électronvolt, masse infime, mais masse tout de même..
Il existe trois sortes de neutrinos, chacun appartenant à l’une des trois "familles" des particules élémentaires : cette découverte peut être considérée comme un résultat majeur du LEP, le collisionneur d’électrons et d’antiélectrons du Cern, au début des années 1990.
----
A recommander sur le sujet, l'excellent ouvrage "La lumière des neutrinos", par Michel Cribier , Michel Spiro et Daniel Vignaud, Editions du Seuil (1995)

-------------------------------------------------------------------------------------------


Sources concernant l'expérience OPERA

La meilleure source est le CERN lui-même, y compris ses communiqués de presse http://press.web.cern.ch/public/Welcome-fr.html

Nous avons pu lire au moment où nous commencions à écrire cet article : "L’expérience OPERA, qui observe un faisceau de neutrinos envoyé depuis le CERN à une distance de 730 km, au Laboratoire de l’INFN Gran Sasso, en Italie, présentera de nouveaux résultats à l’occasion d’un séminaire qui se déroulera au CERN aujourd'hui.
Le résultat d’OPERA se fonde sur l'observation de plus de 15 000 événements neutrino mesurés au Gran Sasso et semble indiquer que les neutrinos se déplacent à une vitesse 20 x 10-6 supérieure à celle de la lumière, la vitesse cosmique limite. Compte tenu de l’importance d’un tel résultat, des mesures indépendantes sont nécessaires avant qu’il puisse être infirmé ou confirmé. C’est pourquoi la collaboration OPERA a décidé de le soumettre à un examen critique public.

Ce sera donc un sujet dont nous reparlerons.

Ci dessous, la vidéo (en anglais) du séminaire
du CERN donné le 23 septembre à 16h
 

 


On peut lire (en anglais) les excellents articles de Lisa Grossman, ainsi que les commentaires qui les accompagnent ( journal NewScientist) :
http://www.newscientist.com/article/dn20957-dimensionhop-may-allow-neutrinos-to-cheat-light-speed.html

ainsi que http://www.newscientist.com/article/dn20961-fasterthanlight-neutrino-claim-bolstered.html

Sur le neutrino, particule plus qu'élusive, le recours dans un premier temps à l'inévitable Wikipedia s'impose http://fr.wikipedia.org/wiki/Neutrino.
On pourra lire aussi avec intérêt l'excellent ouvrage "La lumière des neutrinos", de Michel Cribier, Michel Spiro et Daniel Vignaud, Editions du Seuil (1995)

Rappelons enfin que les hypothèses relatives à la "relativité" de la vitesse de la lumière calculée par Einstein ont toujours été nombreuses. Nous citerons ce que vient d'en écrire Luis Gonzalez Mestre, physicien franco-espagnol, rejeté par beaucoup de ses pairs compte tenu de ses positions jugées "gauchistes". Rejet qui nous paraît pour le moins léger:
"L'idée avancée dans mes travaux est la suivante : la matière que nous connaissons, et sous la forme où nos appareils la perçoivent actuellement, n'est pas forcément la forme ultime de la matière. La vitesse de la lumière pourrait très bien être, tout compte fait, la vitesse critique des excitations d'une phase de la matière, de la même façon que la vitesse du son est la vitesse critique des phonons (ondes du son) dans un solide. Dans ce cas, de même qu'un quantum de lumière peut traverser un solide transparent, des particules plus fondamentales et avec une vitesse critique très supérieure à celle de la lumière pourraient traverser notre univers. Un très faible mélange avec ce nouveau secteur de la matière suffirait pour modifier légèrement la vitesse critique d'un neutrino dans le vide."  

Repost 0
24 septembre 2011 6 24 /09 /septembre /2011 12:05


Doit-on considérer comme intangibles les « lois fondamentales » par lesquelles la cosmologie contemporaine pense pouvoir décrire l'univers?

Jean-Paul Baquiast 24/09/2011

Le détecteur du Gran Sasso (Italie), qui participe avec le CERN à l'expérimentation OPERA- CNGS (Cern Neutrinos to Gran Sasso)

Nous avons pour notre part, dans divers écrits, répondu par la négative. Aucune loi, sauf par un acte de foi qui ne serait pas scientifique, ne peut être considérée comme intangible. La science expérimentale, par définition, formule des postulats qu'elle s'efforce ensuite de vérifier expérimentalement. Les lois présentées aujourd'hui comme bien établies, sous forme de constantes universelles, seront par définition soumises à reformulation si de nouvelles expériences, menées dans des conditions de scientificité indiscutables, obligent à le faire. Il en est ainsi de la vitesse de la lumière dans le vide, définie depuis Einstein par la formule e=mc2, ou de l'attirance entre les corps dans le vide, relevant depuis Newton de la loi dite de la gravitation. Une dizaine d'autres constantes, qui selon les défenseurs du postulat anthropique fort ont permis par leur réglage fin (fine tuning) l'apparition de la vie et de la conscience, sont dans ce cas.

Mais pour le grand public et même pour la majorité des scientifiques, physiciens ou non, redécouvrir la nécessité de cette prudence méthodologique ne va pas de soi. On le constate par l'écho considérable donné à un article publié le 22 septembre sur le site Arxiv par un groupe de physiciens européens (http://arxiv.org/abs/1109.4897) , selon lequel la vitesse d'une particule nommée le neutrino aurait été mesurée, dans le cadre bien précis d'un dispositif expérimental dit OPERA (Oscillation Project with Emusion tRacking Apparatus) comme légèrement supérieure à la vitesse de la lumière. Celle-ci était jusqu'à présent considérée comme indépassable en vertu de la formule d'Einstein à la base de la théorie de la Relativité: un corps se déplaçant au delà de la vitesse de la lumière devrait disposer d'une énergie ou d'une masse infinie...ce qui ne serait pas concevable sauf dit-on à remettre en cause la quasi totalité de la physique.

Le public, au reçu de cette annonce de la collaboration OPERA, a réagi comme si en effet tous les piliers de la science étaient ébranlés à la fois. La sagesse consisterait au contraire, outre attendre la confirmation de l'expérience, à ne pas considérer les lois de la physique comme décrivant une entité existant en soi, le réel, ou l'univers, mais comme une construction de notre savoir susceptible par définition d'évoluer. On retrouve là le postulat de la physique quantique, selon lequel ce que nous disons d'une infra-réalité sous-jacente à toute observation et par définition inconnaissable en soi, dépend des conditions de cette observation.

Comme nous le rappelons dans un article publié par ailleurs, les résultats de l'observation découlent tout autant des instruments que le chercheur utilise que de ce dernier lui-même. Le travail du cerveau humain, et ses produits, portent de manière inextricable les marques des grilles de qualification introduites par la structure biopsychique de l'homme, comme aussi plus généralement par son comportement, individuel ou social.

Si les observations relative au neutrino ou à sa vitesse montrent que la vitesse de la lumière, c'est-à-dire celle des photons dans le vide, peut être dépassée dans certains conditions, il faudra en tenir compte dans l'élaboration d'un modèle de l'univers plus pertinent. Cela ne voudra pas dire que ce nouveau modèle décrirait à son tour une réalité en soi qu'il faudrait accepter comme un nouvel acte de foi. Dans l'avenir il sera modifié.

Il en est de même en ce moment du calcul de l'attraction gravitationnelle. Diverses expériences récentes conduisent à postuler qu'elle puisse être différente dans certains cantons de l'univers ou pour certaines particules hypothétiques. On parle ainsi de MOND (gravité modifiée, proposée par Milgrom en 1983) et de Whimps (Weakly interacting massive particles ). Ceci ne signifie pas que sur Terre, dans les conditions courantes, la force de gravité pourrait être annulée, et Newton remisé au rayon des antiquités. Les pommes continueront à tomber.

Il faut rappeler ceci à tous ceux qui s'appuient sur l'expérience OPERA pour imaginer la possibilité de voyages dans le temps ou de déplacements à très grande vitesse aux confins de l'espace astronomique. Peut-être qu'un jour la science expérimentale (en dehors des modèles théoriques qui le font déjà), admettra de telles possibilités, peut-être que la technologie construira des machines permettant les réalisations correspondantes, mais l'une et l'autre en sont très loin pour le moment.

Mais à l'opposé de cette prudence, nous refusons pour notre part les arguments d'autorité, s'appuyant sur les constantes dites fondamentales, lorsqu'ils affirment par exemple que notre univers ne pourrait comporter d'autres formes de vie et de conscience que celles observées par les humains sur la Terre.

D'une part en effet on peut sans risque postuler que ces constantes seront elles-mêmes modifiées dans la suite de futures observations scientifiques. Leur cohérence actuelle s'en accommodera car on fera apparaître alors d'autres cohérences, de niveau supérieur.

D'autre part, on doit dès maintenant chercher à concilier l'approche de la physique quantique et de la physique traditionnelle. Les recherches actuelles n'y arrivent pas ou ne sont pas jugées concluantes C'est le cas concernant la théorie des cordes. Mais on pourrait très bien montrer à l'avenir, en remontant au supposé Big Bang lors duquel aurait émergé du vide quantique un univers matériel doté de façon aléatoire de constantes qui sont ce qu'elles sont, que d'autres univers matériels pourraient émerger d'évènements analogues en étant dotés de constantes différentes.

Il serait alors intéressant d'imaginer de tels univers et de tester, au moins virtuellement, leur capacité à générer des formes étranges de vie et de conscience.

Sources concernant l'expérience OPERA

* La meilleure source est le CERN lui-même, y compris ses communiqués de presse http://press.web.cern.ch/public/Welcome-fr.html
Nous y lisons au moment où nous écrivons cet article (23/09/2011) « L’expérience OPERA, qui observe un faisceau de neutrinos envoyé depuis le CERN à une distance de 730 km, au Laboratoire de l’INFN Gran Sasso, en Italie, présentera de nouveaux résultats à l’occasion d’un séminaire qui se déroulera au CERN aujourd'hui.
Le résultat d’OPERA se fonde sur l'observation de plus de 15 000 événements neutrino mesurés au Gran Sasso et semble indiquer que les neutrinos se déplacent à une vitesse 20 x 10-6 supérieure à celle de la lumière, la vitesse cosmique limite. Compte tenu de l’importance d’un tel résultat, des mesures indépendantes sont nécessaires avant qu’il puisse être infirmé ou confirmé. C’est pourquoi la collaboration OPERA a décidé de le soumettre à un examen critique public.

Ce sera donc un sujet dont nous devrons reparler.

* On peut lire, en anglais, le site du journal NewScientist, par exemple les bons articles de Lisa Grossman, ainsi que les commentaires qui les accompagnent: http://www.newscientist.com/article/dn20957-dimensionhop-may-allow-neutrinos-to-cheat-light-speed.html ainsi que http://www.newscientist.com/article/dn20961-fasterthanlight-neutrino-claim-bolstered.html

* Sur le neutrino, particule plus qu'élusive, le recours dans un premier temps à l'inévitable Wikipedia s'impose http://fr.wikipedia.org/wiki/Neutrino

* Rappelons enfin que les hypothèses relatives à la « relativité » de la vitesse de la lumière calculée par Einstein ont toujours été nombreuses. Nous citerons ce que vient d'en écrire un physicien franco- espagnol rejeté par beaucoup de ses pairs compte tenu de ses positions jugées « gauchistes », Luis Gonzalez Mestre, ce qui nous parait pour le moins léger:
" L'idée avancée dans mes travaux est la suivante : la matière que nous connaissons, et sous la forme où nos appareils la perçoivent actuellement, n'est pas forcément la forme ultime de la matière. La vitesse de la lumière pourrait très bien être, tout compte fait, la vitesse critique des excitations d'une phase de la matière, de la même façon que la vitesse du son est la vitesse critique des phonons (ondes du son) dans un solide. Dans ce cas, de même qu'un quantum de lumière peut traverser un solide transparent, des particules plus fondamentales et avec une vitesse critique très supérieure à celle de la lumière pourraient traverser notre univers. Un très faible mélange avec ce nouveau secteur de la matière suffirait pour modifier légèrement la vitesse critique d'un neutrino dans le vide."  

Repost 0
16 août 2011 2 16 /08 /août /2011 19:51


Jean-Paul Baquiast 17/08/2011


Le combat de la science contre le cancer n'a pas enregistré de véritables succès depuis une dizaine d'années. On a fait valoir l'effet nocif de certains environnements, on a pu grâce à la chimiothérapie (sans mentionner le chirurgie) ralentir ou éradiquer certains cancers, mais les causes de la transformation d'une cellule saine en cellule cancéreuse demeurent encore mystérieuses.

Or des recherches récentes, présentées lors du dernier Meeting annuel de l'American Association for Cancer Research à Orlando, avril 2011 1) font suspecter que l'on commence à découvrir ce que certains nomment un nouveau continent. Les chercheurs l'avaient jusqu'à présent sous les yeux mais ne le voyaient pas. Ils étaient trop fixés semble-t-il sur les analyses génétiques traditionnelles visant à expliquer les mutations enregistrées par le génome d'une cellule devenant cancéreuses.

Sur cette question stratégique de la découverte scientifique, Howard Bloom dans le manuscrit de son dernier livre, qu'il nous a communiqué, explique que pour inventer il faut regarder ce que l'on a sous les yeux comme si on l'avait jamais vu. On découvre alors ce que les autres, qui regardent la même chose, ne voient pas. Le conseil est bon, mais il ne suffit pas toujours à échapper au poids des théories admises.

Un article du New York Times 2)  nous semble résumer parfaitement ce qui sera probablement une révolution en cancérologie. Les généticiens pensaient avoir à peu près compris les modalités selon lesquels mutait le génome d'une cellule en voie de cancérisation. Ils espéraient qu'en approfondissant ce mécanisme, l'ensemble du processus pourrait être élucidé dans la décennie. Des progrès thérapeutiques importants auraient pu alors en découler3)  Or à Orlando, une équipe de chercheurs dirigée par le Dr Pier Paolo Pandolfi (chercheur italien travaillant aux Etats-Unis en qui certains voient un nouveau prix Nobel 4) vient d'annoncer avoir découvert ce qu'ils nomment la Pierre de Rosette d'un nouveau langage entre les gènes constituant l'ARN, jusqu'ici jamais étudié 5)

Ce pourrait être dans la lutte contre le cancer à la fois une bonne et un mauvaise nouvelle. Une bonne nouvelle car toute avancée théorique peut avoir des retombées médicales inattendues. Mais aussi une mauvaise nouvelle car le paysage biologique qui se découvre parait d'une énorme complexité, appelant à de nouvelles recherches approfondies et par conséquent à des moyens de laboratoire accrus.

Ce n'est pas seulement la question des causes du cancer qui serait concernée mais plus généralement celle des interactions qu'entretiennent au sein des organismes vivants supérieurs les très nombreuses populations de microbes cohabitant avec eux et contribuant à leur survie au sens le plus immédiat du terme, ce que l'on nomme désormais le microbiome. Ces microbes, dont les gènes interagissent en permanence avec ceux des cellules, selon des modalités que l'on approfondira peu à peu, sont engagés dans une compétition darwinienne qui bien évidemment n'a pas pour finalité la bonne santé de l'organisme hôte, mais le succès reproductif de leur propre souche.

Les microbes égoistes

L'on pourrait reprendre en ce qui les concerne la métaphore popularisée par Richard Dawkins, celle du « gène égoïste ». En l'espèce l'égoïsme des microbes vivant sur l'organisme ou au sein du milieu fréquenté par celui-ci complète l'égoïsme des gènes de celui-ci. On le savait déjà, les microbes ne nous veulent pas systématiquement du bien. Mais la métaphore prend une nouvelle actualité, car les recherches actuelles éclairent l'aspect génétique des interactions « égoïstes » entre microbes et cellules.

Le schéma jusque là admis était que le développement de cellules cancéreuses provenait de mutations aléatoires encourageant les gènes favorisant la croissance anarchique de la cellule au détriment de ceux pouvant la freiner. Aujourd'hui cependant il est apparu qu'il fallait prendre en considération l'activité de l'ADN dit poubelle ou non-codante, qui constitue l'essentiel de tous les génomes. Il s'agit de segment de nucléotides qui ne sont pas censés coder pour les protéines intervenant dans le développement de la cellule ou de l'organisme.

Or ces segments, dits aussi pseudo-gènes secrètent anarchiquement des morceaux d'ARN messager (L'ARN messager porte l'information de l'ADN aux ribosomes des cellules lors de la reproduction de celles-ci ) qui pourraient jouer un rôle dans les mutations produisant des cellules cancéreuses. Ils ont donc un effet codant lui-même apparemment anarchique.

Par ailleurs, l'équipe du Dr Pandolfi a montré que 98% des cellules intervenant dans la production des gènes codant au sein d'un organisme complexe appartiennent à des microbes se développant en symbiose avec celui-ci – ce qui est désormais nommé le microbiome. Or ces microbes développent eux-aussi des pseudo-gènes qui interfèrent avec ceux de la cellule. Il s'établit alors un « dialogue «  complexe entre l'ensemble des micro-ARN provenant des microbes internes à l'organisme, de ceux qui sont présents dans son environnement et des cellules de l'organisme lui-même.

Ils échangent ce que les chercheurs ont appelé des ceRNAs, ou “competing endogenous RNAs ». En se liant à un ARN messager cellulaire destiné à empêcher la croissance anarchique d'une cellule, ces CeRNAs peuvent par exemple bloquer le mécanisme protecteur.

Divers variétés d'agents non-codants de type CeRNA, dotés de noms exotiques, avaient été identifiés. Il faut maintenant rechercher leur rôle dans le dérèglement des mutations cellulaires. Ceci conduit à une approche plus globale de la tumeur. On en arrive à considérer que l'alliance entre les cellules cancéreuses d'une tumeur et les microbes se traduit par le développement, au sein de l'organisme atteint par le cancer, d'un véritable nouvel organisme parasite doté de ses lois propres de développement. Il comporte ainsi des cellules saines qui semblent coopérer avec les cellules cancéreuses pour faciliter leur croissance et la formation de métastases.

On voit que les recherches sur les causes et modalités de vie des tumeurs auront désormais beaucoup plus de points à élucider qu'initialement prévu. Elles devront s'accompagner de recherches sur les microbiomes et leurs relations en termes génétiques avec les pathologies cancéreuses ou autres, dont le nombre apparaît désormais très grand. Il n'est pas du tout certain dans ces conditions que l'ensemble des mécanismes de la cancérisation puissent, comme espéré précédemment, être mis à jour dans les prochaines années.

Par contre, beaucoup de lumières devraient être apportées sur la biologie des microbes en relation avec les organismes multicellulaires. Il s'agissait jusqu'ici, pour reprendre le terme de Howard Bloom, d'éléments que les chercheurs avaient jusqu'ici sous le nez mais qu'ils ne voyaient pas – ou qu'ils ne voyaient guère. Maintenant ils devraient les voir.

 

Bibliographie
1) Meeting à Orlando de l'American Association for Cancer Research, Avril 2011 http://www.aacr.org/home/public--media/aacr-in-the-news.aspx?d=2381
2) Article de George Johnson Cancer’s Secrets Come Into Sharper Focus
http://www.nytimes.com/2011/08/16/health/16cancer.html?_r=1
3)
The Hallmarks of Cancer
Douglas Hanahan and Robert A. Weinberg http://www.sciencedirect.com/science/article/pii/S0092867400816839
suivi de Hallmarks of Cancer: The Next Generation http://www.cell.com/abstract/S0092-8674%2811%2900127-9
4) Pier Paolo Pandolfi http://www.hms.harvard.edu/dms/bbs/fac/pandolfi.php
5) Leonardo Salmena, Laura Poliseno, Yvonne Tay, Lev Kats, Pier Paolo Pandolfi A ceRNA Hypothesis: The Rosetta Stone of a Hidden RNA Language?
http://www.cell.com/abstract/S0092-8674%2811%2900812-9#MainText

Repost 0
7 août 2011 7 07 /08 /août /2011 21:02

Nous proposons d'utiliser le concept de l'anthropotechnique pour tenter de mieux comprendre l'ensemble des phénomènes généralement associés à ce que l'on nomme la mondialisation.. Il devrait être de même de la démondialisation, présentée depuis quelques mois comme un remède aux effets négatifs de la première.



Jean-Paul Baquiast- 07/08/2011


Indiquons à ceux n'ayant pas lu notre livre « Le paradoxe du Sapiens » (*) que nous y proposons un outil d'analyse du monde politico-économique visant à faire le plus possible appel à la méthode scientifique. Nous y postulons que l'évolution des civilisations humaines, depuis les origines, a résulté des compétitions darwiniennes pour l'accès aux ressources confrontant des superorganismes que nous qualifions d'anthropotechniques ou mieux, de bio-anthropotechniques. Ce terme générique désigne des entités composées d'une imbrication étroite entre des facteurs biologiques (par exemple les génomes), des facteurs anthropologiques (les acquis culturels) et des facteurs technologiques.

Ces entités sont de nature très différente. Leur influence sur l'évolution globale n'est pas identique. Elles peuvent donc être analysées en termes différents, selon les échantillons de temps, de lieux et de domaines retenus. Cependant nous estimons que l'approche anthropotechnique devrait être féconde pour mieux comprendre le monde actuel dans sa totalité, c'est-à-dire pour en donner une vision globale. Cela ne signifierait pas qu'elle permettrait d'analyser le monde en détail, de prédire son évolution et moins encore de proposer des remèdes à certains risques pouvant naitre de la confrontation en son sein entre systèmes anthropotechniques. Plus généralement, rappelons que le concept de système anthropotechnique est pour nous un postulat. Dans le cadre d'une démarche se voulant scientifique, il doit être mis à l'épreuve des observations expérimentales afin de préciser les enseignements qui pourraient être tirés de son utilisation.

L'une de ces mises à l'épreuve consisterait aujourd'hui à utiliser le concept de l'anthropotechnique pour tenter de mieux comprendre l'ensemble des phénomènes généralement associés à ce que l'on nomme la mondialisation.. Il devrait être de même de la démondialisation, présentée depuis quelques mois comme un remède aux effets négatifs de la première.

Frédéric Lordon

Un article de l'économiste Frédéric Lordon dans le Monde Diplomatique d'août 2011, intitulé « La démondialisation et ses ennemis », s'attache à démontrer les illusions et les mensonges délibérés recelés par le concept de mondialisation. Ce n'est pas pour autant, selon lui, que les perspectives actuelles dites de démondialisation pourraient remédier aux abus du capitalisme libéral sans frontières imposés par ceux présentant la mondialisation comme une évolution nécessaire. Frédéric Lordon est un auteur que nous apprécions beaucoup, car il s'oppose avec bonheur au langage convenu imposé par les pouvoirs à ses homologues. Cependant, nous pensons que faute d'un outil d'analyse suffisant, il ne réussit pas à préciser ce que pourraient être des politiques s'opposant à la mondialisation, dite aussi de démondialisation, qui répondraient à la légitime volonté des peuples de s'affranchir de la domination imposée sous couvert de mondialisation à l'ensemble de la planète par des intérêts eux-mêmes mondialisés.

Dans l'article précité, Frédéric Lordon décrit avec pertinence les grands phénomènes résultant de la capitulation devant les impératifs supposés de la mondialisation : - concurrence « non faussée » entre économies à standards salariaux inégaux (Minima s'échelonnant de 100 dollars par mois au Sud à 1500 ou 2000 au Nord, pour ceux disposant d'un emploi) – exigence de rentabilité financière imposant la compression permanente des revenus salariaux – menace permanente de délocalisation - endettement institutionnalisé des consommateurs afin de leur permettre de continuer à consommer malgré la diminution des revenus salariaux – prise en charge des coûts de ces politiques par les budgets publics c'est-à-dire finalement par les citoyens – désarmement des Etats face aux intérêts financiers par des politiques dite de rigueur portant sur les administrations, les services publics et les investissements collectifs de long terme.

Nous avons nous-mêmes ici décrit plusieurs fois ces phénomènes, à l'instar de tous ceux qui comme nous dénoncent le néo-libéralisme financier et la prise en mains du monde par des oligarchies en connivence mondiale. Mais il ne suffit pas de dire « Plus jamais cela » comme le fait Frédéric Lordon à la fin de son article, pour voir émerger miraculeusement les solutions permettant d'échapper aux véritables dictatures ainsi dénoncées. Il faut analyser plus en profondeur ces différentes dictatures, à la lumière de l'outil anthropotechnique proposé ici.

Les systèmes anthropotechniques s'insèrent dans l'antagonisme mondialisation/démondialisation à trois niveaux différents

Nous avons dit que les systèmes anthropotechniques, notamment les entreprises, les administrations, les Etats, sont le produit de la symbiose de trois niveaux de déterminismes différents. Les facteurs actifs au sein de ces niveaux vivent la mondialisation-démondialisation de façon différente.

Au plan des composantes scientifico-techniques de ces systèmes s'impose globalement une exigence d'interconnexion et d'intercommunication qui constitue un élément déterminant de ce que l'on peut appeler la globalisation technologique du monde et des cerveaux (global mind). Certes, des compétitions internes entre diverses composantes peuvent générer des conflits retardateurs de la technologisation globale, mais dans l'ensemble se met en place un tissu de relations et d'échanges qui constitue le facteur le plus puissant de la mondialisation. La science, autrement dit les moyens d'action sur le monde résultant du processus collectif d'acquisition sur le mode expérimental des connaissances et des savoirs-faire, est à la fois le produit et l'outil de l'explosion contemporaine des technologies.

Toutes différentes sont les composantes biologiques des systèmes anthropotechniques. Pour simplifier, nous dirons qu'elles expriment au sein de ces systèmes deux tendances fortes. L'une pousse à une croissance démographique que seule peut faire plafonner la diminution des ressources, l'autre, quasiment inverse, incite à l'appropriation des territoires et à la constitution de niches aussi exclusives que possible. L'hyper-natalité, encore très présente dans de nombreuses sociétés du tiers-monde, est le facteur déterminant d'une certaine forme de mondialisation, celle qui repose sur la recherche de nouveaux territoires d'expansion par des populations en manque d'espace et de nourriture. Il s'agit de processus biologiques tout à fait banaux, qui de ce fait n'obéissent pas à des considérations se voulant rationnelles. A l'inverse, la constitution d'empires territoriaux par des minorités dominantes, en guerre les unes avec les autres, ne serait pas au contraire favorable à la mondialisation. Il s'agirait au contraire de facteurs qui pourraient activer des tendances à la démondialisation et au nationalisme, au nom de la souveraineté de ces empires chacun dans son territoire propre.

Les composantes anthropologiques des systèmes anthropotechniques se rattachent nous l'avons dit à ce que l'on pourra globalement nommer la sphère culturelle. Elles trouvent leurs racines très en amont, non seulement dans l'histoire biologique des sociétés, évoquée ci-dessus, mais dans celles des stratifications entre dominants et dominés, possédants et exploités, éventuellement hommes et femmes, que l'on retrouve tout au long des évènements ayant marqué l'histoire géopolitique des deux derniers siècles. Ces stratifications ont des composantes animales (biologiques) encore très présentes dans les sociétés humaines. Mais elles sont aussi renforcées par la détention, très inégale selon les régions géographiques et les classes sociales, des ressources économiques, industrielles et universitaires.

La stratification des sociétés humaines, au plan interne comme au plan international, entre possédants et non-possédants, oligarchies et populations dominés, n'a pas une influence directe sur les tendances à la mondialisation. Les dominants seront, dans certains cas, favorables à la mondialisation quand celle-ci signifiera une disparition à leur profit des barrières traditionnelles, de type territoriale ou administratif, opposées par les sociétés défendant leur territoire. Dans d'autres cas, ils prôneront au contraire la démondialisation, c'est-à-dire le retour à des barrières, quand il s'agira de protéger leurs propres conquêtes. La démondialisation (assurée éventuellement par le recours aux moyens militaires) leur permettra notamment de résister à la pression géopolitique de sociétés aux effectifs plus nombreux et plus pauvres. Elle permettra également de refuser l'invasion de populations à la natalité envahissante chassées de chez elles par des facteurs plus généraux comme le réchauffement climatique.

Ici, en évoquant le réchauffement climatique, nous faisons allusion au fait que l'analyse anthropotechnique que nous proposons doit être nuancée soit localement soit dans la durée, par la prise en compte d'évolution beaucoup plus générales intéressant la planète toute entière. D'une part les écosystèmes subissent aujourd'hui l'influence globale des sociétés anthropotechniques. Ceci se traduit par une disparition rapide de milieux naturels et d'espèces. On a parlé d'anthropocène pour désigner les aspects millénaires de cette évolution. Nous avons pour notre part suggéré le terme d'anthropotechnocène permettant de tenir compte de l'explosion très récente, datant de moins de deux siècles, de sociétés aux technologies de plus en plus puissantes et spontanément proliférantes.

S'ajoutent à cela des évolutions de fond que la science peine encore à identifier, pouvant se traduire par une restriction ou des modifications profondes au niveau des ressources disponibles : modifications spontanées du climat, pandémies d'origine encore inconnue, éruptions, tremblements de terre, voire chutes d'astéroïdes. L'influence de ces éventualités sur la mondialisation ou la démondialisation, c'est-à-dire le repli des collectivités sur elles-mêmes, est difficile à anticiper. Mais il faut se tenir prêt à en tenir compte.

Contribution de l'analyse anthropotechnique à l'étude de la mondialisation/démondialisation

Nous avons dit que toute hypothèse à prétention scientifique doit être testée au regard de l'expérience. Dans le présent cas, cela signifierait vérifier que les grands courants par lesquels se manifeste la mondialisation/démondialisation sont mieux compris en faisant appel au postulat selon lequel l'évolution globale du monde résulterait des compétitions de type darwiniens entre entités anthropotechniques qu'en faisant appel à des concepts plus traditionnels.

Nous pensons que c'est le cas. Prenons un exemple simple, pour ne pas entrer dans des analyses de détail dépassant le cadre de cet article. Considérer comme beaucoup le font qu'une mondialisation prenant la forme de la destruction des spécificités nationales et locales résulte de l'effet déstructurant de la généralisation des technologies de la communication ne met l'accent que sur un aspect du phénomène. Avec les mêmes réseaux pourraient s'organiser des échanges équilibrés entre les différentes parties du monde. Pour que se généralise cette abomination que Frédéric Lordon appelle à juste titre « une concurrence « non faussée » entre économies à standards salariaux inégaux », il faut que des agents prédateurs profitent des réseaux et des technologies pour imposer leur domination au reste du monde. Or les entreprises industrielles et financières qui le font manifestent toutes les caractéristiques des minorités dominantes dont l'anthropologie et la biologie ont depuis longtemps étudié le fonctionnement dans les sociétés humaines traditionnelles et dans les sociétés animales. On comprendra mieux leur action en les considérant comme anthropotechniques, autrement dit bien plus complexes que de simples analyses économiques et politiques pourraient le montrer.

Dans notre essai « Le paradoxe du Sapiens », nous avons, pensons-nous avec succès, utilisé cette approche pour analyser l'action du Pentagone ou ministère de la défense américain, c'est-à-dire la matérialisation relativement facile à étudier d'un complexe politico-militaro-industriel qui conjugue les trois composantes biologique, anthropologique et technologique d'un grand système de pouvoir interagissant avec divers concurrents dans le cadre de l'évolution du monde global. Au regard de la mondialisation, on pourrait aisément montrer le rôle qu'a joué ce système anthropotechnique particulier pour imposer au reste du monde la suppression des barrières politiques s'opposant à son influence. C'est ainsi, exemple parmi cent autres semblables, qu'il a contraint pendant des décennies les gouvernements sous tutelle à faire l'acquisition de matériels de guerre américains, dépossédant les Etats correspondants de leurs compétences industrielles.

Aujourd'hui, certains observateurs pensent que le système anthropotechnique du Pentagone est sur la défensive, du fait de l'apparition de systèmes concurrents dans le vaste théâtre de la mondialisation. Nous pensons pour notre part qu'il n'en est rien (voir notre article « Nouveaux pouvoirs pour les maîtres de l'Empire. Apparition d'un national-technologisme américain » http://www.admiroutes.asso.fr/larevue/2011/120/nationaltechnologisme.htm). Le système change seulement de forme. Tout en développant plus que jamais sa compétence technologique, dans le sens d'une véritable explosion des applications en réseaux intelligents pour le contrôle des citoyens et des adversaires, le système renforce ses racines bio-anthropologiques. Celles-ci poussent à la constitution d'espaces fermés protégés soumis à un gouvernement de type dictatorial.

Autrement dit le système tend à devenir ce que l'on pourrait qualifier de techno-dictature ou, en termes plus doux, d'un système technologique de contrôle global s'organisant autour de motivations nationales sinon nationaliste. Le complexe politico-technique en résultant, que nous proposons de nommer un national-technologisme, viendra de fait en contradiction avec tout idéal de mondialisation heureuse. Il jouera au contraire la carte de la démondialisation. Il serait rejoint en cela par des systèmes moins avancés dans cette voie mais décidés à ne pas se laisser distancer, tel que le national-technologisme chinois.

Ce sera sans doute la compétition entre de telles entités, dans un espace mondial de plus en plus segmenté, autrement dit démondialisé, qui écrira l'histoire géopolitique du 21e siècle.


* Jean-Paul Baquiast. Le paradoxe du Sapiens. Ed. JP. Bayol, mars 2010


Repost 0
27 juin 2011 1 27 /06 /juin /2011 20:15


Jean-Paul Baquiast 27/06/2011

 

Les scientifiques savent depuis longtemps qu'il existe, au moins dans le cerveau de l'homme moderne culturé, une continuité entre la pensée non verbalisée, la pensée verbalisée mais restant cantonnée au niveau du cerveau, le langage parlé ou l'écriture permettant de communiquer cette pensée. Les études faites sur des personnes atteintes d'accidents vasculaires, relayées ensuite par les techniques de plus en plus efficaces de l'imagerie cérébrale, ont permis d'identifier très grossièrement les aires responsables de la mise en oeuvre de ces différentes phases contribuant à l'expression langagière finale.

Observons d'emblée que la partie amont du processus, impliquant le cerveau associatif en relation avec les organes d'entrée et les organes moteurs, reste encore pratiquement inobservable. Nous voulons dire par là que la façon dont le cerveau génère ce que l'on pourrait appeler des pré-pensées, reste mystérieuse. Ceci résulte en partie sans doute du grand nombre des aires cérébrales et groupes de neurones, répartis dans l'ensemble du cerveau, intervenant pour construire les réactions du sujet en interaction avec son environnement.

De même les processus de sélection permettant à tous moments que telle "pré-pensée" l'emporte sur les autres et parvienne le cas échéant au niveau dit conscient, demeurent trop nombreux et mal connus pour pouvoir sauf exceptions être identifiés par des outils externes d'observation au moment où ils se produisent. Tout au plus peut-on constater l'émergence de ces pré-pensées en constatant les actions qui en résultent. Elles peuvent en effet déclencher ou accompagner des comportements de grande ampleur. Si, ce qu'à Dieu ne plaise, je vois un lion assis sur mon lit en ouvrant la porte de ma chambre, mon premier geste, avant même de penser explicitement « c'est un lion, danger » sera de fermer la porte et de prendre mes jambes à mon cou.

Ce "réflexe" de fuite fait partie de l'ensemble des répertoires comportementaux acquis par les espèces vivantes au cours de l'évolution, liant certains messages sensoriels à certaines actions sous commande épigénétique que l'espèce ou que le sujet aura mémorisées comme utiles pour la survie. Le langage courant parle d'ailleurs d'actions inconscientes, voulant dire par là qu'elles sont effectuées avant même d'avoir été le cas échéant traduite par une pensée fut-elle inconsciente. Il se produit un lien que nous pourrions dire direct entre les aires sensorielles responsables de la construction des objets perçus par les sens, les associations pouvant être générées par ces objets (sans même qu'ils aient été nommés par le langage) et les aires des cortex moteurs responsables de l'action musculaire (non verbalisé) découlant de ces associations. Il nous semble, peut-être à tort, que les neurosciences n'ont pas encore mis en lumière les processus sans doute très divers permettant à l'ensemble du lien perception-action en retour de s'établir, en amont de toute pensée verbalisable.

Mais revenons à la verbalisation. Dans le cas de la rencontre avec le lion évoquée ci-dessus, les différentes aires cérébrales conduisant à une action réfléchie, traduisible en symboles et communicable, ont été, nous l'avons indiqué en introduction, identifiées ne fut-ce que grossièrement par les neuro-psychologues. Il s'agit de l'aire de Wernicke qui produit des contenus sémantiques, autrement dit des significations, avant que celles-ci ne soient traduites verbalement. A supposer que j'ai appris précédemment ce qu'est un lion, le danger qu'il peut représenter et la façon de me confronter à lui, l'aire de Wernicke me permettra de traduire la perception que j'en ai sous la forme d'un premier message dont le contenu significatif  implicite « je vois un lion, danger » sera suffisamment fort pour que la verbalisation s'ensuive.

Interviendra ensuite l'aire dite de Broca responsable de la traduction du contenu signifié en mots, autrement dit permettant au message sémantique de prendre une forme linguistique la mieux adaptée possible. Je penserai explicitement: "voici un lion, danger". L'aire de Broca, jouant le rôle d'un générateur de langage, assemblera en fonction des besoins les consonnes et les voyelles indispensables à la production des mots, compte tenu de la langue pratiquée par le locuteur.

Il semble dans ce cas que l'aire de Broca se comporte en véritable dictionnaires des symboles linguistiques, voyelles, consonnes et autres onomatopées et gestes dont le sujet aura appris l'usage dès l'enfance. Mémorisera-t-elle aussi les milliers de mots, tels que le mot "lion" associés à la combinaison de ces symboles (l+i+on). Nous ne pouvons répondre à cette question pour ce qui nous concerne. On peut penser cependant que l'aire de Broca, si elle ne fait pas elle même tout le travail d'archivage et de recherche en mémoire, servira au moins de plaque tournante aiguillant la recherche de la zone ayant mémorisé tel ou tel des concepts acquis par le sujet.

Quoi qu'il en soit, la coopération entre Wernicke et Broca, ainsi éventuellement qu'avec d'autres parties du cerveau, aboutit à la génération d'éléments de discours langagier: "Attention, chers amis, il y a un lion enfermé dans ma chambre". Certains auteurs estiment que cette mise en forme linguistique, avant même que je ne la communique par la parole à d'autres personnes, est indispensable pour que mon cerveau s'engage dans des chaînes de pensées cohérentes. Il s'agit de ce que l'on appelle généralement la voix intérieure ou "inner voice". Selon eux, les pensées un tant soit peu complexes nécessitent d'être traduites en langage intérieur (à travers en principe l'aire de Broca) pour prendre forme.

D'autres jugent que cela n'est pas nécessaire. Au contraire ce processus de pré-verbalisation pourrait être nuisible. Le langage impose des contraintes indispensables à la communication sociale mais qui peuvent stériliser les pensées faisant une large part à l'imagination et aux associations sensorielles, ainsi qu'à la réactivité en temps réel. Penser en langage intérieur, avant de parler ou d'écrire en langage "extérieur", autrement dit communicable aux autres, pourrait alors caractériser une personne dont l'esprit manquerait de vivacité.

L'auteur de cet article, pour sa part, croit pouvoir observer qu'avant de formuler une phrase destinée à un interlocuteur, il ne fait généralement pas appel à une première phrase formulée en langage intérieur, pouvant lui servir de prototype. Il découvre et adapte sa phrase au fur et à mesure qu'il la formule verbalement. Il n'en est pas de même d'ailleurs dans l'expression écrite, qui demande sans doute plus de mise au point avant d'être traduite sur le clavier de l'ordinateur.

Concernant la génération du langage parlé, nous pouvons rappeler une observation que font sans doute beaucoup de sujet. En sortant d'un rêve, ils peuvent se retrouver l'esprit occupé par une phrase produite par leur cerveau pendant le sommeil. Il s'agit même parfois d'une phrase exprimée dans une langue étrangère, tel que pratiquée par le sujet. Le vocabulaire et la syntaxe en sont généralement corrects. Malheureusement, quelle qu'en soit la langue, de telles phrases apparaissent vides de sens utilisable (sauf peut-être par un psychologue). Il s'agit rarement de la solution à un problème important que se posait le sujet avant de s'endormir. N'est pas Poincaré qui veut.

Quoi qu'il en soit, si le sujet veut communiquer le contenu de sa pensée, que ce soit par le langage parlé ou par le langage écrit, son cerveau reprend les contenus sémantiques et les contenus de langage élaborés dans les deux aires précitées, afin de les transformer en ordres destinés aux cortex moteurs. Il s'agit du cortex moteur facial commandant les gestes de la parole ou des cortex moteurs musculo-squelettiques commandant les gestes de l'écriture, manuelle ou via un terminal d'ordinateur.

Lire les pensées

L'ensemble de ces processus était connu depuis déjà un certain temps. Pourquoi la question retrouve-t-elle aujourd'hui une grande actualité, comme le montre un article récent de Duncan Graham Rove dans le NewScientist? (voir Mind Readers http://www.newscientist.com/article/mg21028141.600-mind-readers-eavesdropping-on-your-inner-voice.html ) ? Parce que des techniques en amélioration constante permettent aujourd'hui d'identifier dans le cerveau, de plus en plus en amont, les ondes cérébrales correspondant à la génération sinon des pensées, du moins d'un certain nombre de phonèmes ou de mots correspondant à la construction de ces pensées.

Le thème est porteur d'espoir, notamment pour les personnes paralysées motrices ou atteintes de destruction des aires du langage, pouvant aboutir au " locked-in syndrome" dans lequel un sujet peut penser mais ne peut communiquer sa pensée. Mais ces travaux ont l'intérêt plus général de renouveler les recherches sur la génération du langage par le cerveau, dont nous venons de rappeler quelques éléments. Elles peuvent à juste titre susciter aussi des inquiétudes. A supposer que les méthodes se perfectionnent, n'ira-on pas mener des investigations dans les cerveaux à l'insu ou contre la volonté des sujets ? Il faut s'en préoccuper.

Depuis déjà quelques années, on savait, chez des primates comme chez certains patients, capter des intentions motrices pour diriger un curseur d'ordinateur. Mais cette technique exige des implantations d'électrode dans le cortex moteur. De plus les résultats obtenus sont lents et très grossiers. Les électrodes captent des ordres simples, vers la gauche ou la droite, vers le haut ou le bas. Le sujet, d'après Duncan Graham Rove, ne commande pas directement le curseur. Il se borne à commander mentalement à son corps tel ou tel mouvement simple que ce dernier ne peut accomplir étant paralysé, déplacer par exemple sa main à gauche ou à droite. Aussi simple pourtant que soit le mouvement, il a fallu identifier, chez le singe comme chez l'humain, les signaux produits par le cerveau pour commander ce mouvement, et leur associer des ordres compréhensibles par l'ordinateur.

Ces premières expériences datent du milieu des années 1990. Nous en avons rendu compte ici. Vers 2002, une technique permettant de saisir les impulsions nerveuses plus en amont a été mise au point. Il s'agit de capter les signaux nés à la sortie des aires responsables du langage, avant qu'ils n'atteignent les cortex moteurs. Si je pense "lion" et si des capteurs transmettent les informations correspondantes à un ordinateur, on verra directement ce concept apparaître à l'écran ou commander un synthétiseur de langage.

La technique permettant cette performance est dite "ECoG"ou "electrocorticographie". Mais à nouveau elle requiert l'implantation d'électrodes non pas il est vrai dans les aires très sensibles de la génération du langage, mais seulement sous la voûte crânienne. Elle impose cependant d'ouvrir celle-ci et n'a donc jusqu'ici été pratiquée que chez des patients épileptiques volontaires. Quant aux animaux, il ne semble pas que des recherches correspondantes aient encore été menées, sans doute parce que, dans un premier temps, il aurait fallu identifier un minimum d'éléments sémantiques ou producteurs de sons spécifiques de leurs échanges langagiers.

Concernant les humains, Bradley Greger(1), assistant professeur à l'Université d'Utah, a réussi à identifier les signaux électriques correspondant à la production de certains contenus sémantiques liés à la production de mots du langage courant (oui, non, bonjour...). Il a placé pour cela des électrodes au dessus à la fois de l'aire de Wernicke et du cortex moteur facial. Il a donc pu remonter de ce fait en amont du cortex moteur, vers le cerveau langagier proprement dit. Mais la démarche oblige à construire le dictionnaire correspondant aux concepts utilisés par chaque sujet, ce qui deviendrait vite une tâche impossible

De nouveaux développements se proposent d'explorer, en aval de l'aire de Wernicke mais toujours en amont du cortex moteur facial, l'activité de l'aire de Broca. En ce cas, il faudra identifier et construire le dictionnaire des signaux correspondants aux quelques 40 phonèmes utilisés par le langage courant(2). Traduire les messages correspondants en informations utilisables par un ordinateur capable de synthèse vocale, résoudrait une partie de la difficulté.

Des recherches en EcoG ont été à cette fin conduites par le Dr. Eric Leuthard de l'Ecole universitaire de médecine de St Louis. Il a détecté chez 4 sujets les signaux correspondants à la production d'un certain nombre de phonèmes dans les aires du langage (aires de Wernicke et de Broca). Ces signaux étaient identiques à ceux détectés dans le cortex moteur, que les sujets se bornent à prononcer ces phonèmes dans le cadre d'un langage intérieur précurseur de l'expression verbale ou qu'ils les prononcent à haute voix. Par contre, si les sujets se bornaient à imaginer ces phonèmes sans l'intention de les introduire dans le langage parlé, les signaux n'étaient pas les mêmes(3).

Ces observations redonnent du poids à l'importance attribuée au langage intérieur dans la fonction de production du langage. Les pensées par lequel le cerveau traduit son interaction avec son environnement s'expriment d'abord par ce langage intérieur, avant de faire appel au langage parlé. Pouvoir capter les signaux correspondants et les faire s'exprimer à travers une commande d'ordinateur permettra donc, sinon de lire à proprement parler des pensées complexes, du moins de suppléer à certaines déficiences des cortex moteurs, ceux qui produisent la parole mais aussi sans doute ceux qui produisent d'autres formes de langages symboliques, notamment des mimiques ou gestes(4).

Les recherches susceptibles d'être greffées sur ces premiers résultats sont très nombreuses. Il faudra d'abord essayer de capter les signaux émis par le cerveau en développant des techniques moins invasives que ne le sont les greffes intra-crâniennes. On pourra aussi rechercher si les signaux produits en conséquence d'informations sensorielles identiques (apercevoir un lion sur son lit) diffèrent ou non selon les cultures et les capacités linguistiques des sujets. Enfin, comme nous l'avons indiqué, il sera utile d'étudier, au delà d'expériences sur les singes, la façon dont les cerveaux de diverses espèces animales dotées de langages symboliques produisent et traitent les signaux précurseurs de l'expression langagière. Peut-être sera-t-il alors possible, là aussi, de « lire » le contenu de leurs esprits ou de communiquer avec eux par une forme de télépathie.

Pour en savoir plus
(1). Bradley Greger http://www.bioen.utah.edu/directory/profile.php?userID=292
(2). Cerebral cortex, vol 19, p. 2156
(3). Journal of Neural Engineering, vol 7, p 056007
(4) Voir The computer that can read minds has been created http://www.gev.com/2011/04/the-computer-that-can-read-minds-has-been-created/

Repost 0
19 juin 2011 7 19 /06 /juin /2011 18:31


par Jean-Paul Baquiast et Christophe Jacquemin - 19/06/2011

Vue des réacteurs 2 et 3 de Fukushima, après leur explosion le 16 mars 2011

Il y a quelques jours, des images virtuelles d'un éventuel sarcophage que Tepco pourrait installer au dessus des réacteurs en perdition de Fukushima circulaient sur les télévisions. Mais assez curieusement, il s'agissait apparemment de structures assez fragiles, quasiment en matière plastique, très éloignées des milliers de tonnes d'acier et de ciment envisagés pour remplacer l'actuel sarcophage en place à Tchernobyl. On ne voit pas comment de telles structures pourraient contenir une explosion majeure sur le site de Fukushima. Tout au plus pourraient-elles empêcher la diffusion de gaz radioactifs sous basse pression. De toutes façons, Tepco annonce que la mise en place de ces protections ne sera pas possible avant longtemps, compte tenu du niveau de contamination actuel du site.

 

En fait, les priorités devraient être toutes autres. Il devrait être indispensable d'empêcher dans les jours, semaines ou mois qui viennent la contamination d'une partie du Japon par les cœurs en fusion des réacteurs touchés par le tsunami. Or, très mauvaise nouvelle, pour le moment et compte tenu des technologies aujourd'hui disponibles, cet objectif paraît hors de portée alors que le processus cataclysmique ne cesse de prendre de l'ampleur. Une toute aussi mauvaise nouvelle est que, désormais, le monde entier fait silence sur le désastre mondial qui se prépare. Les conspirationnistes ne devraient pas être les seuls à s'interroger sur les raisons de ce silence.

 

Si l'on en croit l'industriel Tepco, le gouvernement japonais qui l'a toujours soutenu y compris dans ses décisions les plus hasardeuses et les industriels américains du nucléaire qui ont depuis les origines partie liée avec le Japon pour la gestion de son parc nucléaire, la situation à Fukushima serait potentiellement pire qu'elle ne le fut à Tchernobyl. Selon ces sources cependant, il n'y aurait pas de danger immédiat, tant du moins que l'on continuera à pomper de l'eau et qu'un nouveau fort tremblement de terre ne se produira pas. Pas de danger immédiat sans doute, mais pas de solutions fiables avant quelques années au mieux. En attendant, selon ces sources, il n'y aurait pas de raisons de s'inquiéter. Curieuse préconisation.

Pour d'autres experts au contraire, la situation n'a jamais cessé depuis le début de s'aggraver. Aujourd'hui il y aurait de forte probabilités (certains disent 50/50) pour que le pire se produise. Un article récent de Aljazeera.net cité ci-dessous vient de faire un bilan assez terrifiant de la situation. On pourrait suspecter la neutralité de Aljazeera mais la chaîne se borne à reprendre les diagnostics de deux experts confirmés du nucléaire, l'américain Arnorld Gundersen (photo) et le japonais Shoji Sawada. L'un et l'autre, à première vue semblent parfaitement objectifs et bien informés. Certes ils sont tous les deux devenus des whistle-blowers alertant sur les dangers du nucléaire. Le site Fairewinds auquel participe Arnorld Gundersen est un leurs représentants les plus influents aux Etats-Unis. Mais cela ne devrait pas être une raison pour disqualifier leurs analyses.

 

Pour Arnold Gundersen, notamment, la fusion des réacteurs touchés constitue désormais un processus sans doute impossible à empêcher, compte tenu encore une fois des connaissances scientifiques et technologiques du moment. Le refroidissement par eau ne pourra que le retarder de quelques temps, tout en noyant la région et la mer environnante sous des milliers de tonnes d'eau fortement contaminées. Une fois les nappes phréatiques ou les couches terrestres profondes atteintes, ce ne serait pas seulement une large périphérie autour de Fukushima qui deviendrait inhabitable, mais sans doute la ville de Tokyo elle-même. Dans l'hypothèse la plus grave, celui de l'explosion des centaines de tonnes de combustibles nucléaires présents sur le site, le Japon tout entier puis très vite des zones étendues de l'hémisphère nord pourraient être interdits à la vie humaine.

D'ores et déjà, deux experts de santé publique américains estiment avoir observé une augmentation anormale de la morbidité des nouveaux nés dans une dizaine de villes de la cote ouest des Etats-Unis situés approximativement sous le vent de Fukushima (voir ci dessous le rapport Sherman-Mangano). On s'étonne que, devant une observation aussi troublante, des inquiétudes beaucoup plus nombreuses ne se soient pas encore manifestées, notamment aux Etats-Unis, si soucieux en général de la santé publique.


La situation paraît en voie de devenir si grave que le silence des autorités nationales et internationales est véritablement inexplicable. Même si peu de remèdes ne paraissent pour le moment disponibles, il conviendrait néanmoins que les scientifiques du monde entier y réfléchissent et travaillent à la mise au point de solutions. L'inaction actuelle donne beaucoup d'arguments à ceux dénonçant une conspiration du silence de la part des gouvernements et des industriels impliqués, non seulement au Japon mais aux Etats-Unis. La complicité objective entre Barack Obama et l'Exelon Corporation, le plus gros fournisseur d'énergie nucléaire et un des plus importants contributeurs de sa campagne, est dénoncée.

 

Rien cependant n'y fait. L'attitude généralement affichée par l'ensemble des décideurs et des médias est particulièrement à courte vue, mais elle n'indigne encore personne. Le message général s'apparente au suivant: "le magma monte dans la cheminée du volcan. Une explosion destructrice se produira bientôt. Mais qu'importe, dormez tranquilles au bord du cratère...pour le moment".

 

Précisons à l'attention de ceux qui militent pour l'abandon de l'énergie nucléaire que ce dernier objectif de l'abandon, à supposé qu'il soit décidé, ne pourra pas être mis en oeuvre avant 25 ou 30 ans. Au Japon le monde se trouve confronté à une échéance beaucoup plus immédiate et à des risques beaucoup plus graves: un Tchernobyl de magnitude 10 pouvant se produire dans quelques mois. La réaction de prévention devrait être toute différente.

 

Sources
* Article d'Aljazeera : http://english.aljazeera.net/indepth/features/2011/06/201161664828302638.html
* Fairewinds : http://www.fairewinds.com/home
* Arnold Gundersen : http://en.wikipedia.org/wiki/Arnold_Gundersen
* Paul Jorion : http://www.pauljorion.com/blog/?p=24334
* Rapport Sherman Mangano : http://www.counterpunch.org/sherman06102011.html
" The recent CDC Morbidity and Mortality Weekly Report indicates that eight cities in the northwest U.S. (Boise ID, Seattle WA, Portland OR, plus the northern California cities of Santa Cruz, Sacramento, San Francisco, San Jose, and Berkeley) reported the following data on deaths among those younger than one year of age:
4 weeks ending March 19, 2011 - 37 deaths (avg. 9.25 per week)
10 weeks ending May 28, 2011 - 125 deaths (avg.12.50 per week)

* Exelon Corporation : http://www.exeloncorp.com/Pages/home.aspx

Repost 0
18 juin 2011 6 18 /06 /juin /2011 11:16


par Jean-Paul Baquiast- 17/06/2011

Lascaux

Appelons hominidés, pour ne pas parler prématurément d'humains, les différentes lignées de primates bipèdes qui se sont développées en Afrique à partir approximativement de 5 millions d'années BP, avant de gagner l'ensemble de l'hémisphère nord bien plus récemment, vers - 1,8 million d'années.

La question que se posent beaucoup de paléoanthropologues concerne les causes premières d'une telle évolution, qui ne s'est produite qu'une fois et une seule à cette échelle dans l'histoire de la vie, et qui a profondément bouleversé l'holocène, le transformant en ce qui vient d'être nommé l'anthropocène. Pourquoi certains primates sont-ils devenus les agents de cette évolution et non d'autres peu différents aux origines et partageant globalement le même habitat?

La réponse traditionnellement donnée à cette question est connue. Ce fut l'usage des outils qui a permis, vers environ – 3 à – 2,5 millions d'années, une séparation de plus en plus marquée entre des hominidés utilisateurs d'outils et leurs cousins n'ayant pas acquis la pratique systématique de ces mêmes outils.

La connexion animale

Récemment la biologiste Pat Shipman, enseignant à la Pennsylvania State University, a proposé de compléter cette première explication par une autre, exposée dans son livre « The Animal Connection. A new perspective on what makes us human » (W.W. Norton and Co, juin 2011) . Elle ne remet pas en cause l'explication de l'hominisation par l'usage de l'outil, mais elle propose d'ajouter un facteur explicatif tout aussi puissant selon elle: la coopération qui s'est établie des les origines entre les hominiens et différentes espèces animales les ayant aidé à s'imposer dans un monde peuplé initialement de prédateurs redoutables.

L'exemple emblématique qu'elle propose est le loup, devenu chien en cohabitant avec l'homme. La co-évolution de l'Homme avec le chien est la plus ancienne identifiée. Elle remonterait à – 32.000 ans. Mais d'autres espèces, selon elle, comme le chat et le cheval, ont joué un rôle analogue. Dès les origines se serait établi entre les humains et ces animaux de véritables symbioses coopératives, ce qu'elle nomme une « animal connection » que l'on pourrait presque entendre comme une « animal addiction ».

Selon Pat Shipman, il ne faut pas confondre la domestication de ces espèces avec d'autres survenues bien plus tard, lors de la révolution néolithique. Les animaux d'élevage qui se sont multipliés alors ont certes eux aussi co-évolué avec les humains, à la suite de nombreuses sélections et mises en condition. Mais le rôle de fournisseur de matières protéiques auquel ils ont été condamnés a beaucoup réduit l'investissement affectif réalisé par les humains dans leurs relations avec eux.

L'addiction dure encore et s'est même considérablement renforcée, si bien que beaucoup de biologistes considèrent qu'il existe aujourd'hui entre certains humains et leurs animaux familiers des domaines entiers d'échanges sensoriels, affectifs et même cognitifs, dont beaucoup échapperaient à la conscience réfléchie humaine. Dès les origines, manifestement, les hominiens ont passé beaucoup de temps à l'acquisition de connaissance sur les animaux, qu'il s'agisse des prédateurs avec qui ils étaient en compétition ou des proies. L' art pariétal beaucoup plus récent il est vrai en témoigne amplement.

Comme le signale Pat Shipman, seuls des animaux y sont représentés, rarement sinon jamais des hommes ou des activités humaines. Les peintures et sculptures permettaient sans doute, indépendamment de leurs significations mythiques, de transmettre une connaissance approfondie du monde animal, indispensable pour la survie. La connaissance du monde végétal était certainement tout aussi utile. Pourquoi n'a-t-elle pas été représentée symboliquement? Sans doute parce qu'il était plus difficile d'entrer en empathie avec les plantes.

Dans notre essai « Le paradoxe du Sapiens », nous avons mis l'accent sur les symbioses s'étant établies dès les origines de l'usage des outils entre les humains et les technologies, symbioses que ont pris aujourd'hui des dimensions extrêmes avec la généralisation de ce que nous appelons les systèmes anthropotechniques.

Mais nous avons signalé, sans y insister, que des observations analogues pouvaient être faites, concernant l'importance des relations entre humains et animaux dans l'évolution du monde bio-anthropologique. Il est profondément regrettable aujourd'hui que la concurrence darwinienne entre sociétés anthropotechniques ait conduit progressivement à l'éradication d'une diversité animale ayant enrichi pendant des millénaires la vie des humains.

Nous ne pouvons donc que conseiller l'étude des considérations de Pat Shipman relative à ce qu'elle nomme l' « animal connexion », afin de protéger et si possible augmenter la richesse de relations avec les animaux sans lesquelles nous ne serions pas ce que nous sommes.

A la recherche de la capacité à innover

Nous ne voudrions pas ici cependant nous limiter à ces considérations un peu banales, qui nous conduiraient à passer à côté du vrai problème, évoqué dans notre essai « Le paradoxe du Sapiens » mais aussi dans le dernier ouvrage de David Deutsch « The Beginning of Infinity ». (voir notamment http://www.admiroutes.asso.fr/larevue/2011/118/chroniqueinfini1.htm).

Ce problème peut être résumé comme suit: quel fut le facteur évolutif décisif qui a permis, voici quelques millions d'années, à certaines espèces de primates, d'« instrumentaliser » de façon systématique leur environnement à leur profit? Cette instrumentalisation, on vient de le voir, a porté aussi bien sur les objets physiques (les futurs outils) de cet environnement que sur les objets vivants, plantes et animaux. Il a porté ensuite sur des mécanismes naturels tels que le feu.

Pour préciser la question, il faut reprendre les termes de David Deutsch: pourquoi ces primates particuliers, les futurs hominiens, sont-ils devenus des « universal explainers », autrement dit pourquoi ont-ils soupçonné que derrière chaque objet ou processus du monde se trouvaient des lois de fonctionnement qu'ils pouvaient chercher à comprendre et utiliser à leur profit dans des circonstances différentes de celles dans lesquelles ces supposés lois s'appliquaient?

Il fallait pour cela qu'ils échappent à l'enfermement dans l'imitation qui est le lot des innombrables autres espèces vivantes. Celles-ci reproduisent en effet avec peu de variations les comportements innés adaptatifs leur ayant permis au fil des générations de tirer le meilleur parti d'un environnement donné. Elles utilisent (instrumentalisent) évidemment leur environnement mais sans avoir cherché à se l'expliquer d'une façon rationnelle, testable, transmissible et perfectible. Que cet environnement change et l'expérience génétique est perdue, sauf à ce que d'hypothétiques variations génomiques au hasard permettent à l'espèce de rebondir.

Découvrir le secret fondametal qui est à la base de l'hominisation n'intéresse pas seulement les paléoanthropologies, mais tous les anthropologues d'aujourd'hui et nous-mêmes. Pourquoi la plupart des humains se limitent-ils à reproduire ce que leur a transmis la société, plutôt que refuser les expériences acquises et leurs limitations afin d'imaginer des rationalités ayant un plus grand pouvoir explicatif?

David Deutsch, comme bien d'autres chercheurs, formule un plaidoyer vibrant destiné à développer la capacité à inventer. Mais n'invente pas qui veut. La grande majorité des humains mis en face d'un problème, fut-il vital, tournent en rond sans être illuminés par l'ébauche d'une solution possible. De rares autres au contraire trouvent l'idée qu'il fallait, idée si simple parfois que, selon Einstein (ou Feymann), on se demande ensuite pourquoi personne ne l'avait eu avant eux.

David Deutsch a bien vu le problème, mais il lui donne une solution qui ne fait que reporter la difficulté en amont. Il explique que les hominiens n'ont évidemment pas appris spontanément à inventer de façon rationnelle, guidé par un quelconque philosophe présocratique de l'innnovation. Les jeunes l'ont fait simplement en cherchant à comprendre pourquoi les parents et les chefs disposent de l'expérience faisant leur supériorité par rapport à eux, et de quelles façons ils pourraient à leur tour se doter de cette supériorité.

Ils ont donc cherché non pas seulement à imiter ces parents et chefs dans les domaines étroits de leur excellence acquise, mais à instrumentaliser pour leur plus grand bénéfice les sources des capacités cognoitives de ces parents permettant d'expliquer et transformer le monde- le tout instinctivement évidemment, tout au moins aux débuts du processus.

Or demandons nous, comme nous l'avons fait précédemment, pourquoi ce regard critique et cette volonté de se doter des capacités explicatives des parents et des chefs sont-ils apparus chez ces primates particuliers et non pas dans les innombrables espèces biologiques où les jeunes se forment en imitant l'expérience des parents. De la même façon, pourquoi notre primate préhominien a-t-il regardé la pierre qu'utilisait un autre primate pour casser une noix et qu'il jetait ensuite comme un outil potentiellement universel en vue de bien d'autres usages non encore spécifiés.

Dans notre essai, nous avons évoqué une des réponses donnée par certains généticiens à la question que nous venons de résumer. Pour eux ce fut l'apparition d'une mutation entraînant la réorganisation de certaines bases neurales de la cognition qui a permis d'accroître sur une grande échelle les capacités à l'abstraction et à la projection dans le futur des primates bénéficiaires d'une telle mutation.

Mais il faut bien reconnaître qu'une telle explication reste insuffisante. Tant que n'auront pas été mises en évidence les capacités génétiques ou épigénétiques à inventer qui permettent aux humains (les systèmes anthropotechniques) de se comporter en universal explainers et en universal transformers, le saut qualitatif vers le développement infini des sciences et des savoirs que souhaite David Deutsch et bien d'autres avec lui ne se produira pas à une échelle suffisante pour la transformation profonde du cosmos dont rêvent les esprits aventureux.

 

Repost 0
12 juin 2011 7 12 /06 /juin /2011 16:05

par Jean-Paul Baquiast et Christophe Jacquemin - 12/06/2011

Le mouvement de l'économie sociale et solidaire, lancé et soutenu en France, entre autres personnalités, par Claude Alphandéry http://fr.wikipedia.org/wiki/Claude_Alphand%C3%A9ry, vise à proposer des alternatives économiques et sociales à l'actuel Système de pouvoirs financiers, gouvernementaux et médiatiques s'étant emparé du monde actuel pour le dominer.

Claude Alphandéry est comme Stéphane Hessel, un de ces octogénaires issus de la haute fonction publique française et républicaine qui ne se satisfont pas de l'ordre imposé par ce Système, que ce soit en France, en Europe et dans le monde. Mais plus concrètement que Stéphane Hessel, il participe à l'identification, au soutien et à la promotion des milliers d'initiatives s'inscrivant hors du champ de la recherche du profit spéculatif, destinées à rendre des services dont se désintéresse l'économie marchande.

Nous reconnaissons pleinement, pour notre part, la légitimité de cette démarche, qui n'avait d'ailleurs pas attendu l'époque récente pour s'affirmer, avec les réalisations notamment de la coopération et de l'économie alternative. Le mouvement, encore mal connu aujourd'hui, bénéficiera de l'extension des réseaux numériques non seulement pour mieux se faire connaître mais pour rendre de nouveaux services peu coûteux en investissements bien que riches en valeur ajoutée pour les populations.

Indiquons pour ceux qui ne l'auraient pas remarqué que notre démarche de communication et de discussion intéressant la science, les technologies et la philosophie des sciences s'inscrit pleinement dans l'économie sociale et solidaire. Automates Intelligents vise à rendre un service aujourd'hui indispensable, faire connaître gratuitement et discuter les nombreuses avancées de connaissance indispensables à la transformation du monde.

Comme indiqué dans notre présentation du livre du physicien David Deutsch, (The Beginning of Infinity, http://www.admiroutes.asso.fr/larevue/2011/118/deutsch.htm) il s'agit d'un devoir s'imposant, non seulement aux Etats et institutions républicaines, mais à tous ceux ayant acquis un minimum des bases nécessaires à la compréhension des enjeux de l'évolution des savoirs scientifiques qui transformera de plus en plus la planète. Il est indispensable de n'en pas laisser le monopole aux oligarchies qui voudraient s'en conserver exclusivement la maîtrise.



Pour en savoir plus

L'économie sociale et solidaire http://www.pouruneautreeconomie.fr/
Le Labo de l'ESS. http://www.lelabo-ess.org/
Les Etats généraux. Palais Brongniart (Place de la Bourse, Paris. 17, 18 et 19 juin 2011
Cinquante propositions. http://www.lelabo-ess.org/propositions/50-propositions-pour-changer-de-cap/

Démarche de l'ESS selon Claude Alphandéry.
« Nous vivons une crise de civilisation qui appelle un projet de civilisation. Si cette idée s'impose peu à peu dans tous les milieux, elle reste trop souvent à l'état de discours. Les mesures prises ne sont pas à la hauteur des périls. La petite musique d'un "business as usual", certes plus vert et plus social, revient comme une antienne, faisant fi des leçons des crises.

Une majorité de citoyens ne satisfait pas de cette perspective et souhaite une réforme profonde de l'économie. Savent-ils que des centaines de milliers de personnes y œuvrent déjà ? Il s'agit des salariés, bénévoles, entrepreneurs, consommateurs... de l'économie sociale et solidaire (ESS). Ce champ rassemble une grande diversité d'initiatives économiques, ni publiques, ni capitalistes, qui cherchent à produire, consommer et décider autrement, de manière plus respectueuse des hommes, de l'environnement et des territoires.

Au sens le plus large, l'ESS représente 200 000 entreprises et 2 millions de salariés. Fort de plus de 150 ans d'histoire, ce mouvement est loin d'être une exception française, et se développe partout en Europe mais aussi au Québec, en Amérique Latine... La crise actuelle est une opportunité pour convaincre que non seulement l'ESS constitue une réponse immédiate aux problèmes sociaux et écologiques mais qu'elle peut aussi, par ses valeurs et pratiques, inspirer de nouvelles régulations économiques à la hauteur des enjeux.

Il est urgent d'agir et de convaincre. C'est pourquoi nous mettons ici en débat 50 propositions pour changer de cap, issues des travaux du Labo de l'ESS. Vous avez la parole ! Votre avis, vos idées nous sont précieux. Faites mouvement avec nous et agissons ensemble pour un autre mode de développement. »

Claude Alphandéry
Initiateur du Labo de l'économie sociale et solidaire
Président d'honneur de France Active

Repost 0
14 avril 2011 4 14 /04 /avril /2011 10:39
 

Cette note est provisoire. Elle est destinée à être discutée.
Elle résume les différentes visions de l'énergie et de la société sous-jacentes aux grandes technologies actuellement en service. Mais elle se veut plus ambitieuse. Nous concluons sur une proposition qui est de nature institutionnelle : créer une Communauté européenne de l'Energie susceptible de dégager puis de promouvoir de telles visions. Cette Communauté devrait s'engager sur des voies jusqu'ici refusées par l’Union sous sa forme actuelle : inciter les citoyens européens à préciser le type de société et de mode de vie qu'ils désirent. Quel serait le modèle de civilisation qu'ils veulent pour eux et qu'ils proposeraient éventuellement au reste du monde.

Il serait évidemment souhaitable qu'une démarche européenne de cette nature puisse être reliée à ce que ferons ou ne ferons pas d'autres parties du monde. Les problématiques liées à l'énergie n'ont évidemment pas de frontières.

En tant que défenseurs d'une démarche scientifique privilégiant l'invention collective et le dialogue participatif, ajoutons que les humains pourraient sans doute découvrir des solutions permettant de produire et d'économiser l'énergie très intelligentes, auxquelles personne n'aurait encore pensé.

Mais pour que puissent s'exprimer sur un plan mondial ces immenses capacités anthropotechniques, encore faudrait-il qu'elles puissent s'insérer dans un réel souci de l'intérêt général, d'une réelle volonté humaniste de partage. C'est selon nous l'enjeu crucial des années qui viennent.

Jean-Paul Baquiast, Christophe Jacquemin pour Automates-Intelligents

 

L'accident majeur qui vient de se produire à Fukushima Dai-Ichi, dont l'issue semble encore indéterminée, est considéré par nombre d'observateurs [dont nous sommes] comme devant obliger l'ensemble des pays du monde à s'interroger sur le recours à l'énergie nucléaire.
Mais nous pensons qu'il faut aller au-delà. C'est sur la nature-même de l'évolution des sociétés humaines que cet événement pose des questions, ainsi que sur les directions que paraît prendre cette évolution.

Les guerres mondiales, ou l'explosion de Tchernobyl avaient pu, malgré leur ampleur, passer pour des événements non symptomatiques. Aujourd'hui, Fukushima s'ajoute à un long enchaînement de crises qui semblent au contraire systémiques, c'est-à-dire remettant en cause l'avenir du Système global dont nous sommes tous des composants. Les Européens sont tout aussi concernés que les Japonais. Nous voudrions dans cette première note commencer à aborder ces perspectives. Les sciences, les technologies, mais tout autant les systèmes politiques et économiques, sont mis en cause. Il faut en discuter, tout en évitant les jugements précipités ou dogmatiques.

Dans la terminologie pratiquée sur ce site, nous dirons que Fukushima pose la question de l'avenir des sociétés anthropotechniques. On peut évidemment traiter de l'avenir des sociétés humaines modernes sans faire appel à cette dernière terminologie ni aux hypothèses méthodologique qu'elle sous-tend. Il nous paraît cependant intéressant de s'y référer, compte tenu de son caractère selon nous éclairant(1). Rappelons que nous appelons anthropotechniques les sociétés de primates apparues il y a quelques millions d'années et ayant appris à utiliser en symbiose avec leurs composants biologiques des outils technologiques ayant leurs logiques évolutives propres. Ceux-ci sont susceptibles de modifier les processus évolutifs naturels de façon plus ou moins brutale et rapide. Ce fut le cas des outils de pierre, puis du feu. C'est aujourd'hui celui des technologies industrielles, biologiques, informationnelles, observationnelles (utilisées par les sciences). Parmi elles se trouvent les technologies nucléaires.

Celles-ci permettent aux anthropos d'intervenir aux franges, sinon au coeur du processus mis en oeuvre dans la formation et l'évolution des étoiles : production d'atomes lourds par fusion d'éléments légers (hydrogène, hélium) et dans certaines conditions restitution d'énergie par fission de ces mêmes atomes lourds(2). Dans notre approche, les systèmes ou sociétés anthropotechniques sont des superorganismes en compétition darwinienne pour l'accès aux ressources. Elles ne sont que marginalement capables de se représenter l'avenir du monde et d'enclencher des comportements moteurs susceptibles de préserver les équilibres collectifs de la planète.

On peut admirer que des primates hominidés - qui ne sont pas agencés différemment au plan biologique de tous les autres organismes un peu complexes - aient réussi à pénétrer certaines des lois semblant régir l'évolution du cosmos. Les biologistes et anthropologues discutent des facteurs évolutifs qui leur ont permis de le faire, acquisition d'un cerveau surdimensionné, construction de vastes sociétés communicantes, mémorisation et mutualisation des acquis de connaissances et des résultats d'expérience. Mais on ne doit pas oublier que la physique atomique ne constitue que l'une des nombreuses autres interventions dans les processus naturels auxquelles procèdent les systèmes anthropotechniques : processus biologiques, reproductifs, cognitifs... Les sciences et techniques en résultant sont utilisées aussi bien pour l'amélioration des conditions de vie des sociétés s'efforçant de les maîtriser que pour la destruction des sociétés rivales. Il ne servirait donc pas à grand chose de discuter de l'avenir du nucléaire sans replacer celui-ci dans l'évolution des sociétés anthropotechniques que nous venons de résumer.

Pour la clarté de l'exposé, nous le présenterons en trois parties, qui seront elles-mêmes des résumés trop sommaires de la richesse des questions sous-jacentes.

1. Les contraintes majeures auxquelles l'humanité sera confrontée dans le présent siècle
2. Privilégier une vision pessimiste-réaliste de l'avenir
3. Regard sur les différentes formes d'énergie
Conclusions concernant la France et l'Europe

1. Les contraintes majeures auxquelles l'humanité sera confrontée
dans le présent siècle

Il faut examiner l'avenir du nucléaire et plus généralement de toutes les technologies aujourd'hui émergentes en tenant compte des contraintes majeures auxquelles, du fait de leur propre évolution, les sociétés anthropotechniques (ou si l'on préfère parler plus simplement, l'humanité mondiale) seront confrontées dans les 50 à 100 prochaines années.
Il s'agit là de thèmes de prospective et de débats qui font par ailleurs l'objet de nombreuses discussions entre experts et scientifiques. Malgré de fréquentes divergences d'approches, de grandes lignes paraissent pouvoir en être dégagées. On doit impérativement en tenir compte dans la réflexion engagée ici. Peut-on les résumer en quelques mots ?
Le pronostic que vient de The World in 2050, ouvrage de Laurence Smithproposer le géographe et spécialiste en sciences de la Terre Laurence Smith dans un livre récent «The World in 2050»(3), nous paraît recevable. Certains diront même qu'il est banal, le constat ayant déjà été fait par de nombreux prospectivistes(4). Encore faut-il méditer ce qu'il implique.

Selon cet auteur, d'ici 2050, horizon auquel il limite sa prospection, l'humanité comme avec elle le monde biologique terrestre et maritime affronteront quatre grands phénomènes irrévocables dont chacun mériterait à lui seul de longs développements :

La croissance démographique


Contrairement à ce qu'en disent les théoriciens de la «transition démographique» le développement démographique humain paraît loin d'être maîtrisé sur la période. Selon les pays, il se traduira par des natalités excessives mais aussi par des vieillissements inquiétants. L'augmentation de la population contribue en premier lieu à la raréfaction des ressources naturelles (voir ci-dessous). On explique qu'en mutualisant les ressources, notamment alimentaires, l'humanité pourrait faire face à cet accroissement. Mais cette mutualisation ne sera pas facilement acceptée par les bénéficiaires actuels des surplus.

Une raréfaction croissante des ressources naturelles


Cette raréfaction ira jusqu'à la disparition de nombre de ressources naturelles, notamment dans le domaine biologique. La mise au point de nouveaux procédés (y compris la récupération) et de nouveaux produits ne pourra pas pallier les manques, du fait des coûts et délais impliqués, mais aussi parce que les nouveaux produits sont eux-mêmes consommateurs de ressources en voie de raréfaction.

Les conséquences généralement perturbatrices du réchauffement climatique,
quelles qu'en soient les causes


Ce point n'est plus discuté par les scientifiques sérieux. Il entraînera une remontée vers les pôles des températures moyennes et de nombreux phénomènes catastrophiques météorologiques et climatologiques. Plus vite peut-être qu'actuellement envisagée se manifestera aussi la montée du niveau des eaux maritimes imposant l'exode d'activités urbaines et industrielles parmi les plus productives du monde.

Le phénomène général de la mondialisation

Ce terme recouvre quantités de phénomènes dont certains peuvent être considérés comme positifs mais d'autres dangereux. On met à l'actif de la mondialisation la diminution du coût de certains biens de consommation due à la concurrence entre producteurs. Les niveaux de vie de nombreuses populations pauvres en ont bénéficié. Mais le processus a son aspect négatif. La diffusion des modèles de consommation propres aux classes riches des pays riches à travers la publicité commerciale sur les réseaux numériques conduit à une explosion globale des besoins exprimés, que les ressources mondiales actuellement disponibles ne permettront pas de satisfaire. Nul ne peut envisager sérieusement que chaque habitant de l'Asie ou de l'Afrique puisse disposer par exemple d'une automobile, comme la majorité en Europe ou en Amérique. La mondialisation telle qu'elle s'organise dans le cadre du capitalisme et du libéralisme économique conduit plus généralement à la domination de modèles de consommation et de modèles de société qui sont à l'opposé des modes de vie plus associatifs, plus mutualistes et orientés vers de nouvelles valeurs encore à inventer.

Sous la pression des producteurs et des distributeurs dominants, la diffusion de ces modèles de consommation conduit par ailleurs à la destruction des sociétés traditionnelles, sans leur proposer de modèles de remplacement. Ces sociétés traditionnelles étaient essentiellement rurales. Au lieu de chercher à les faire évoluer et se moderniser sur place, les gouvernements encouragent ou tolèrent les migrations des populations rurales vers des mégalopoles urbaines dont certaines seront relativement riches mais d'autres misérables et instables. Il faut insister sur ce phénomène spectaculaire de l'urbanisation, se traduisant par le fait que la plus grande partie de l'humanité vivra prochainement dans des villes incapables de subsister seules. Du fait de l'appel généralisé à différentes technologies relevant de l'artificiel, il en résulte déjà une fragilité extrême. Le fait que ces villes pourraient par ailleurs s'effondrer très rapidement si elles étaient privées d'énergie, sous sa forme la plus souple qu'est l'électricité, constitue un des aspects des questions posées par l'augmentation généralisée de la demande en énergie.

A cette prévision, nous pourrions pour notre part apporter un complément de type politique. Les anthropos ou humains, associés aux techniques, n'acquièrent pas nécessairement les propriétés mentales leur permettant de se représenter au-delà de leurs intérêts propres ceux de l'humanité et de la planète au sens large. Si certains le font, les prévisions et recommandations qu'ils émettent demeurent impuissantes à modifier les comportements collectifs de façon telle qu'elles puissent inverser le cours de l'évolution. Malgré la puissance de nos cerveaux, nous ne sommes pas en effet capables d'influencer ce que l'on pourrait pour simplifier définir comme les gènes guidant nos grands comportements collectifs, gènes hérités d'un passé biologique lointain et toujours actifs. Le généticien (chrétien) Christian De Duve remarquait récemment(5) que les humains ne sont pas génétiquement programmés pour prévoir l'avenir au-delà de quelques jours et surtout pour adopter concrètement des mesures de précautions découlant de ces prévisions. Les discours les plus moralisateurs et les mieux intentionnés n'en changeront rien.

Ajoutons par ailleurs que les compétitions entre humains, moins que jamais en voie de s'apaiser, conduisent à l'émergence de minorités oligarchiques associant pouvoirs économico-financiers, pouvoirs politiques et pouvoirs médiatiques. Les uns et les autres font tout pour que les autres citoyens soient exclus de la décision. La démocratie participative reste partout un voeu pieux(6). Ces pouvoirs oligarchiques, dans leurs compétitions internes, comme l'a bien souligné De Duve, sont incapables de prendre en compte un intérêt général plus global autrement que dans des discours démagogiques. A par quelques cas marginaux, l'expérience montre que les foules dominées ne peuvent espérer utiliser les procédures dites démocratiques (là où elles existent, ce qui n'est pas le cas partout) pour remettre en cause les pouvoirs des oligarchies. Les autoritarismes ne reculent que là où, poussées à bout par les excès de pouvoir dont elles souffrent, certaines populations génèrent spontanément en leur sein des révoltes plus ou moins sauvages, dont il est impossible de prédire les conséquences, qu'elles soient heureuses ou qu'elles aboutissent à de nouvelles tyrannies. Nous avons évoqué ce phénomène sur notre site, à propos des révoltes dites du nouveau monde arabe, ou de celles survenues au coeur du système capitaliste, à Madison (USA).


2. Privilégier une vision pessimiste-réaliste de l'avenir du monde

Si nous considérons comme globalement fiable l'évaluation rappelée ci-dessus, nous ne pouvons qu'en retenir une vision pessimiste de l'avenir probable. Nul ne sait évidemment de quoi cet avenir sera fait. Mais la pire des erreurs de prévision consisterait à s'imaginer que  «tout s'arrangera», pour des raisons tenant plus d'une croyance quasi mystique au progrès que d'un réalisme froid. Certes, le pessimisme ne doit pas être utilisé comme argument pour expliquer aux victimes des oligarchies qu'elles ne pourraient rien faire pour améliorer leur sort, notamment par la lutte sociale. Le pessimisme doit servir en priorité à mesurer les obstacles et les risques pour se préparer, au moins mentalement, à les affronter. Dans cette optique, plusieurs tendances lourdes pourraient marquer les prochaines décennies.

Une croissance accélérée de la consommation et donc
de la production des biens et services en général


Pour les raisons indiquées ci-dessus, croissance démographique, mondialisation poussant à l'adoption de niveaux de vie inspirés de ceux des pays développés, urbanisation rapide, volonté de profit à court terme animant les principaux acteurs économiques, il serait illusoire d'espérer une stabilisation des consommations-productions globales. Tout au plus pourrait-on espérer dans les pays riches une stabilisation, voire une «décroissance», des formes de productions-consommation les plus gourmandes en ressources primaires. Mais, comme nous le verrons plus loin, une telle stabilisation ou décroissance ne se produira d'après nous que dans certains milieux «activistes», inspirés par une morale de la sobriété et du partage proche d'une véritable religion. Les signes, symboles ou «mèmes» de cette nouvelle religion décroissantiste, il est vrai, pourront profiter pour leur «contamination virale» des supports offerts par les réseaux numériques.

Evidemment, on pourrait envisager une diminution globale massive des consommations et des investissements correspondants. Mais ceci ne se produirait qu'en cas de catastrophes mondiales dont personne ne peut raisonnablement espérer la survenue. Ces catastrophes pourraient provenir soit d'événements de grande ampleur liés au réchauffement climatique, soit d'un accident technologique majeur, notamment nucléaire, empoisonnant une grande partie de la Terre (nous y reviendrons), soit de conflits généralisés.

Une croissance corrélative des besoins et donc de la consommation-production d'énergie


Si la croissance des consommations se poursuivait, il serait illusoire d'espérer une stabilisation, ni même une limitation de la croissance du recours à l'énergie, quelles qu'en soient les formes, sauf, à nouveau, la survenue de catastrophes de grande ampleur affectant l'une ou l'autre de ces énergies et rendant son utilisation radicalement impossible. Rappelons que les économies d'énergie, qui seront plus que jamais indispensables dans cette perspective, supposent un haut niveau technologique général qui ne les rend pas toujours accessibles aux pays pauvres. Ceci veut dire que, dans le demi-siècle, aucune force au monde ne semble pouvoir empêcher les pays en développement le plus rapide (Chine, Inde, Indonésie) de faire appel au charbon, au pétrole, au gaz mais aussi au nucléaire, comme sources primaires. Les énergies renouvelables se développeront aussi. Mais leurs contreparties, en termes de coût, stockage, transport, empêcheront qu'elles ne deviennent les seules sources utilisées. Par ailleurs, l'électricité, malgré ses inconvénients (coût des réseaux de transport et de distribution, difficulté de stockage) sera de plus en plus employée, sinon dans les transports automobiles, du moins dans l'industrie/services et dans la vie domestique

La fragilisation accrue des systèmes économiques et sociaux

Plusieurs facteurs expliquent cette fragilisation : l'accroissement de la population et de la demande globale au regard des ressources disponibles et des possibilités de réponse des écosystèmes, l'artificialisation accrue des modes de vie y compris dans les mégalopoles les plus pauvres, faisant dépendre la survie de facteurs de moins en moins susceptibles de solutions de secours en cas de crise (par exemple le recours généralisé à l'électricité pour assurer l'ensemble des activités sociétales), la course au profit immédiat et à la dérégulation qui dépossèdent [avec leur bénédiction ?] les autorités étatiques de leur rôle traditionnellement protecteur et normatif, l'illusion que les progrès technologiques futurs pourront pallier tous les risques. Il faut envisager aussi les risques tenant à des attentats soit d'origine politique, soit liés à des pathologies mentales.

Même dans les pays développés, par volonté d'économie et de profit, les sociétés urbaines ont sacrifié la diversité et la dispersion des sources et des réseaux. Une grève dans le secteur pétrolier, des pannes ou attentats dans certains noeuds de distribution ou de transports, une pandémie infectieuse meurtrière et tout s'arrête, y compris les services d'urgence et de police. Les régions soumises aux risques naturels sont encore plus fragiles car elles ne sont pas encore préventivement protégées.

La bunkerisation sinon la militarisation de plus en plus systématique
des riches et des puissants


Mur en californie, entre les Etats-Unis et le MexiqueQu'il s'agisse des matières premières ou des territoires, plus les difficultés d'accès aux ressources s'aggraveront, plus les moins favorisées des détenteurs de ces ressources feront pression pour y accéder. Les minorités favorisées se surprotégeront en conséquence. Cela se constate déjà au niveau des frontières terrestres ou maritimes, mais aussi au sein des quartiers et zones résidentielles dans les villes. Les protections feront de plus en plus appel à des moyens de type militaire, confiées soit à l'armée ou la police régulières, soit à des compagnies privées. Le respect de la vie humaine ne comptera plus guère au regard de la volonté de rendre les frontières étanches. On le constate déjà en Europe, à toute petite échelle, devant l'indifférence sinon la satisfaction avec lesquelles certains accueillent la nouvelle de naufrages affectant les immigrants venus du Sud. La militarisation fera un appel croissant aux systèmes robotisés de surveillance et de contrôle qui n'ont pas d'états d'âme.

Le recul, partout dans le monde, des anciennes traditions de service public
et de régulation par des Etats protecteurs


Ce phénomène, que l'on pourrait qualifier de dramatique au regard de la protection des populations contre les abus de pouvoir des oligarchies, a commencé dès la fin de la seconde guerre mondiale, sous la pression du capitalisme américain et de l'idéologie libérale derrière laquelle il s'abritait. Il a tiré parti, il est vrai, des abus de pouvoirs perpétrés au nom du peuple par les dictatures se réclamaLes non-dits de la sous-traitancent du marxisme. Mais dans la débâcle des Etats et des administrations publiques qui en a résulté, les idéaux un moment illustrés avec succès en France au nom du programme du Conseil national de la résistance (Etat providence, administrations intègres, nationalisations des secteurs stratégiques y compris dans la banque et l'assurance) ont été balayés. Aujourd'hui, les fonctions publiques qui s'en inspiraient ne survivent plus que dans le souvenir de leurs membres retraités. Les actionnaires privés qui gouvernent maintenant les grands services publics n'hésitent plus, pour raisons de rentabilité, à confier les secteurs les plus sensibles, y compris le nucléaire, à des sociétés d'intérim elles-mêmes privées des moyens essentiels de fonctionnement.

 

3. Les différentes formes d'énergie composant le mix énergétique

On appelle mix énergétique la façon dont se répartissent, soit au niveau mondial, soit pays par pays, l'appel aux différentes sources d'énergie. Le mix peut être calculé avec une relative précision quand il s'agit des productions/consommations actuelles. Il faut aussi l'évaluer pour les années et décennies à venir. La précision, dans ce cas, diminue avec le délai et la nature des sources prises en compte. Elle dépend des technologies d'extraction et de production, des réserves prouvées ou estimées, des capacités de transport et de stockage, mais aussi, concernant les énergies renouvelables et les économies d'énergies, de nombreuses variables industrielles et commerciales qu'il n'est pas encore possible de déterminer. Les estimations des productions et ressources mondiales d'énergie sont difficiles à réaliser avec précision. Néanmoins, dans le cadre de cet article, elles nous semblent suffisantes. On pourra se référer à Wikipédia, qui indique aussi les unités de mesures utilisées(7).

Le mix énergétique fait aujourd'hui l'objet de nombreuses estimations destinées à évaluer le rôle du nucléaire, devenu sensible à la suite de l'accident de Fukushima. Globalement, la part du nucléaire dans le mix énergétique mondial paraît très faible. Selon les chiffres que vient de publier l'Agence internationale des énergies renouvelables(8), elle est de 6%, contre 87% pour le trio charbon, pétrole, gaz, et 7% pour les renouvelables. Ces chiffres devraient, sauf accident, passer respectivement en 2035 à 8%, 78% et 14%. Il est difficile de prévoir comment il évoluera au-delà. Les combustibles fossiles auront peut-être atteint un pic d'extraction vers 2050, mais le nucléaire, faute de matière première et en attente problématique de la fusion, plafonnera également. L'importance des renouvelables dépendra beaucoup des financements et de la recherche qui leur seront consacrés. Voyons cela par grands domaines.

Les énergies fossiles

Tout à déjà été dit concernant ces énergies : charbon, pétrole, gaz. Rappelons seulement ici quelques points concernant le propos de cet article. Concernant les atouts dont ils bénéficient, aux yeux des dirigeants mais aussi du public, disons que les réserves prouvées restent importantes, notamment à l'échéance du demi-siècle. Concernant les réserves probables, il existe des perspectives d'extraction coûteuses et dangereuse pour l'environnement mais que ne manqueront pas de recommander les industriels (schistes bitumineux, forages profonds, appel aux méthanes, etc.). Les réserves actuelles sont inégalement réparties, mais dans l'ensemble ce sont les pays "pauvres" ou émergents qui détiennent les plus importantes d'entre elles. L'extraction des combustibles fossiles est par ailleurs relativement facile et à la portée des pays ne disposant pas de technologies très avancées. Elle est dangereuse, notamment en ce qui concerne le charbon. Mais la mort des mineurs n'émeut manifestement personne. Un autre atout important est que l'utilisation des combustibles fossiles n'exige pas de transformation des parcs industriels ou, en ce qui concerne les transports, des moteurs.

Concernant le gaz, jugé globalement moins polluant et moins producteur de CO2 que le pétrole, la découverte récente de «gaz de schistes» ou «shale gaz» très présent dans de nombreux pays consommateurs est considérée par les intérêts gaziers comme une aubaine inespérée. Mais les méthodes de recherche et d'extraction, par hydro-fracturation, soulèvent à juste titre de fortes oppositions des personnes résidant près des puits(9). Comme ceux-ci sont très dispersés, la résistance s'étendra prochainement à de nombreux territoires. Elle risque de devenir aussi forte que celle s'opposant au nucléaire.

Au passif, les combustibles fossiles contribuent lourdement à la production de gaz à effet de serre et de diverses pollutions qui ont un effet sanitaire néfaste incontestable. Ils sont donc vivement combattus par les scientifiques du climat et les minorités politiques qui soutiennent leur combat. Nous sommes de ceux-ci. Il nous paraît incontestable que le réchauffement climatique entraînera de graves conséquences sur les équilibres économiques et sociétaux actuels. Les activités humaines n'en sont sans doute pas les seules causes, mais tout ce qui contribuera à en accentuer les effets serait à proscrire au plus vite. Les solutions proposées par divers lobbies industriels et scientifiques visant à séquestrer le carbone ou protéger la Terre des rayons solaires risquent d'être encore longtemps des utopies. Il faudrait donc sortir rapidement, comme on le dit à propos du nucléaire, de l'addiction au charbon et au pétrole.

Mais ceci ne se fera pas, notamment sous la pression des pays émergents qui ont besoin de ces ressources pour atteindre leur objectif actuel, approcher le niveau de vie des pays riches. Il serait donc illusoire de penser que la part des combustibles fossiles dans le mix énergétique mondiale diminuera sensiblement dans les cinquante prochaines années. Comme nous l'avons indiqué, elle restera aux alentours de 70%. Ce sera indiscutablement très dangereux pour l'environnement. Il sera trop tard pour s'en soucier lorsque sera atteint ce que les climatologues nomment le «tipping point», avec emballement en chaîne des effets destructeurs. Mais les risques n'étant pas immédiats, nul ne semble se préoccuper et se préoccupera vraiment de ces échéances dans les prochaines années.

Les énergies renouvelables et les économies d'énergie

Eoliennes off-shor au DanemarkOn peut examiner dans la même rubrique ces deux formes d'action, visant à diminuer l'appel tant aux combustibles fossiles qu'au nucléaire. Elles présentent de nombreux aspects positifs. C'est moins dans l'immédiat au regard de leur effet en tant que producteurs primaires d'énergie que sur la forme de société permettant d'y faire appel que les énergies renouvelables paraissent intéressantes. Disons pour résumer qu'elles conviennent particulièrement à l'idéal d'une société où se démocratiserait l'accès aux technologies et aux sciences fondamentales. Dans le cadre de notre revue, nous ne pouvons pour notre part que militer pour leur développement. En principe, avec du temps, des moyens budgétaires importants, beaucoup de ressources en matières premières dont certaines rares, beaucoup d'énergie classique aussi aux débuts, une volonté politique sans faille enfin, la plupart des usages actuels de l'énergie traditionnelle, y compris ceux intéressant les carburants liquides, pourraient être satisfaits à partir du soleil, du vent, de la géothermie, de la houle, de la transformation des déchets, de la photosynthèse. Par ailleurs, à l'échelle du siècle, différents projets encore futuristes permettraient, par exemple avec des centrales solaires orbitales, de s'affranchir des contraintes locales.

Parallèlement, avec là aussi les mêmes moyens globalement importants, les économies d'énergie pourront contribuer sensiblement à la diminution de la facture énergétique globale. Il pourra d'abord s'agir de modes de vie moins dispendieux, plus ascétiques, (pouvant parfois il est vrai prendre la forme d'un certain «terrorisme intellectuel»). Il pourra aussi s'agir de nouvelles solutions industrielles visant à ce que l'on nomme l'efficacité énergétique: remplacer les techniques et matériels gros consommateurs, y compris en électricité, par des solutions plus économes. Mais il pourra aussi s'agir là, sous l'influence des lobbies industriels pratiquant le "green-washing", d'une façon de relancer de nouvelles formes de consommations non véritablement nécessaires.

L'intérêt des énergies renouvelables, comme des économies d'énergies, est tout autant politique que strictement économique. Les recherches/développements comme les investissements à y consacrer, bien qu'importants, pourraient être distribués géographiquement et socialement. Ils ne seraient donc pas exclusivement le monopole des géants des secteurs énergétiques ou des industries manufacturières. Les collectivités locales, les «citoyens» pourraient s'impliquer directement, soit dans la mise en oeuvre des nouvelles sources d'énergie, soit tout autant et plus dans le domaine essentiel des économies d'énergie. Des modes de vie qui paraissent essentiels pour faire face aux crises futures pourraient en résulter: inventivité permanente, refus des modèles de consommation-gaspillage, volonté de partage social y compris au bénéfice des pays pauvres. L'avenir enfin pourra faire apparaître, car il s'agira de secteurs en inventivité permanente, des solutions technologiques ou sociétales tout à fait inattendues.

Tous ces avantages expliquent le fait que l'ensemble des Etats, des plus développés aux plus pauvres, mettent aujourd'hui les secteurs correspondants au premier plan de leurs programmes économiques et politiques. Mais il ne faut pas se faire d'illusions. Nous l'avons vu à propos des combustibles fossiles, ces mêmes Etats continueront pour l'essentiel à y faire appel. Nous allons voir ci-dessous ce qu'il en est de l'énergie nucléaire. Si l'on tient compte de différents facteurs de blocage que les défenseurs des énergies renouvelables n'envisagent pas volontiers, il paraît raisonnable de penser que dans les trente prochaines années la part des renouvelables ne dépassera pas 30% des besoins, estimation d'ailleurs supérieure aux prévisions de l'Agence internationale précitée en charge du secteur(10).

Le nucléaire

Celui-ci pose des problèmes particuliers. A la suite de l'accident de Fukushima, ils génèrent actuellement de nombreuses discussions. Nous devons y consacrer ici quelques développements spécifiques.

Pourquoi, dira-t-on, courir tous les risques sous-jacents au nucléaire, et faire courir ces risques au monde dans son ensemble pour un si faible résultat global, soit quelques % du panier énergétique global. Les réponses sont complexes car la maîtrise de l'énergie nucléaire peut dans une certaine mesure résumer toutes les ambitions et les contradictions de l'aventure humaine, autrement dit les ambitions des sociétés anthropotechniques qui se sont investies dans les filières à très haute technicité. Bien que moins risquée au plan global, l'exploration des planètes proches par certaines nations relève dans une certain mesure aussi de ce que certains qualifient d'aventure inutilement coûteuse.

Le nucléaire n'est pas une énergie comme les autres

Sous-marin nucléaireNous avons vu que la compétition pouvant prendre la forme de guerres ouvertes a toujours été et demeurera sans doute longtemps un des moteurs de l'évolution des sociétés anthropotechniques. Les protestations pacifistes n'y changeront pas grand chose avant longtemps, à moins de catastrophe globale qui modifierait en profondeur les états d'esprits. Il ne faut pas oublier que ce fut la réalisation d'armes atomiques qui a poussé chacun à son tour les cinq grands du club nucléaire mondial initial (USA, Russie, Grande Bretagne, France, Chine) à se doter des moyens d'extraire de l'énergie à partir de la fission de l'uranium puis de la fusion de l'hydrogène. Les armées de ces pays considèrent encore par ailleurs que la propulsion atomique appliquée à certains de leurs navires demeure la seule solution permettant d'assurer autonomie à long terme et discrétion. Y compris dans les pays qui n'en sont pas dotés, l'arme nucléaire enfin reste partout considérée comme un moyen ultime mais incontournable de dissuasion. Le nombre des Etats qui ont suivi ou veulent suivre cette voie ne cesse de grandir, malgré les efforts des Cinq pour empêcher la prolifération dans le cadre du Traité du même nom. Israël, l'Inde, le Pakistan, sans doute la Corée du Nord, sont dorénavant dotés de la bombe. D'autres comme l'Iran, le Brésil, l'Afrique du Sud s'y s'efforcent plus ou moins discrètement.

Tous les programmes politiques affichant l'objectif de sortir du nucléaire se heurteront longtemps à cette réalité. Les industries et les laboratoires nucléaires travaillant pour la défense ne seront jamais fermés, quels que soient les risques pouvant en résulter. Les militaires et les diplomates feront valoir, sans doute à juste titre, qu'un pays comme la France renonçant à sa force nucléaire stratégique pour faire preuve de bonne volonté dans la compétition entre les nations se mettrait ipso facto sous la dépendance de pays n'hésitant pas à utiliser des armes dites conventionnelles tout aussi destructrices. Ce point est régulièrement discuté dans les cercles stratégiques européens. On peut penser que des Etats comme l'Allemagne ou l'Italie qui pour diverses raisons n'ont pas développé de «parapluie nucléaire» seraient heureux de profiter, en cas de menaces majeures, de la dissuasion offerte par la France et la Grande Bretagne, à défaut de l'appui des celle des Etats-Unis, sur lequel les Européens ne peuvent désormais plus compter(11).

Un autre atout considéré de l'énergie nucléaire, qu'elle soit appliquée au militaire ou au civil, est qu'il s'agit d'un «vecteur de puissance». Ce point est généralement peu mis en évidence par les Etats qui souhaitent y faire appel. On désigne par ce terme les technologies dont le développement ou l'utilisation obligent à recruter et former des équipes de haute compétence, sous la responsabilité d'administrations centralisées très proches des gouvernements. Elles nécessitent aussi une forte protection poussant à la mise en place de mesures policières de contrôle inhérentes à une vision régalienne exacerbée de la gestion publique. On peut dire la même chose des technologies ou équipements militaires ou spatiaux, comme de tous les grands réseaux centralisés et fragiles sur lesquels reposent dorénavant les sociétés civiles. Les défenseurs des autres formes d'énergie vantent au contraire leur caractère modulable et décentralisable, présenté comme plus démocratique.

Il est facile de critiquer les technologies de puissance et les administrations fortement organisées et sécurisées qui devraient en principe être chargées de les mettre en oeuvre. Mais le faire serait oublier que le siècle actuel ne sera pas celui de la facilité et de l'improvisation. Ce sera celui des crises. Ne survivront que les organisations ayant un minimum de contrôle et de cohérence dans leurs actions. L'expérience acquise dans la prévention, voire dans la "réparation" des grandes crises naturelles, technologiques, humaines, sera une des conditions de la survie.

Il est donc particulièrement paradoxal que sous l'influence du néolibéralisme développé en Occident, voire dans des pays plus autoritaires comme la Russie et la Chine, les oligarchies au pouvoir veuillent sous-traiter les tâches nécessairement régaliennes de conception et de contrôle des industries et des activités nucléaires à des entreprises privées ne visant que le profit à court terme de leurs actionnaires. Cette même volonté de privatisation est en train de détruire les traditions militaires et aujourd'hui spatiales de pays comme les Etats-Unis ou la Russie. Au mépris de l'intérêt général, les compagnies privées y assurent dorénavant des objectifs stratégiques de court terme. Avec la sécurité des biens et des personnes, elles accaparent des responsabilités jusqu'ici confiées à des administrations militaires et civiles disposant de décennies de tradition du service public.

Il est évident que dans ces conditions, comme le montre l'exemple déplorable du Japon, la gestion «privée» de l'énergie nucléaire ne pouvait que révéler à long terme des failles désastreuses. Certes, répétons-le, le nucléaire est dangereux, mais en confier la responsabilité à des sociétés capitalistes ne peut qu'augmenter sa dangerosité. Une nationalisation s'imposerait, mais le Japon, sous l'influence du gouvernement américain champion du libéralisme l'ayant mis sous tutelle à la fin de la Seconde guerre mondiale, a perdu toutes les références en matière de gestion publique dont il disposait sous l'ancien Empire du Soleil Levant – dont les militaires il est vrai firent un usage désastreux dans les années 1930-1945. En Europe, il y a tout lieu de craindre que la «libéralisation rampante» du gaz, de l'électricité et du nucléaire ne conduise aux mêmes catastrophes.

Avantages et risques spécifiques au nucléaire

Au-delà des considérations de nature stratégiques, qui peuvent pousser à conserver l'industrie nucléaire comme un vecteur de puissance, d'autant plus formateur qu'il est générateur de risques, que peut-on dire des avantages et risques du nucléaire au regard des autres formes d'énergie ?
Le sujet a été amplement débattu. Inutile de s'y attarder ici. En ce qui concerne les avantages, d'une façon générale, même s'il ne couvre qu'une partie des besoins en énergie (essentiellement en électricité), le nucléaire permet aux pays utilisateurs de diversifier le panier énergétique, de faire appel à des emplois locaux pour la maintenance et de générer des revenus pouvant bénéficier aux collectivités locales hébergeant les sites. Pour les pays producteurs de centrales, à ces avantages s'ajoutent les économies sur les redevances versées aux pays pétroliers, l'acquisition d'une capacité exportatrice et une certaine indépendance politique, même s'ils ne disposent pas directement des gisements d'uranium nécessaires.

Au regard, jusqu'à ces dernières semaines, les risques apparaissaient peu inquiétants pouvant au pire se limiter à des accidents maîtrisables. Le principal reproche fait au nucléaire était son coût qui, selon les promoteurs des autres formes d'énergies, notamment les renouvelables, empêchait de développer ces dernières à l'échelle et à la vitesse dorénavant nécessaire. L'argument ne tient pas dans les pays prudents où, comme en Chine, l'appel au nucléaire reste partiel et n'assèche pas les ressources d'investissement consacrées à l'énergie en général.

Mais l'expérience du Japon conduira sans doute à réévaluer les risques au regard des avantages. La menace d'un accident majeur pouvant rayer des régions entières de la carte, dans un pays ou pire encore dans un ensemble de pays, ne serait évidemment pas acceptable, ni par un gouvernement, ni par la communauté internationale. Mais un tel accident pourrait-il se produire, si des précautions et des sécurités particulièrement contraignantes étaient mises en oeuvre?(12) Ce sont à ces questions que devront répondre les pays décidés à fermer leurs centrales ou à ne pas en acquérir, comme les pays décidés à conserver leurs centrales ou à en construire de nouvelles. Rappelons que la construction de dizaines de nouvelles centrales était jusqu'à présent programmée dans l'ensemble du monde.

Le choix d'abandonner le nucléaire


Déchetss nucléairesLe nucléaire n'est pas une énergie comme les autres, en ce sens qu'elle touche aux bases mêmes de l'organisation de la matière-énergie. Elle est potentiellement particulièrement dangereuse en terme de production de catastrophes brutales et visibles, comme en ce qui concerne la gestion du combustible et des déchets. L'utilisation des énergies fossiles présente des risques certains, notamment celui de contribuer à l'effet de serre et donc aux catastrophes découlant du réchauffement climatique. Mais ces risques sont plus diffus et bien plus lointains. On conçoit donc que de plus en plus de personnes demandent l'abandon de l'énergie nucléaire. Cela ne posera pas de problèmes particuliers lorsqu'il s'agira, comme ce sera le cas dans la majorité des pays, de renoncer à construire des centrales. Il faudra seulement trouver des sources d'énergies de substitution, en évitant la facilité consistant à s'en tenir aux combustibles fossiles. Bien plus difficile à faire sera le choix consistant à fermer des centrales existantes. Celles-ci produisent de l'électricité que l'on ne pourra pas obtenir d'autres sources du jour au lendemain. Chacun convient, même les anti-nucléaires les plus convaincus, que renoncer aujourd'hui au nucléaire posera de nombreux problèmes qui ne seront pas résolus avant plusieurs décennies.

Démentellement de la centrale de Niederrachibach en BavièreIl faudra d'abord arrêter et démanteler les centrales les plus dangereuses : centrales vieillies mais encore en service dans les pays développés et dont on repousse sans arrêt l'arrêt, centrales soit vieillies soit mal entretenues dans des pays plus pauvres. Les pires de celles-ci sont les réacteurs de type Tchernobyl encore en activités. Il faudra aussi sécuriser les entrepôts de combustibles et les décharges de déchets ou d'armes nucléaires tels que ceux laissés à l'abandon en Russie. Tout ceci demandera plusieurs années sinon plusieurs décennies, en fonction des moyens affectés. Il faudra par ailleurs que ces mesures s'appliquent à tous les pays potentiellement menacés, sans exception. A quoi bon arrêter une centrale dans un pays donné si une centrale bien plus dangereuse potentiellement demeure en activité dans un pays voisin ?

Il faudra ensuite entretenir les centrales dont l'arrêt progressif aura été décidé, avant que cet arrêt puisse effectivement être concrétisé – avant notamment que de nouvelles formes d'énergie aient pu prendre le relais. Mais comment alors distinguer entre entretenir une centrale en l'état et implémenter progressivement des solutions qui la rendrait plus sûre et donc plus acceptable ?
Dans les deux cas, tous les crédits affectés à ces opérations, dont le chiffrage est très difficile, seront prélevés sur des dépenses que les gouvernements ou les électorats jugeront prioritaires – y compris d'ailleurs sur les investissements destinés aux énergies renouvelables. Dans ces conditions, on peut craindre que les dépenses de sécurisation soient limitées au maximum, ou étalées dans le temps, quitte à espérer que les catastrophes possibles ne se produiront pas...
.
Le choix de conserver le nucléaire

Localisations des centrales nucléaires actuelles en FranceUn tel choix est caricaturé par le terme de «tout nucléaire». Le terme n'a pas lieu d'être. Personne ne prétendra après Fukushima, qu'il faudra ne conserver que le nucléaire comme source d'énergie. Ceci même en France où le nucléaire couvre environ 70% des besoins en électricité. Pour les raisons de sécurité qui viennent d'être évoquées, et quel qu'en soit le coût, il est donc nécessaire de programmer l'arrêt et le démantèlement des centrales les plus vieillies ou situées sur des sites reconnus comme à risques au regard de normes de sécurité renforcées. Ceci aux conditions de délais et de sécurisation que nous avons évoquées dans le paragraphe précédent. Faudrait-il renoncer pour autant à construire de nouvelles générations de centrales ? Les défenseurs de l'énergie nucléaire feront valoir qu'une telle décision représenterait un véritable crime contre la science, privant les générations futures de toutes compétences nucléaires, civiles ou militaires,

Une solution de compromis pourrait consister, non à remplacer toutes les centrales anciennes par des centrales de nouvelle génération, mais à mettre en place, pays par pays ayant fait le choix de conserver une compétence nucléaire, une ou deux centrales présentant le maximum de solutions de sécurité. Est-ce le cas de la solution EPR actuellement proposée par Aréva ? Serait-ce le cas des solutions dites de 4e ou de 5e génération discutées dans les cercles techniques ? Ce n'est pas le lieu d'en traiter ici. Mais il devrait certainement être possible de s'accorder sur des solutions de ce type, à condition qu'elles soient développées par des opérateurs non-commerciaux (autrement dit des services publics non astreints à rentabilité) et sous un contrôle démocratique permanent. Ceci veut dire aussi qu'il faudra parallèlement proscrire chez soi comme chez les autres, par un accord international en ce sens, l'appel à des solutions dites low-cost dans lesquelles certains pays se sont déjà engagés.

Corrélativement, les pays qui conserveront des centrales nucléaires devront accélérer la mise au point des énergies de fusion considérées aujourd'hui comme ne présentant pas tous les risques de la fission, fut-elle de 4e ou 5e génération. Le seul chantier en cours actuellement se trouve en France, à Cadarache, sous le nom d'Iter(13). Nous en avons souvent débattu sur ce site. C'est un honneur pour l'Europe de l'héberger, mais le site géographique lui-même est-il le mieux choisi ? On notera par ailleurs qu'en mettant davantage de moyens dans la recherche consacrée à la fusion nucléaire et à toutes les technologies associées, notamment en ce qui concerne les enceintes en métaux spéciaux destinés à confiner les neutrons rapides qui seront produits, les délais du demi-siècle annoncés pour le réacteur de démonstration Iter pourraient certainement être diminués.

Conclusion. L'Europe doit mettre en place une Communauté européenne de l'énergie

On considère généralement que la construction de l'Europe ne progresse jamais mieux que dans les crises. L'Union européenne, dans son cadre juridique et politique actuel, semble avoir atteint un palier difficile à dépasser. Nous pensons que l'accident de Fukushima au Japon, affectant l'énergie nucléaire et sa gestion dans le monde entier, ouvre une nouvelle période de crise dont le sujet dépasse le seul nucléaire. Il s'agit de l'énergie en général : quels sont les besoins en énergie ? Peut-on les réduire ? A quelles sources fera-t-on appel pour les satisfaire ? Faudra-t-il laisser aux marchés ou confier aux Etats la responsabilité des politiques industrielles et économiques mises en oeuvre ?

Si ces questions se posent sur l'ensemble de la planète (notamment au Japon), elles intéressent aussi particulièrement l'Europe, pauvre en réserves de combustibles fossiles et dont la consommation énergétique par habitant, sans atteindre celle des Etats-Unis, est élevée. Si l'Europe veut diminuer sa dépendance au charbon et au pétrole, si le recours à l'énergie nucléaire n'est plus considéré comme une solution généralisable, il lui faudra développer les énergies renouvelables et les économies d'énergie. Mais ceci ne se fera pas sans d'importants investissements et un véritable changement de société, privilégiant la mutualisation et les échanges.

Les défenseurs du souverainisme en tireront argument pour affirmer que ce changement de société sera plus difficile dans un cadre fédéral que dans le cadre des cultures nationales. Les militants de la construction européenne, dont nous sommes, démontreront au contraire que face aux politiques énergétiques de puissance appliquées par de grands Etats mondiaux, la politique énergétique et plus généralement la transformation de la société européenne en résultant ne susciteront les efforts nécessaires que par une mobilisation européenne d'ensemble, visant une sorte de quasi économie de guerre.

Cependant, si la définition et l'application de cette mobilisation étaient confiées aux autorités européennes actuelles, dont on constate tous les jours les limites face aux égoïsmes nationaux et aux emprises des intérêts économiques non-européens, on pourrait craindre qu'il ne se passe rien. Certains ont proposé de créer une Agence européenne de l'énergie, qui disposerait par traité de fortes compétences supranationales. Ce serait mieux que rien. Mais nous pensons qu'il faudrait aller plus loin, en frappant un grand coup susceptible de marquer les esprits de chacun.

C'est pourquoi nous proposons ici de reprendre une idée qui n'avait pas reçu beaucoup d'échos mais qui nous paraît censée : instituer une véritable Communauté européenne de l'énergie sur le modèle de l'ancienne Communauté européenne du charbon et de l'acier(14) grâce à laquelle la Communauté européenne initiale avait pu expérimenter ses procédures et sa démarche. Dans le champ de ses compétences, cette Communauté européenne de l'énergie serait dotée d'institutions volontairement parallèles à celles de l'Union européenne, mais plus efficaces, notamment en matière de représentativité, de démocratie et de prise de décisions.

En fait, il s'agirait, dans son domaine, de la création d'une véritable Europe fédérale de l'énergie. Elle disposerait ainsi de deux assemblées, l'une représentant l'ensemble de la population, l'autre les Etats et régions, élues au suffrage universel. Le corps électoral élirait également un Président en charge d'un exécutif responsable soit devant les assemblées, soit devant le corps électoral, sur le mode du pouvoir présidentiel à l'américaine. Les citoyens électeurs, via notamment les partis politiques, seraient responsables en dernier ressort des choix de société impliqués. La nécessité de faire appel des processus électoraux obligerait ainsi par la force des choses à faire discuter très largement les grands choix stratégiques. On ne pourrait plus ainsi prétendre que ces choix seraient faits au sein de cercles technocratiques.

Les pouvoirs de la Communauté seraient très étendus, à la hauteur de l'ampleur des questions posées aujourd'hui à l'Europe par la question de l'énergie et de ses utilisations. Leurs
contenus et leur exercice seraient, dans les limites permises par la nécessaire efficacité et continuité des prises de décisions, soumises régulièrement, comme nous venons de le voir, à l'approbation du corps électoral. Les politiques retenues et leur mise en oeuvre effective seraient également discutées en permanence dans le cadre des réseaux sociaux et de l'Internet.

Les compétences de la Communauté recouvriraient d'abord l'ensemble des responsabilités de gestion des sources de production et des réseaux de distribution actuellement assurées par divers organismes publics ou privés au sein de l'Union européenne, en premier lieu les opérateurs et exploitants électriciens et gaziers. Ceux-ci seraient re-nationalisés à 100% et par ailleurs soumis à des contrôles techniques et de gestion indépendants tant des Etats que des intérêts industriels impliqués. Ces contrôles seraient particulièrement poussés en ce qui concerne les réacteurs nucléaires gérés par ces organismes, ou les opérations de démantèlement décidées.

Nous avons vu dans la présente note que les solutions énergétiques d'avenir, entraînant de véritables changements de société, y compris en terme de centralisation des décisions, concerneront le développement des énergies nouvelles et corrélativement, celui des économies d'énergies. On pourrait penser qu'il serait alors contradictoire d'en confier l'impulsion d'ensemble à un organisme central, fut-il élu et fédéral. Mais les politiques correspondantes exigeront la mobilisation de beaucoup de crédits publics et d'épargnes privées locales. Dans cet objectif, nous suggérerions de reprendre et spécialiser le projet de fonds européen d'investissement stratégique présenté dans nos contributions précédentes. Ces politiques demanderont aussi la mise en place de régulations d'ordre public en matières de tarification, de fiscalité, de protection aux frontières, de normes techniques... Tout ceci ne serait pas concevable en dehors d'une autorité européenne unique, ayant à la fois compétence technique, réglementaire et diplomatique.

En ce qui concernera l'avenir, un très important effort de recherche/développement impliquant un grand nombre d'universités, d'organismes publics (tel le CEA en France) et d'entreprises sera nécessaire. Sa coordination devra être assurée au sein de programmes européens spécifiques (beaucoup plus exigeants que ceux relevant actuellement de la recherche européenne financée par la Commission). Des budgets publics communs considérables devront y être affectés. Ce sera dans le cadre de ces actions que devront être financés et décidés les travaux intéressant la fusion et le cas échéant, les 4e et 5 générations de centrales nucléaires civiles - sans exclure la recherche sur des solutions jusqu'à présent délaissées, celle par exemple des réacteurs à fluorure de thorium liquide(15).

Les compétences fédérales de la future Communauté européenne de l'énergie devraient aussi être étendues aux domaines régaliens de la sécurité, de la défense et de la négociation diplomatique avec les puissances extra-européennes. Si les organes de la future Communauté ne se substituaient pas entièrement à ceux en charge de ces questions dans les Etats-membres ou dans l'actuelle Union européenne, ils devraient tout au moins être étroitement coordonnées avec ces derniers.

On remarquera que nous n'abordons pas ici la question clé de l'avenir du nucléaire en Europe, particulièrement en France qui en a fait la source essentielle de production de son énergie électrique. Dans l'esprit de cette note, il s'agirait en effet de questions à traiter dans la cadre des compétences de la Communauté européenne de l'énergie proposée. Notre avis personnel sur la question, en l'absence d'une telle institution, n'aurait guère d'intérêt ici. Nous y reviendrons ultérieurement dans un autre cadre.

Ajoutons que l'exemple donné par l'Europe, grâce à la mise en place et au fonctionnement de la Communauté européenne de l'énergie proposée ici, pourrait provoquer une émulation dans tous les grands pays soucieux eux-aussi de traiter en priorité leur avenir énergétique. Des consensus sur les grandes questions conditionnant l'avenir de la planète et en tous cas celui de l'humanité pourraient peut-être en découler.

***

Les propositions ci-dessus seront certainement accueillies avec le plus grand scepticisme. Comment, sur le plan de la pratique institutionnelle et politique, la Communauté de l'énergie envisagée ici, pourrait-elle coexister avec l'Union européenne ? Les zones de recouvrement de compétences, sinon de conflits, seront en effet nombreuses. Pourra-t-on compter sur le corps électoral pour les résoudre ?

Plus généralement, comment le maquis inextricable des intérêts nationalistes, corporatifs, technologiques, économiques et oligarchiques caractérisant le domaine de l'énergie en Europe pourrait-il tolérer une réforme constitutionnelle ayant pour premier objectif de diminuer les pouvoirs en place ?

Observons seulement que si rien n'était fait, nous pourrions dire adieu à l'avenir même des sociétés européennes. On constatera à nouveau qu'en toutes hypothèses, l'énergie la plus sûre sera celle que l'on économisera.

Notes
(1) Référence. Jean-Paul Baquiast. «Le paradoxe du Sapiens», Editions JP. Bayol, 2010
(2) Chronologiquement, c'est la fission des atomes de métaux hyperlourds naturellement instables tels que le radium et l'uranium qui a été maîtrisée la première. La fusion demandant beaucoup plus d'énergie extérieure a été entreprise ensuite. Elle est loin d'être encore maîtrisée, sauf dans les coeurs de bombes nucléaires ou en laboratoire dans de très petits volumes assurant le confinement et la pression nécessaire.
(3) Laurence C. Smith, «The World in 2050», Dutton, 2010.
(4) Dont Martin Rees (http://www.automatesintelligents.com/biblionet/2003/avr/rees.html), James Lovelock (http://www.automatesintelligents.com/biblionet/2009/mar/lovelock.html ) et Jacques Blamont (http://www.automatesintelligents.com/biblionet/2004/sep/blamont.html), dont nous avions présenté les travaux.
(5) Interview de C. De Duve : http://www.newscientist.com/article/mg20928015.400-biology-nobelist-natural-selection-will-destroy-us.html
(6)Voir le livre d'Hervé Kempf, «L'oligarchie c'est fini » qui résume bien cette question déterminante des oligarchies prenant en mains l'évolution de l'ensemble de la planète (http://www.automatesintelligents.com/biblionet/2011/mar/kempf.html)
(7)Wikipedia : http://fr.wikipedia.org/wiki/Ressources_et_consommation_%C3%A9nerg%C3%A9tiques_mondiales.Voir aussi l'OCDE : http://www.observateurocde.org/news/fullstory.php/aid/433/_C9nergie_mondiale_.html
(8) L'Agence internationale des énergies renouvelables (Irena, http://www.irena.org/) a été créée au sein de l'Onu en janvier 2009, sur une initiative allemande. Elle compte quelque 75 membres. Elle vient de tenir sa première assemblée générale les 4 et 5 avril à Abou Dhabi. Lieu de nombreuses tensions, elle a été en effet récupérée par l'émirat pétrolier, avec l'appui des Etats-Unis et de la France, ce qui compromet sa légitimité. L'Allemagne y reste présente, par le Centre d'innovation et de technologie implanté à Bonn.
(9) Voir notre article : Gaz et huile de schiste, catastrophe environnementale annoncée ?
(10) On étudiera le scénario présenté par l'association NegaWatt qui insiste à juste titre non seulement sur l'appel aux énergies renouvelables, mais aussi sur les économies d'énergie, sous la double forme de la sobriété énergétique et de l'efficacité énergétique. Mais telles qu'exposées par cette association, ces différentes solutions ne semblent accessibles dans l'immédiat qu'à des pays ayant déjà une forte expérience industrielle et citoyenne, au rang desquels en Europe l'Allemagne et les pays scandinaves. NegaWatt http://www.negawatt.org/.
(11) Fait significatif, en avril 2011, fla Grande Bretagne vient de proposer à la France d'étudier une mise en commun des forces nucléaires stratégiques des deux pays. Cela est présenté sous l'angle des économies d'échelle. Mais on notera qu'aucun des deux pays n'envisagerait pour cette raison de renoncer à leur force de frappe.
(12)
Signalons à cet égard le calcul de Paul Jorion (http://www.pauljorion.com/blog/) :
"J’ai proposé à la discussion la question suivante; Quelle est la probabilité durant une année quelconque qu’il y ait un accident nucléaire majeur, connaissant la probabilité d’accident majeur par réacteur et le nombre de réacteurs en service ?
Comme je n’ai plus fait de combinatoire depuis longtemps, je demandais aux commentateurs de me corriger si nécessaire. L'un d'eux m’assure que ma formule est correcte, je la reproduis donc ici.
· R = risque d’accident majeur durant une année x
· p = probabilité d’accident sur une année pour un réacteur
· n = nombre de réacteurs
R(n) = 1 – (1-p)^n
Disons que le risque pour un réacteur est d’un accident majeur tous les cinq mille ans. S’il n’y a qu’un réacteur au monde, le risque d’un accident majeur pour une année x est de 0,2 %o. Si j’ai 443 réacteurs en service dans le monde – ce qui est apparemment le cas aujourd’hui – quel est le risque d’un accident majeur sur une année, et par exemple, sur l’année en cours ?
R(443) = 1 – (0,9998)^443 = 8,48 %
On voit donc que même avec une probabilité d’accident qui paraît extrêmement faible : un accident seulement tous les 5 000 ans pour un réacteur, on débouche pourtant sur une probabilité de 8,48 % d’accidents majeurs par an si l’on a 443 réacteurs en service, c’est-à-dire un niveau très loin d’être négligeable."

(13) Iter : http://www.iter.org
(14) CECA : http://fr.wikipedia.org/wiki/Communaut%C3%A9_europ%C3%A9enne_du_charbon
_et_de_l%27acier

(15) sur les RFTL ou LFRT, voir http://www.admiroutes.asso.fr/larevue/2011/117/thorium.htm

Post-scriptum au 13/04/2011
* Voir un article précédent de Alain Granjean signalé par un lecteur http://alaingrandjean.fr/2011/03/29/l%E2%80%99equation-climat-energie-apres-la-catastrophe-nucleaire-de-fukushima/
* Vois aussi le site Manicore du très médiatique Jean-Marc Jancovici http://www.manicore.com/

Repost 0

Articles Récents

Liens