Suivre ce blog
Administration Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

22 janvier 2015 4 22 /01 /janvier /2015 20:54

Editions Matériologiques 2014

La présentation de cet ouvrage est proposée ici dans le cadre d'un entretien avec Michel Gondran, à partir de questions posées par Jean-Paul Baquiast (ici AI)

23/01/2015

Introduction par l'éditeur

Depuis le congrès Solvay de 1927, le point de vue de Bohr, Born, Pauli et d’Heisenberg s’est imposé à toute la science contemporaine contre celui d’Einstein, de Broglie et de Schrödinger? : il faudrait dorénavant renoncer au déterminisme et à l’existence d’une réalité objective, mais aussi à la possibilité d’une compréhension du monde physique.

L’objectif principal de ce livre est de faire connaître l’onde pilote de Broglie-Bohm, une interprétation alternative qui conserve déterminisme et réalisme et qui faisait dire à John Bell : « Pourquoi l’image de l’onde pilote est-elle ignorée dans les cours? ? Ne devrait-elle pas être enseignée, non pas comme l’unique solution, mais comme un antidote à l’autosatisfaction dominante? ? Pour montrer que le flou, la subjectivité, et l’indéterminisme, ne nous sont pas imposés de force par les faits expérimentaux, mais proviennent d’un choix théorique délibéré? ? »

Ce livre étudie les limites de l’onde pilote de Broglie-Bohm et en cherche un dépassement. La « ?théorie de la double préparation? » proposée par Michel et Alexandre Gondran dépend des conditions de préparation du système quantique et correspond à une réponse à la « ?théorie de la double solution » que de Broglie a recherchée toute sa vie. Elle permet de mieux comprendre les points de vue d’Einstein, de Broglie et de Schrödinger.

Enfin, les auteurs montrent qu’il existe des interprétations de la relativité générale compatibles avec la théorie de la double préparation. Elles permettent une vision commune entre mécanique classique, mécanique quantique et relativité générale dans un espace à quatre dimensions.

Michel Gondran est mathématicien et informaticien, ancien conseiller scientifique d’EDF et ancien maître de conférences à l’École polytechnique en mathématiques appliquées. Alexandre Gondran est enseignant-chercheur en mathématiques et informatique à l’École nationale de l’aviation civile à Toulouse.

Pour en savoir plus

* Courte présentation dans la Jaune et la Rouge, revue de l'Ecole Polytechnique française

* Rappel des grandes lignes d'un entretien précédent, sur ce site, avec Michel Gondran, daté du 3 décembre 2009

Entretien

AI Cher Michel Gondran, merci d'avoir accepté de nous dire quelques mots concernant votre livre. Nous avions parlé de votre démarche dans un entretien précédent, que nous proposons à nos lecteurs de lire ou relire. Beaucoup d'éléments en demeurent d'actualité. Cependant La Mécanique Quantique, écrite avec votre fils, que vous venez de faire éditer, représente si l'on peut dire un accomplissement, et mérite donc quelques commentaires de votre part.

Sur la forme et la méthode

1. Il ne s'agit pas à proprement parler d'un livre grand public, sur le modèle dit de la popular science très utilisé par des scientifiques anglo-saxons. Quel lectorat visez vous?

MG pour Michel Gondran. La partie historique , les 80 pages sur la mécanique quantique et 50 pages sur la relativité, est lisible par tout public (popular science). Cette histoire des Sciences est alors réellement utilisé dans le reste du livre pour construire une solution. Cette partie s'adresse à un "public motivée" (niveau LaRecherche/Pour La Science) , et en particulier à tout scientifique ou lecteur curieux en quête de clés pour comprendre les lois de la nature. Il devrait être indispensable aux étudiants, chercheurs et enseignants en physique et en histoire des sciences.

2. AI. Pour être plus précis, nous voyons dans le livre deux types de contenus différents, mais se complétant. Le premier est à la portée de tout lecteur s'intéressant à l'histoire de ce tournant capital de la science. Il comporte un recueil d'une très grande richesse, traduit en français, de nombreuses correspondances échangées entre les pères de la mécanique quantique, ainsi qu'avec Einstein et ses élèves. Comment avez vous fait pour vous procurer cette documentation?

MG. J 'ai mis une dizaine d'années avec mon fils pour réunir la documentation. On la trouve en partie dans les nombreux livres de souvenirs et/ou de philosophie des pères fondateurs de la mécanique quantique, comme les livres de Louis de Broglie, les lettres entre Einstein et Born, les Oeuvres choisies d'Einstein présentés par Françoise Balibar, Olivier Darrigol et Bruno Jech, les actes du congrès Solvay de 1927, "La parti et le tout" d'Heisenberg....et aujourd'hui Internet aide beaucoup pour compléter sa bibliographie en rendant accessible les travaux d'un grand nombre d'historiens des sciences comme Michel Paty, Olivier Darrigol et Michel Blay.

Cependant l'originalité de notre historique sur la mécanique quantique par rapport aux historiques habituellement présentés dans les livres de cours, est que nous mettons en avant les points de vue d'Einstein et de de Broglie au même niveau que ceux de Bohr, Born, Heisenberg et Pauli de l'Ecole de Copenhague. Ce sont ces points de vue d'Einstein et de de Broglie qui ont été combattus et oubliés que nous rappelons avant de les réhabiliter dans le reste du livre.

3. AI Dans le même temps, vous procédez à un rappel indispensable, vu la difficulté de la question, de ce que furent les découvertes de la relativité einsténienne et de la MQ. Les lecteurs, notamment les enseignants, vous-ont-il fait part de l'intérêt qu'ils devraient trouver sous ces angles à votre livre?

MG. Beaucoup de lecteurs, et en particulier les enseignants, nous ont fait part de l'intérêt de nos citations. Deux groupes de citations ont particulièrement surpris et donner à réfléchir les lecteurs spécialistes du sujet: Les citations de Popper sur l'expérience EPR et la relativité et les citations d'Einstein sur l'éther de la relativité générale.

En mécanique quantique, les citations de Popper de 1982 distinguent l'expérience EPR initiale d'Einstein ne faisant intervenir que les positions et les vitesses de l'expérience EPR-B de Bohm et Bell ne faisant intervenir que les spins; et Popper propose une interprétation nouvelles des expériences d'Aspect de l'expérience EPR-B en la considérant comme une expérience critique validant l'existence d'un référentiel privilégié. Ce référentiel est analogue à celui proposé par Poincaré en 1909 et en contradiction avec le point de vue d'Einstein de 1905 sur la relativité restreinte.

Cependant Einstein revient sur son point de vue dans diverses citations de 1916, 1920, 1924 en déclarant la nécessité d'un éther pour la relativité générale; et se trouvant ainsi en accord avec le point de vue de Poincaré et l'interprétation de Popper de l'expérience EPR-B.

Ces points de vue de Popper, d'Einstein et de Poincaré sont éludés dans tous les livres de cours sur la relativité; on n'y trouve que le point de vue initial d'Einstein de 1905 pour lequel l'existence d'un éther n'est pas nécessaire pour la relativité restreinte! et non son point de vue de 1920: "pour la relativité générale, l'existence d'un éther est nécessaire".

De plus, nos travaux ont déjà été réutilisé dans l'enseignement du secondaire ; notamment un exercice du bac scientifique de physique en Amérique du nord de cette année reprend notre description et nos simulations de l'expérience des fentes de Young réalisée avec des électrons (cf. http://labolycee.org/2014/2014-AmNord-Exo1-Sujet-DualiteOndeParticule-6pts.pdf).

4. AI Comptez vous mettre en place un site internet interactif d'échanges sur le livre?

Oui, nous préparons avec Alexandre un site pour présenter les points importants du livre et proposer les articles scientifiques sur lesquels il est bâti. Nous mettrons aussi en place un blog d'échanges avec les lecteurs les plus intéressés.

5. AI. L'essentiel de l'ouvrage est cependant constitué d'analyses à proprement parler scientifiques, s'appuyant sur des ressources mathématiques assez ardues. Les mathématiques de la MQ et de la relativité ont toujours été présentées comme les plus difficiles qui soient. Aviez vous d'emblée les bases nécessaires, compte tenu de vos activités précédentes, ou avez vous du être obligé de les acquérir? Dans ce cas, de quelle façon?

MG. Pour la mécanique quantique, je maitrisais une mathématique nouvelle, l'analyse Minplus. C'est une théorie mathématique que j'ai développée dans les années 1990-1995, à la suite de Maslov. Elle permet d'étudier les problèmes non linéaires de la physique par des approches linéaires. Le principe est de remplacer la structure de corps classique sur les réels par la structure algébrique Minplus où l'addition ordinaire est remplacée par l'opération Min et la multiplication ordinaire par l'addition. L'équation d'Hamilton-Jacobi qui donne les trajectoires des particules en mécanique classique est non linéaire dans l'algèbre classique avec l'addition et la multiplication ordinaire. Dans la structure algébrique Minplus, l'équation d'Hamilton-Jacobi devient linéaire. Les intégrales habituelles sont remplacées par des intégrales Minplus.

En particulier, on peut montrer que "l'intégrale de chemins de Feynman" va tendre vers une "intégrale de chemins Minplus", si on fait tendre la constante de Planck vers zéro. C'est l'existence de cette nouvelle mathématique qui m'a encouragé à m'attaquer aux bases de la mécanique quantique.
Pour la mécanique quantique relativiste, j'ai découvert l'intérêt des algèbres de Clifford. Pour la relativité générale, il a fallu acquérir les bases nécessaires.

D'un autre point de vue, les modèles mathématiques utilisés pour la mécanique quantique sont plus complexes à maîtriser car ils sont abstraits ; et cette abstraction est la base de la l'interprétation habituelle (interprétation de Copenhague), dans le sens où le modèle mathématique ne représente pas la réalité mais est simplement un outil pour prédire ce que les instruments de mesure sont capable de mesurer. L'interprétation de Broglie-Bohm redonne du sens aux équations mathématiques car dans cette interprétation augmentée, elles décrivent la réalité ; en rétablissant les trajectoires, les équations ont un autre sens, plus concret; on peut faire des images de la physique quantique. En quelque sorte, on remet un peu les pieds sur terre.

6. AI. Vous remerciez en introduction un certain nombre de scientifiques. Avez vous discuté avec eux vos idées en profondeur, ou vous êtes vous borné à des échanges de généralités? Plus généralement, quel accueil la communauté scientifique fait-elle pour le moment à votre livre?

MG. Nous n'avons remercié en introduction que les scientifiques ou amis qui ont relu une partie de l'ouvrage et nous ont fait des remarques. Nous avons discutés nos idées avec un certain nombre de grands scientifiques spécialistes de la mécanique quantique comme Jean Dalibard, Roger Balian, Gilles Cohen-Tannoudji, Franck Laloé ou Bernard d'Espagnat. Cependant, bien que ouvert à la discussion, ces spécialistes ne sont pas d'accord avec notre point de vue. Nous ne les avons pas remercié pour ne pas induire le lecteur sur leurs positions.

Ces spécialistes, comme les lecteurs dont on a eu le retour, s'accordent sur l'intérêt de nos simulations de toutes les expériences fondamentales de la mécanique quantique ainsi que sur le choix et l'intérêt de nos citations.

7. AI. Vous faites régulièrement allusion dans le livre à des logiciels vous ayant permis de tester vos scénarios. D'où provenaient ces logiciels? Pourraient-ils être mis à la disposition de lecteurs curieux?

MG Tous les programmes informatiques qui nous ont permis de réaliser les simulations numériques de notre livre et de nos articles ont été développé par Alexandre en langage C pour l’essentiel. Nous avons cherché des solutions explicites pour ne pas avoir à résoudre des équations aux dérivées partielles par discrétisation de l'espace. Nous mettrons les codes sources de nos programmes à la disposition sur le site.

8. AI. Vos travaux vous ont conduit à retrouver ceux, malheureusement mal connus aujourd'hui, du physicien français Louis de Broglie. Avez vous eu des contacts avec sa famille et s'est-elle intéressée à la réhabilitation à laquelle vous vous êtes livré? Sur ce point, ne pensez vous pas, comme certains le disent, que Louis de Broglie ait été mal reçu par l'establishment scientifique non francophone du fait de sa mauvaise pratique de l'allemand et de l'anglais.

MG. Je n'ai pas eu de contact avec la famille Louis de Broglie, mais quelques uns avec la fondation Louis de Broglie. J'ai en particulier publié deux articles dans les Annales de cette fondation.

En 1923 au moment de sa thèse et en 1927 au moment du congrès Solvay qui a été si décisif pour asseoir l'interprétation de la mécanique quantique, la science mondiale se faisait encore en français. Les rapports des congrès Solvay de 1911 et de 1927 sont en français. Celui de 1927 n'a été traduit en anglais qu'en 2009!

Je ne pense pas que de Broglie ait été mal reçu par l'establishment scientifique non francophone du fait de sa mauvaise pratique de l'allemand et de l'anglais. Comme nous le rappelons dans la partie historique, il s'est rallié de 1928 à 1952 à l'interprétation de Copenhague. Son retour vers une interprétation réaliste et déterministe à partir de 1952 n'a pas été compris. Il en était bien conscient quand il écrit en 1961 sur sa direction de recherche et le regard de l’histoire : « L’avenir, un avenir que je ne verrai sans doute pas, tranchera peut-être la question : il dira si mon point de vue actuel est l’erreur d’un homme déjà assez âgé qui reste attaché aux idées de sa jeunesse ou, au contraire, s’il traduit la clairvoyance d’un chercheur qui a réfléchi pendant toute sa vie sur le problème le plus fondamental de la physique contemporaine ». Et il ajoute en 1966: « Renoncer à chercher des liens de causalité unissant les phénomènes décelables me paraît ne pouvoir être qu’une attitude provisoire... L’on doit toujours penser qu’un nouvel effort nous permettra, un jour ou l’autre, de pénétrer davantage dans l’analyse détaillée des liaisons causales qui assurent la succession des phénomènes physiques ».

L'objet de ce livre a été de poursuivre dans la direction qu'il proposait.

Même dans le cas où l'interprétation de de Broglie serait fausse (dans le sens où elle ne représenterait pas la réalité, car celle-ci serait voilée, comme le dit d'Espagnat, c'est-à-dire non accessible directement, mais seulement périodiquement, au moment de la mesure), la solution de de Broglie reste et restera toujours une solution épistémologiquement valable et qui doit (et devra) être enseignée car c'est la seule, actuellement qui explique simplement la statistique des résultats ainsi que le modèle sous-jacent à cette statistique, qui lève le voile en quelque sorte.


Sur le fond

9. AI Page 297 du livre, vous dites avoir obtenu une interprétation des résultats expérimentaux que personne ne discute, ceux de la MQ et ceux de la relativité, interprétation qui serait commune à celles de ces deux grandes « théories » scientifiques, ainsi qu'à la physique classique. Il s'agit du point du livre qui nous paraît essentiel. Sans forcer sur les mots, nous pourrions qualifier ce résultat de révolutionnaire, compte tenu des différences jusqu'ici jugées radicales qui opposent les diverses interprétations. Pourriez vous nous résumer cette interprétation?

.MG. Pour réconcilier les deux révolutions de la physique fondamentale du xxe siècle, la mécanique quantique et la relativité générale, il est nécessaire au minimum de les rendre cohérentes entre elles. On ne peut en effet se contenter de considérer comme simultanément valables deux théories
qui ont des visions radicalement différentes sur le fonctionnement de l’univers : la relativité générale considère en effet le monde comme déterministe et réaliste, tandis que la mécanique quantique le considère comme non déterministe et non réaliste.

Surmonter cette contradiction nécessite le rapprochement de ces visions de l’univers, soit en rendant la relativité générale non déterministe et non réaliste, soit en rendant la mécanique quantique déterministe et réaliste. La plupart des approches actuelles pour construire la relativité quantique consistent à rendre non déterministe et non réaliste la relativité. Elles ont échoué pour le moment. Nous avons montré dans ce livre que l’autre alternative était possible : rendre déterministe et réaliste la mécanique quantique sans en changer les équations. Nous proposons en effet deux interprétations déterministes et réalistes possibles de la mécanique quantique: l'interprétation de " l'onde pilote de Broglie-Bohm" et la "théorie de la double interprétation".

Pour construire une gravité quantique, nous montrons au chapitre 10 qu’il existe une interprétation de la relativité générale compatible avec nos deux interprétations déterministes et réalistes de la mécanique quantique: c'est une interprétation de la relativité générale admettant un référentiel et un temps privilégiés et prolongeant l' interprétation de Lorentz-Poincaré de la relativité restreinte. Ce point de vue correspond au retour d'un certain éther pour la relativité générale et il est en accord celui d'Einstein de 1916, 1920 ("pour la relativité générale, l'existence d'un éther est nécessaire"), 1924 et avec l'interprétation de Popper de l'expérience EPR-B.

Nous avons ainsi montré qu'il peut exister une interprétation commune aux mondes classique, relativiste et quantique.

Le réel nous est donc doublement voilé. Voilé en mécanique quantique, comme le pense d’Espagnat, car la fonction d’onde est une variable cachée (non directement mesurable) non locale, mais aussi voilé en relativité car le temps et l’espace que nous mesurons ne sont qu’un temps et un espace apparents, l’espace vrai et le temps vrai du référentiel et du temps privilégiés nous étant (encore) inconnus.

Bien qu’encore partielles, ces propositions obligent à reconsidérer les problèmes épistémologiques posés par la mécanique quantique et la relativité.

10. AI Nous faisons régulièrement écho sur ce site aux recherches de physiciens, dont certains sont français, cherchant à dépasser les interprétions classiques tant de la relativité que de la MQ dans des synthèses pouvant contribuer à l'étude de la gravitation dite quantique et au delà, aux hypothèses relatives aux multivers. Ces travaux ont une retombée immédiate en cosmologie, mais ils intéressent aussi la physique dite microscopique. Pensez vous que l'interprétation que vous venez de résumer pourrait s'intégrer dans certaines de ces recherches.

MG. La plupart des approches actuelles pour construire la relativité quantique consistent à prendre l'alternative de rendre non déterministe et non réaliste la relativité. C'est l’autre alternative que nous suivons et elle ne peut donc pas s'intégrer dans les recherches que vous citez.

Par contre, l’introduction d’une gravité quantique fondée sur un référentiel privilégié change complètement le cadre de référence de la cosmologie. Tous les problèmes actuels en cosmologie (énergie sombre, matière noire, expansion de l’univers, constante cosmologique, etc.) se posent dans ce cadre d’une manière radicalement différente. Des solutions simples et entièrement nouvelles sont alors possibles. C’est une des voies de validation de cette approche.

11. AI. Dans notre entretien précédent, vous disiez ne pas pouvoir donner de sens à ce que l'on nomme couramment un q.bit, et a fortiori aux applications de la MQ à la cryptologie et aux calculateurs quantiques. Néanmoins dorénavant, ce thème est souvent évoqué. Ainsi la Chine vient d'annoncer à la dernière Conference on Quantum Communication, Measurement and Computing (QCMC 2014) son intention de proposer un réseau mondial utilisant des communications quantiques pour 2030. S'agit-il d'un simple effet d'annonce?

MG. En information quantique, nous distinguons deux domaines, l'utilisation de l'intrication pour détecter une intrusion dans une communication et l'ordinateur quantique parallèle basé sur le qubit et l'intrication. Notre critique s'adresse seulement à l'ordinateur quantique parallèle.

Nous avons en effet montré qu'il y a un problème d'existence pour le qubit construit sur le spin. Dans notre interprétation de la mécanique quantique, la fonction d’onde ne suffit pas pour représenter un système quantique et il faut ajouter la position de la particule dans sa fonction d’onde ; une particule ne donnera qu’une valeur du spin, et donc du qubit. Pour obtenir les deux états du qubit, il faut donc utiliser physiquement au moins deux particules, l’une qui correspond au spin + et l’autre qui correspond au spin - .

Pour nous, le qubit individuel n’existe pas car il faut ajouter la position de la particule à la fonction d’onde ; seul existe le qubit statistique, comme celui de l’ordinateur de Chuang. Notre interprétation est en accord avec les résultats expérimentaux des différents ordinateurs quantiques de la littérature. En effet, les seuls ordinateurs quantiques qui ont implémenté l'algorithme de Shor avec succès sont des ordinateurs basés sur un qubit statistique, c'est à dire un qubit réalisé avec un très grand nombre d'objets quantiques individuels: cent millions de molécules actives diluées dans un solvant pour la technique développée par Chuang et ses collaborateurs utilisant la RMN (résonance magnétique nucléaire), un milliard d'atomes d'aluminium pour les qubits solides basés sur la technique des nanojonctions Josephson.

Les résultats de la RMN étant statistiques, on a alors une explication très naturelle de la chute par deux de l’intensité du signal de l’ordinateur de Chuang. C'est la raison de l' abandon de cette approche par Chuang. Dans ces conditions, l’ordinateur quantique parallèle ne fait pas mieux qu’un ordinateur classique non parallèle.

La faisabilité de l’ordinateur quantique parallèle dépend donc de l’interprétation de la mécanique quantique : faisable dans l’interprétation de Deutsch et des univers parallèles de Hugh Everett, improbable, voire impossible, dans l’interprétation que nous proposons.

12.AI. Enfin, pour conclure, avez vous l'intention, soit seul soit avec votre fils, de donner des prolongements à votre livre? Pour reprendre le propos introductif, nous sommes certains qu'une version sur le modèle de la popular science trouverait de nombreux preneurs.

Merci pour cette demande, mais nous sommes un peu tiraillé de deux cotés. Nous allons d'abord réaliser le site internet, et nous aviserons avec les réactions des lecteurs.

Partager cet article

18 janvier 2015 7 18 /01 /janvier /2015 19:48


Jean-Paul Baquiast 18/01/2015

Cette note, compte tenu des circonstances durant lesquelles elle a été écrite, est nécessairement sommaire. L'auteur s'est borné à présenter quelques pistes qui, pour bien faire, mériteraient d'être discutées. Mais le temps manque. Automates intelligents

Il est désormais courant de considérer qu'Internet incarne la contre-culture, tant en Europe que dans des Etats considérés comme « autoritaires »: Russie, Chine notamment. Les limites que cherchent à imposer ces Etats à Internet ou à leurs utilisateurs en seraient d'ailleurs la preuve. Les praticiens d'Internet que nous sommes savent cependant que l'affirmation, à supposer qu'elle corresponde à un grand fond de vérité, mérite cependant d'être nuancée.

Nous nous bornerons ici à une analyse de la situation observable en France, chaque pays pouvant avoir des cultures et des contre-cultures différentes. Il est difficile de les juger à partir d'observations plus larges qui seraient nécessairement limitées au peu de choses que l'on peut connaître en France, à défaut d'être un professionnel de la sociologie comparée.

Précisons d'emblée que nous ne mentionnerons pas dans cet article les usages que font de l'Internet les organisations criminelles et terroristes. Il pourrait être tentent d'assimiler ces organisations à des formes de contre-culture. Elles représentent au contraire des formes modernes, utilisant les technologies numériques, de « cultures » connues depuis la fin du 19e siècle, qui relèvent du crime et de la terreur.

1. En quoi consiste la « culture » à laquelle s'opposerait une contre-culture issue de l'Internet?

Il s'agit de toutes les cultures « officielles », c'est-à-dire développées par des institutions bien établies, héritées d'époques antérieures et encore reconnues comme légitimes par une majorité des citoyens. Il n'est pas question ici de les condamner systématiquement, mais seulement d'évoquer les domaines dans lesquels une contradiction, prenant la forme de diverses contre-cultures, peut s'imposer (voir 2. ci-dessous).

* Les cultures correspondant à ce que l'on pourrait appeler l'expression de l'ordre public dans la société française. Elles existent aussi dans d'autres pays européens, et d'une façon bien plus minoritaires, dans d'autres parties du monde. Mais en France, elles sont véritablement devenues inséparables de l'âme de la nation, forgée au fil de l'histoire. D'où le fait que les contester provoque en général l'indignation de la population. Elles incarnent le pouvoir de l'Etat, des administrations et des services publics. Elles expriment aussi les valeurs que ces institutions ont la charge de protéger, liberté, égalité, fraternité , laïcité, parité entre les sexes...

* D'autres cultures sont beaucoup plus circonstancielles. Elles doivent être critiquées car elles sont souvent imposées par des intérêts économiques minoritaires mais puissants s'étant arrogé des droits aux dépens de minorités dominées. Elles exercent cependant une influence considérable sur la société, vu les modes de vie consuméristes devenus majoritaires. Il s'agit en premier lieu de la culture du capitalisme libéral.

Le capitalisme libéral ne peut être globalement contesté aujourd'hui, car il est le cadre dans lequel s'exerce l'activité des entreprises « privées » de toutes tailles. Sur un plan plus politique, il s'exprime par le concept de libéralisme, ou liberté d'entreprendre et d'exercer des activités économiques, dans le cadre de lois sociales, fiscales et visant à la protection du milieu, lois déterminées par l'Etat (soit dans le cadre national, soit dans le cadre européen).

* Mais le libéralisme a aujourd'hui dégénéré en néo-libéralisme, économique et financier. La France, immergée dans la « mondialisation » est soumise au jeu de grandes entreprises internationales ou multinationales. Celles-ci ne sont pas nécessairement illégitimes, mais elles imposent des cultures, aujourd'hui anglo-saxones, demain peut-être chinoises, souvent en contradiction avec les cultures économiques et sociales nationales.Plus graves, parmi ces entreprises internationales, se trouvent les entreprises financières, souvent spéculatives, dominant aujourd'hui toute la société et tentant d'y imposer leur propre culture. On parle à leur égard du pouvoir des Banques et des Bourses, dont le centre se trouve aujourd'hui à Wall Street.

* Il faut ajouter depuis quelques années à ces entreprises internationales imposant leurs cultures, celles que l'on qualifie de « géants du web », toutes anglo-saxonnes. Elles ont pénétré en profondeur les cultures nationales de tous les pays, en y rendant quasiment obligatoire des mots d'ordre vantant les aspects quasiment civilisationnels sur lesquels repose leur commerce: transparence obligé, saturation des possibilités de réflexion critique, promotion forcené de biens et services gros consommateurs de ressources, de temps et souvent inutiles, volonté de mise en place finalement, à l'exemple de Google, d'un « cerveau global » dont elles seraient les centres décisionnaires.

Les « réseaux sociaux » fournis gratuitement ou presque à la population par ces entreprises sont aujourd'hui sur l'Internet un media quasi obligé pour une expression souvent conditionnée des citoyens (voir 2. ci-dessous)

* Les entreprises commerciales ne s'interdisent pas d'envahir le domaine de l'art, produisant des formes d'art dites modernes ou contemporaines (Art contemporain), qui sont le plus souvent à finalité commerciale

* Les médias papier, télévisuels ou leurs versions numériques sont généralement considérés comme un troisième pouvoir, à coté du pouvoir étatique et du pouvoir commercial. Ils diffusent en priorité un culture favorables à ces derniers, dont ils tiennent une partie de leurs ressources. Les gouvernements font largement appel à eux pour faire connaître leurs objectifs et le plus souvent vanter leur politique. Mais c'est désormais la publicité commerciale qui inspire, directement ou indirectement, une grande partie des médias. Elle est omniprésente et réduit de plus en plus les possibilités d'exercice d'un journalisme critique et indépendant.

* Il faut mentionner aussi aux sources de la culture française l'influence que continuent à exercer les grandes religions, catholicisme, protestantisme, judaïsme et les valeurs que celles-ci promeuvent, ne fut-ce que pour renforcer l'influence qu'elles conservent sur les populations, malgré un recul de la fréquentation des lieux de culte. L'islam, plus récent, n'impose sa culture que dans les quartiers urbains à forte immigration. Mais il est en plein développement du fait de la difficulté à s'intégrer des populations immigrées. Les valeurs religieuses sont en place depuis des époques reculées et continuent à garder une audience, malgré une baisse de la croyance particulièrement forte en France. Elles correspondent à des besoins d'origine anthropologique encore très répandus.

* A l'écart voire le plus souvent à l'opposé des cultures religieuses, s'est depuis l'époque des Lumières, développée en France, plus peut-être que d'autres pays, une culture de la rationalité, entraînant une forte présence de la culture scientifique et dans certains milieux universitaires et industriels, de la recherche scientifique. Ce trait a beaucoup bénéficié, au début de la 3e République, des efforts gouvernementaux pour promouvoir une instruction publique mise au service des valeurs de la raison critique, de la connaissance et de la laïcité.

* Enfin, nul ne peut nier que les cultures officielles, même en France, reposent sur divers besoins collectifs profonds susceptibles de conduire, en conjonction avec d'autres intérêts plus immédiats, aux conquêtes et aux guerres. Il s'agit de s'affirmer en tant que groupe, se garder de l'étranger sinon l'exclure, rechercher un minimum de pouvoir sur cet étranger. Sous des formes plus pacifiques, ces besoins animent les sentiments nationaux et le patriotisme. Les cultures correspondantes sont présentes partout. Elles ont toujours contribué aux conquêtes et aux guerres.

Des cultures officielles qui font de plus en plus appel à Internet

Depuis quelques années la forte pénétration de l'Internet dans la société française, a servi à l'affirmation de toutes les cultures officielles. Ceci en général pour le meilleur mais souvent aussi pour promouvoir les intérêts immédiats souvent très contestables de ceux qui s'incarnent dans ces cultures. Il ne s'agit pas ici d'évoquer le fait que tous les agents administratifs et économiques utilisent désormais l'Internet pour leur gestion ou les relations avec leurs correspondants, ce qui leur est devenu indispensable, mais le fait qu'ils s'en servent pour répandre dans la population et faire partager leur image et une appréciation favorable de leur action.

* Les pouvoirs publics, en principe chargés de promouvoir la culture du service public, de l'Etat, de la Nation, ont mis longtemps à savoir utiliser l'Internet, en évitant ce qui serait assimilé par l'opinion à de la propagande. Mais désormais ils le font, bien qu'encore parfois maladroitement.

* Les entreprises commerciales, par contre, ont fait dès l'origine de l'Internet appel à lui pour diffuser .de façon souvent envahissante leur image de marque et les publicités pour leurs produits.

* Le troisième pouvoir, celui des médias, mentionné ici, fait montre d'une attitude ambiguë face à l'Internet. Dans la mesure où celui-ci héberge désormais une grande quantité d'auteurs et de blogs qui veulent les concurrencer voire les remplacer, les médias, qu'ils soient d'ailleurs sur supports classiques ou en ligne, ont tenté longtemps de se refermer sur leurs publics, sans guère tenir compte du monde des réseaux. N'ayant pu cependant le faire totalement, ils ont toléré l'expression d'informations et d'idées non nécessairement compatibles avec les leurs, en leur ouvrant des rubriques interactives en ligne. Mais les débats sur ces rubriques sont contrôlés (modérés) par eux, de façon à ce que ce soit l'image et la culture du média qui en sorte gagnante.

* Les religions ont suivi une évolution voisine. Longtemps hostiles à l'expression de leur culture sur l'Internet, de peur de perdre le contrôle, elles l'utilisent de plus en plus systématiquement comme support culturel et missionnaire. Elles suivent en cela l'exemple des églises évangéliques américaines, inspirées par leur proximité avec la Silicon Valley, patrie de l'Internet. Récemment, en France, si l'islam « officiel » est très peu présent sur Internet, celui-ci se trouve désormais envahi par des appels à la guerre sainte qui se revendiquent comme inspirée par une lecture fondamentaliste du Coran. Nous reviendrons sur ce point particulier ci-dessous.

2. L'explosion des contre-cultures profitant de la généralisation de l'Internet

Ces contre-cultures sont devenues très nombreuses et très différentes. Il n'est pas possible dans ce court article d'en faire un recensement. Tout au plus peut-on signaler celles qui sont les plus visibles, du fait qu'elles s'appuient systématiquement sur l'Internet. Certaines de ces contre-cultures restent limitées à des échanges entre affiliés restant confidentiels. D'autres au contraire visent à se faire très largement connaître, au plan national comme international. Elles semblent en ce sens vouloir remplacer les cultures officielles aujourd'hui en place, au risque de se fossiliser à leur tour et susciter des contre-contre-cultures.

Vis-à-vis de ces contre-cultures, deux jugements généraux s'opposent. Selon le premier il s'agit d'une porte salutaire à la créativité, individuelle ou collective, bloquée par les cultures officielles. Selon d'autres, il s'agit de contestations systématiques, provenant d'intérêts économiques et politiques étrangers aux cultures nationales, et tentant de les détruire en se propageant sur le mode épidémique. Ces deux jugements ne sont pas incompatibles. Ils doivent donc tous deux être pris en considération.

* Contre- cultures politiques et géopolitiques. Il s'agit d'abord, pour ceux qui s'y livrent, de discuter ou contredire, si possible avec des arguments solides, les affirmation des gouvernements, des organisations internationales, des think tanks financés par les pouvoirs. Cette contestation, qui n'a pas accès aux médias officiels, rassemble cependant, grâce l'Internet, de plus en plus de citoyens, fussent-ils membres des partis au pouvoir.

Par ailleurs se multiplient les efforts pour définir des programmes ou des formes d'action alternatives. Certaines de ces propositions, quand elles ne versent pas dans l'utopie et avec un peu de savoir-faire de la part de ceux qui les émettent, peuvent être prises en compte (non sans déformations et détournements) par les instances politiques institutionnelles. C'est ainsi qu'aujourd'hui en France grandit un mouvement d'opinion encore souterrain recommandant une alliance avec la Russie, à l'encontre des consignes diffusées par les Etats-Unis. Il commence à être repris par les pouvoirs politiques et les médias,malgré ke fait que pour la majorité de ceux-ci le modèle à suivre est représenté par l'Amérique, tandis que la Russie est encore l'ennemi, comme elle le fut du temps du stalinisme.

* Contre-cultures économiques ou de politique économique. Internet permet l'émergence et le rassemblement de nombreux idées ou initiatives émanant des consommateurs, des salariés et de plus en plus souvent de représentants d'entreprises, en faveur de solutions rejetées par la culture officielle. C'est ainsi que face à la culture obsessionnelle de la croissance, apparaissent des avocats de la décroissance – décroissance pour eux-mêmes et pas seulement pour les autres. Face au modèle de l'entreprise capitalistique concentrée, dans l'industrie, l'agriculture ou la grande distribution, se multiplient des initiatives d'esprit coopératif, associant souvent petits producteurs et clientèles de proximité. Sans l'Internet, elles auraient beaucoup de mal à se faire connaître.

* Contre-cultures journalistiques, artistiques, philosophiques. L'Internet a dès ses origines encouragé de nombreux créateurs à proposer et tenter de faire partager des thèmes s'écartant là encore de ceux qui encombrent les médias officiels et qui sont soutenus par les catégories sociales dominantes. Il en résulte souvent beaucoup de bruit, de nombreuses contradictions, parmi lesquelles risquent de se perdre les créations susceptibles de changer en profondeur les idées reçus. Mais de ce désordre apparent peuvent finir par s'imposer de réelles nouveautés, correspondant à des besoins sociaux non encore reconnus. Ainsi les blogs qui se multiplient dorénavant concurrencent-ils durement la presse établie, l'art commercial ou la pensée philosophique ayant perdu tout esprit critique.

* Contre-cultures scientifiques. Face à la vulgarisation de la recherche scientifique et à la publicité donnée par la plupart des médias à ses aspects positifs pour la société, prolifère sur Internet la contestation d'une science « officielle » présentée comme inexacte, dangereuse ou attentatoires aux « vérités » inscrites dans les Ecritures religieuses. Le phénomène remonte aux origines de la pensée rationaliste. Depuis des millénaires s'étaient multipliées des formes de connaissances que l'on pourrait qualifier aujourd'hui de pré-scientifiques ou empiristes, fort légitimes à ces époques, faute d'accès à des moyens plus précis d'étude du monde. Elles faisaient largement appel aux démarches magiques, chamaniques et messianiques.

Aujourd'hui, elles ont été repoussées par le rationalisme dans le domaine du para-scientifique ou pire, dans celui de la pensée sectaire. Les nouveaux gourous, refusant toute mise à l'épreuve scientifique, peuvent recruter sur Internet des millions d'adeptes qui espèrent trouver dans les solutions abondamment proposées par eux sur le web des remèdes à leurs maux réels ou imaginaires.

Caractéristiques générales des contre-cultures s'exprimant sur Internet

Ces contre-cultures présentent des caractéristiques générales pouvant expliquer leurs qualités et aussi leurs défauts, sinon leurs dérives. Les sciences dites systémiques s'efforceront de plus en plus de les comprendre en termes globaux, notamment dans la ligne de ce que nous nommons ici l'anthropotechnique. Les propriétés propres de l'Internet peuvent expliquer, voire renforcer le développement de ces contre-cultures.

* Parmi ces propriétés certaines constituent de véritables apports à la créativité intellectuelle. Mentionnons par exemple l'ouverture à tous. Chacun, dès qu'il dispose d'un minimum de langage et d'une entrée sur Internet, peut s'y exprimer, soit pour produire des idées, soit pour discuter celles des autres. Dans le cadre de cette ouverture, il faut rappeler que l'Internet permet désormais, sous réserves des difficultés de compréhension, l'accès à une quantité quasi infinie de sources, contemporaines et historiques, sans lesquelles aucune pensée originale n'est possible. Un autre point doit être rappelé: il s'agit de la contemporanéité ou de l'instantanéité. Il n'est plus nécessaire, que ce soit pour s'informer ou pour s'exprimer, d'attendre les longs délais imposées par les voies de communication traditionnelles.

* D'autres propriétés de l'Internet sont souvent évoquées à titre péjoratif.. Il s'agit d'abord de l'anonymat rendu possible par le réseau à tous ceux ne voulent* pas se désigner ouvertement comme les auteurs des idées qui y sont formulées. Cet anonymat est légitime lorsque certains auteurs, pour des raisons diverses ne sont pas autorisés à s'exprimer, ou n'osent pas s'exprimer sous leur nom véritable. Mais le plus souvent l'anonymat permet le défoulement d'innombrables formes d'agressions ou de contre-vérités manifestes. Il est certes à peu près impossible de supprimer la possibilité de telles expressions anonymes. Il est donc nécessaire de s'y résigner, quitte à afficher soi-même, quels que soient les risques, sa propre identité.

* Un autre défaut d'internet, aux yeux tout au moins de ceux qui recherchent une certaine forme de perfection dans la formulation, est le simplisme des formes d'expression qu'il permet désormais, notamment dans les réseaux sociaux. Comment formuler en quelques mots un jugement équilibré portant sur une question complexe? Or l'affirmation simpliste entraînant des réactions simplistes, ce sont des avalanches de banalités souvent mêlées d'inexactitudes qui déferlent à tous propos. Mais les optimistes pensent que si l'Internet était plus exigeant (sur le modèle des revues scientifiques) plus personne n'oserait s'y exprimer, ce qui serait une perte pour la démocratie.

* Beaucoup regrettent aussi le fait qu'Internet permette à chacun de formuler un point de vue et de le diffuser potentiellement au monde entier en temps réel. Sitôt esquissée dans le cerveau de l'émetteur, le jugement simpliste mentionné au précédent paragraphe peut se trouver matérialisé par un message. Ceci n'encourage pas le nécessaire temps de réflexion non plus que les retours en arrière s'imposant à toute personne un peu réfléchie.

* Les scientifiques ayant étudié la théorie des mèmes initialement proposée par Richard Dawkins, observent un phénomène très différent, qui peut favoriser la prolifération de contres-cultures de moins en moins contrôlées par les émetteurs. Selon cette théorie, rappelons-le, souvent étudiée sur ce site, toute phrase, image, symbole émis dans un réseau permettant la communication de sources à sources, se comporte comme une sorte de virus dans le milieu biologique.

Il s'agit de ce que la théorie nomme des mèmes. Le mème se reproduit sur le mode épidémique, il passe de l'un à l'autre hôte en mutant le cas échéant, il peut contaminer en profondeur et transformer en agent contaminateur tous ceux qu'il atteint, personne physique, parole, texte. Ceci permet de comprendre comment, au sein des cultures dominantes mais plus encore au sein des contre-cultures, des opinions ou images émises par un individu donné peuvent acquérir une diffusion et des formes que voudrait souvent désavouer l'émetteur initial, du fait qu'il ne les reconnaît plus.

Mais il ne peut plus faire. Le milieu est désormais contaminé. Le phénomène de la diffusion mémétique explique ce qui surprend aujourd'hui beaucoup d'observateurs n'ayant pas approfondi la question. Pourquoi par exemple, malgré les censures morales qu'elles déclenchent chez la plupart des internautes, des images de viols, tortures, décapitations prolifèrent si facilement sur le web, avec l'assentiment inconscient de ceux qui les reçoivent et qui consciemment en désapprouvent le contenu et ne voudraient pas les retransmettre.

C'est que l'humain, anthropos, associé au techniques, s'y retrouve avec toutes ses caractéristiques, biologiques et neurologiques, notamment celles par lesquelles les normes sociales aujourd'hui reconnues comme nécessaires dans nos société, voudraient l'en protéger: agressivité, jalousie, haine de l'autre, voire envie de tuer, au moins symboliquement.

Nous avons désigné depuis longtemps du terme de systèmes anthropotechniques les symbioses quasiment définitives s'étant établies, depuis l'apparition des premiers outils, entre les humains et les techniques. Aujourd'hui, comprendre le rôle de l'Internet dans la prolifération contemporaine des contre-cultures appelle manifestement le recours à l'approche anthropotechnique.

Partager cet article

13 janvier 2015 2 13 /01 /janvier /2015 10:30

Jean-Paul Baquiast - 12/01/2015
 

Un article récent de Michaël Brooks dans le NewScientist(1) décrit des dispositifs expérimentaux pouvant montrer comment des objets quantiques (q.bits) en superposition ou en cours de décohérence se comportent à l'intérieur d'un champ gravitationnel. Ceci pourrait permettre de faire apparaître un lien entre théorie quantique et relativité jusqu'à présent recherché en vain par les théoriciens de la gravitation quantique.

Il est inutile de revenir ici sur le fait, bien connu de nos lecteurs, que la mécanique quantique et les relativités restreinte et générale ne sont absolument pas compatibles en termes théoriques, tout en étant toutes deux vérifiées dans leurs domaines par des milliers de preuves expérimentales.

Le point nouveau important, souligné par l'article, est qu'aujourd'hui des physiciens autorisés, notamment l'"ancêtre" Roger Penrose, pensent que des dispositifs expérimentaux actuellement en cours de mise au point pourraient prochainement apporter quelques ouvertures tant en termes expérimentaux ultérieurement au plan théorique ultérieurement permettant de commencer à résoudre les grandes énigmes de la gravitation quantique.

Ainsi, en ce qui concerne la superposition, certains physiciens commencent à se demander si une particule qui se trouve en deux états superposés ne ressentirait pas l'effet de la gravité d'une façon différente au regard de l'un ou l'autre de ses états, quitte à retrouver un statut commun au regard de la gravité, lorsque cesse la superposition. En théorie, rien n'interdirait de transposer la solution à l'échelle de l'univers entier, où coexistent, par exemple dans les trous noirs, des phénomènes relevant simultanément de la physique quantique et de la gravité.

De même, en ce qui concerne la façon dont des atomes ou ensembles de particules ressentent l'effet du temps lorsqu'ils se déplacent dans des champs gravitationnels différents(2) d'autres de leurs collègues commencent à se demander si chacun des états d'un atome en état de superposition n'expérimenterait pas des temps différents, selon la vitesse à laquelle ils pourraient se déplacer dans des champs gravitationnels, avant de retrouver un temps identique en se recombinant.

La difficulté consistera évidemment à mettre au point des dispositifs permettant d'une part d'individualiser les états superposés d'une même particule quantique et d'autre part de les soumettre à des champs gravitationnels différents afin de mesurer leurs caractéristiques avant qu'ils ne retrouvent l'état d'une particule macroscopique unique.

 

La réduction de la fonction d'onde - Approche gravitationnelle de la mesure

La nouvelle génération d'instruments auxquels nous venons de faire allusion devrait également permettre d'étudier des situations où ce serait la gravitation qui provoquerait la décohérence d'une particule quantique, autrement dit entraineraient la réduction de sa fonction d'onde. Dans cette perspective, ce pourraient être des phénomènes induits par la gravitation au sein ou autour d'une particule quantique qui se comporteraient en "observateurs".

Dans l'expérience de l'interféromètre à double fente (fentes de Young), l'apparition de bandes d'interférence résulte du fait que des particules (voire des ensembles plus importants de quelques dizaines ou centaines de particules, peuvent passer simultanément par les deux fentes avant de se recombiner en particules uniques sur l'écran(3). Elles se comportent en effet à la fois comme des ondes et des particules. Or si l'on place un détecteur sur le chemin d'une de ces fentes celui-ci provoque la décohérence de la particule qui redevient uniquement une particule et cesse d'être à la fois une onde et une particule. Le détecteur tient le rôle de l'observateur facteur de décohérence dans la théorie quantique classique.

Or la pratique de l'expérience des fentes de Young appliquée à des molécules de près de 800 atomes a montré que les atomes les composant peuvent vivre en superposition, mais décohèrent d'autant plus vite qu'ils constituent un ensemble composé d'un plus grand nombre d'atomes, c'est-à-dire pesant d'autant plus lourd. D'où l'hypothèse que la gravité a quelque chose à voir avec la décohérence.

Plus les ensembles de molécules sont lourds, comme le sont les corps de la physique macroscopique, y compris les êtres vivants, plus vite ils perdent les propriétés quantiques leur permettant de se comporter à la fois comme onde et comme particule. C'est la raison pour laquelle, jusqu'à présent, il n'a jamais été possible d'observer l'état quantique initial de corps macroscopiques composés d'un très grand nombre d'atomes. Ils se retrouvent, si l'on peut dire « observés » par la force gravitationnelle qui réduit presque instantanément leur fonction d'onde.

Pourrait-on tirer de ces conjectures une première suggestion concernant le processus par lequel des particules matérielles émergent dans le milieu quantique (le vide quantique?). Ces particules matérielles s'inscrivent dans un monde où l'on peut parler de temps et d'espace, et donc de gravité, même si les contenus de ces « réalités » n'ont rien d'invariable. Le monde quantique ne reconnaît ni le temps ni l'espace. Nous sommes faits en ce qui nous concerne de particules matérielles (peut-être aussi de particules quantiques, mais la question n'est pas là). Compte tenu des hypothèses brièvement présentées ici, ne serait-il pas possible d'envisager que, dès qu'au cours des fluctuations du monde quantique, apparaissent des molécules composées d'un nombre suffisant de bits quantiques, c'est-à-dire suffisamment «lourdes», celles-ci, soumises au champ gravitationnel, se transforment quasi systématiquemente en molécules matérielles ?
La gravité jouerait ainsi le rôle d'observateur dans la théorie quantique de la mesure.

Le mécanisme serait permanent, ce qui expliquerait l'abondance des particules matérielles dans l'univers observable. Bien sûr, cela ne permettrait pas pour autant d'expliquer l'existence simultanée du milieu quantique et de la gravitation. Il faudrait pour cela faire appel à des descriptions plus complexes de l'univers ou des multivers. Mais cela permettrait de mieux comprendre les interactions entre univers quantique et univers relativiste, objet des travaux de la gravitation quantique.

De nouveaux dispositifs expérimentaux

Cependant, aujourd'hui, dans le cadre de travaux intéressant la réalisation de calculateurs quantiques, les physiciens commencent à mettre au point des dispositifs comportant quelques dizaines voire à terme quelques centaines de q.bit maintenus en état de cohérence par des processus leur évitant d'interférer avec le monde macroscopique. Sur de tels objets, il pourrait devenir possible de tester l'effet de la gravité. Comme d'habitude sur ce site, nous n'essaierons pas de décrire ce que pourraient être de tels dispositifs, renvoyant le lecteur suffisamment informé aux publications des physiciens qui les imaginent(4).

En explorant le web, le lecteur trouvera de nombreuses références aux chercheurs et aux travaux s'intéressant aux nouvelles approches expérimentales permettant de mettre en évidence les relations entre la mécanique quantique et la gravité. Ceux-ci ne devraient pas aboutir très rapidement, mais certainement bien avant des recherches aujourd'hui embourbées dans les arcanes de la théorie, telles celles constituant la Théorie des Cordes. La science perd très vite sa pertinence si elle s'écarte trop durablement de l'expérience.

Références

(1) Michaël Brooks. The secret Life of Reality

(2) Il s'agit du phénomène décrit sous le terme de «dilatation du temps».

(3) Wikipedia :  Fentes d'Young

(4) Voir Physical Review, Cisco Gooding et George Unruh Self-gravitating interferometry and intrinsic decoherence
* Voir aussi le Caslav Brukner Group :  Quantum foundations and quantum information theory
Notamment Experimental Superposition of Orders of Quantum Gates
* Voir aussi Scientific American :  Physicists Eye Quantum-Gravity Interface
* Voir aussi le Markus Arndt's
group

Partager cet article

7 janvier 2015 3 07 /01 /janvier /2015 22:45

Jean-Paul Baquiast et Christophe Jacquemin

En hommage à Cabu et à ses confrères assassinés

Jean CabutCeux qui pensent faire plier la France en tuant ses journalistes se trompent. La France est une grande nation qui, au cours de son histoire, a toujours su surmonter ses ennemis pour en sortir grandie. Elle n'est pas engourdie par la consommation matérielle et les égoïsmes multiples au point de l'oublier aujourd'hui.

L'assassinat de Cabu et de ses confrères de Charlie Hebdo (notamment Charb, Tignous et Wolinski, ainsi que le chroniqueur économique Bernard Maris) n'empêchera aucun d'entre nous de refuser les dieux et les religions s'ils le veulent, de se battre pour la raison et la science s'ils le désirent.

Tous ceux, femmes et hommes unis, qui comme nous ont la possibilité d'une expression publique, fut-elle infime, doivent le dire et se retrouver avec leurs concitoyens pour faire vivre ensemble et s'affirmer les valeurs qui cimentent la nation.

Partager cet article

3 janvier 2015 6 03 /01 /janvier /2015 15:53

Par Jean-Paul Baquiast et Christophe Jacquemin

 

La bête
La Bête à dix cornes et sept têtes

 
 

Pierre Jovanovic Pierre Jovanovic est un homme étrange. Il a beaucoup écrit, mais dans des domaines très éloignés de ceux qui sont les nôtres ici : la Bible, l'Apocalypse, les démons, les anges.
Il y fait preuve d'une culture considérable concernant l'histoire des grands mythes chrétiens, comme les méandres de la Papauté actuelle. Croyant lui-même, il rencontre un grand succès auprès de ceux qui s'intéressent, à tort ou à raison, à l'influence des forces occultes sur le monde actuel. Les athées, tout en admirant sa vaste culture, ont pour beaucoup été prompts à le classer parmi les conspirationnistes – étant entendu que le conspirationnisme se manifeste dans toutes les sociétés et au sein de toutes les forces politiques. Le terme est souvent utilisé pour déconsidérer ceux qui ont suffisamment de sens critique pour ne pas accepter les propagandes officielles et qui voient ainsi avant les autres les réalités profondes de la vie politique.

Pierre Jovanovic a pour nous un autre mérite : sa culture économique est considérable, notamment en ce qui concerne l'histoire de la finance. Il s'inspire de documents officiels souvent jusqu'ici peu connus ou dissimulés. Il a par ailleurs toujours refusé les mots d'ordre de ce que l'on nomme les atlantistes, c'est-à-dire les Européens qui oubliant leurs valeurs se sont fait les "laquais" (comme l'on disait jadis à l'Huma), depuis la Seconde guerre mondiale, de la superpuissance américaine. Ces laquais sont aujourd'hui plus agressifs que jamais, en refusant d'admettre l'accumulation des catastrophes que provoquent les conflits initialisés par Washington, ceci dans le monde entier.
Aujourd'hui, notamment en France, dans le cas de l'offensive multiforme menée par l'Amérique contre la Russie, les atlantistes semblent avoir totalement subverti les hommes politiques, les médias et une large partie de l'opinion. La Russie est plus que jamais l'ennemie, l'Amérique et son dollar les alliés.

666Or le dernier livre de Pierre Jovanovic, 666 (éditions Le jardin des livres 2014), apporte des éléments de preuve généralement inconnus du grand public, montrant comment depuis des décennie la conjonction de la diplomatie américaine, de la CIA et des grands banquiers de Wall Street a mis le reste du monde sous tutelle. Beaucoup, dont nous sommes, le disent et le répètent, mais semble-t-il un peu dans le désert...
Les démonstrations concrètes fournies par "666" devraient suffire à emporter la conviction de tous les citoyens qui, en Europe, ne sont pas sous le contrôle de ce que nous nommons pour notre part "la diplomatie du dollar et des services secrets".
Avec cet ouvrage, et même sans connaître les références bibliques, le lecteur pourra se convaincre que la nouvelle Bête de l'Apocalypse menaçant le monde entier avec ses sept têtes, est effectivement le système monétaire international reposant sur le dollar. Sytème imposé aujourd'hui par l'Amérique au monde entier, y compris à ce jour à la Chine et à la Russie, malgré tous leurs efforts pour s'en défaire.

L'or s'efface au profit de la monnaie de singe

A la suite du coup de force imposé par Richard Nixon le 15 août 1971, toutes les références à l'or ont été exclues par les banques centrales nationales, y compris aujourd'hui la Banque centrale européenne en ce qui concerne l'euro. Il faut se souvenir qu'en 1944, les accords de Bretton Woods avaient mis en place un système de changes fixes entre les monnaies et l’or ou le dollar, la clé de voûte du système étant la possibilité de convertir selon une parité fixe le dollar en or (35$ l’once d’or).
Cependant, à partir des années 1960, ce système a été progressivement combattu par les Etats-Unis, compte tenu de leur déficit extérieur. Dans la suite de l'explosion de leurs dépenses militaires, ils importaient plus qu’ils n’exportaient et devaient financer la différence par création de dollar. Les réserves d’or de la Fed (la banque centrale des États-Unis) se révélèrent vite insuffisantes pour garantir une conversion des dollars en respectant la parité officielle.

Sous la pression de Wall Street, le président Richard Nixon a donc décidé en 1971 de suspendre la convertibilité en or du dollar, puis de le dévaluer à plusieurs reprises. En mars 1973, une nouvelle crise des changes a conduit au flottement généralisé des monnaies : la plupart des monnaies ont des taux de change "flottants" qui varient au jour le jour. En 1976, les accords de la Jamaïque ont entériné cet état de fait et l’abandon de toute référence à l’or dans le système monétaire international.
C'était le dollar qui devenait de facto l'unité de change internationale.

Le plus grand hold-up du monde

Dès cette époque, ce coup de force a rendu possible la réalisation de ce que Pierre Jovanovic qualifie à juste titre de "plus grand hold up du monde". En faisant fonctionner la planche à billet, la Fed - maîtresse du dollar - pouvait fournir aux Américains toutes les devises dont ils avaient besoin pour mener leur expansion militaire et économique, achats de matières premières et d'entreprises. Dans un système ouvert, les autres pays, disposant de leurs propres réserves en or et en devises nationales, auraient pu refuser les dollars ainsi créés. Mais étant eux-mêmes assujettis au dollar et ne pouvant en créer pour leur propre compte, ils étaient obligés d'accepter les dollars américains et les politiques économiques et diplomatiques menées par l'Amérique s'ils voulaient commercer entre eux ou avec les Etats-Unis .

Aujourd'hui le même hold-up se poursuit et s'amplifie.
Alors que tous les Etats du monde se saignent pour rembourser leurs dettes, souscrites en dollars et auprès d'établissements financiers tous américain, Washington, qui lui aussi croule sous les dettes, n'a pas de soucis à se faire. Comme l'a montré la dernière crise financière, il suffit que le Président ordonne à la Fed d'émettre les billions de dollars (quantitative easing) nécessaires au paiement de ces dettes. Tous les producteurs de richesses du monde, en Chine notamment, se précipitent pour acheter les bons du trésor fédéraux et soutenir ainsi la suprématie américaine, n'ayant pas la possibilité d'épargner au plan international avec leurs propres monnaies.

Pourquoi les gouvernements de ces pays ne se rebellent-ils pas, en refusant par exemple d'acheter des US Bonds voire d'honorer leurs propres dettes ?
Sur ce point, Pierre Jovanovic apporte la seule réponse qui s'impose, réponse encore pudiquement ignorée par les analystes financiers : c'est parce que ces gouvernements sont contraints de le faire, sous la pression des moyens militaires de l'US Army en ce qui concerne les petits Etats, et sous celle des milliers d'agents de la CIA qui opèrent dans les plus grands Etats, notamment en Europe, et notamment en France, pour s'assurer que les dirigeants de ces Etats marchent droit.

Dans le cas contrarire, la CIA suscitera les troubles politiques qui emporteront les récalcitrants (regime change). Jovanovic n'hésite pas à reprendre ainsi la rumeur selon laquelle en France, Mai 68 avait été organisé pour provoquer le départ de De Gaulle, le seul grand dirigeant européen qui avait le courage de s'opposer à l'Amérique. Ceux d'entre nous, suffisamment âgés pour cela, qui se souviennent avoir manifesté sur les barricades de mai, ne s'imaginaient pas alors qu'ils faisaient le jeu de la CIA.

Le Brics ?

Comment sortir de la domination du dollar afin de s'affranchir de la domination américaine ?
Ceci suppose de se regrouper pour devenir suffisamment forts à l'échelle du monde. C'est ce que tentent actuellement de réaliser les dirigeants du Brics en mettant en place une monnaie commune qui ne serait plus le dollar (dédollarisation), mais un fonds monétaire Brics et une banque mondiale Brics, de grands programmes d'investissements productifs Brics destinés à assurer leur développement.

Pierre Jovanovic n'aborde malheureusement pas cette perspective dans son livre.
Souhaitons qu'il le fasse dans un prochain ouvrage, avec les éclairages particuliers qui sont les siens. Pour notre compte, quel que soit l'appui que nous pourrons apporter à ces projets du Brics, rien ne nous permet encore d'affirmer qu'ils viendront à bout de la "Bête de l'Apocalypse".

La Bête a suffisamment d'audace criminelle pour provoquer une guerre mondiale qui serait la fin de ses adversaires. La sienne propre sans doute dans le même mouvement.
Mais la Bête blessée préférera sans doute périr elle aussi plutôt que céder un pouce de l'emprise qu'elle s'est donnée sur les corps et les consciences...

* Blog de Pierre Jovanovic
 

Partager cet article

31 décembre 2014 3 31 /12 /décembre /2014 19:53

Jean-Paul Baquiast 31/12/2014

Nous avons sur ce site essayé d'informer le plus fidèlement possible nos lecteurs sur ce qu'il faut bien nommer l'évolution des théories sur l'évolution. Tout évolue dans le cosmos tel qu'il est connu aujourd'hui. Mais c'est l'évolution de la vie, phénomène jusqu'à ce jour uniquement observé sur Terre, qui a toujours retenu l'attention, tant des scientifiques que du grand public.

D'innombrables écrits religieux, venant des grandes religions monothéistes, catholicisme et islam notamment, affirment, évidemment sans preuves aucunes, que le vivant a été créé par Dieu sous les formes qu'il manifeste aujourd'hui. L'idée que le vivant évolue serait donc à rejeter comme contraire aux Ecritures. Sans mentionner le monde musulman, particulièrement opposé à toute hypothèse concernant l'évolution de la vie, une grande majorité de croyants relevant du catholicisme ou du protestantisme évangélique, aux Etats-Unis mêmes, considèrent que la vie a été créée très récemment et n'a pas évolué – ou très peu - depuis lors. Il s'agit du Créationnisme qui, curieusement, dans une Europe réputée plus cartésienne que l'Amérique, progresse actuellement sur le Continent.

Aujourd'hui, dans le monde scientifique, où nul ne nie évidemment le phénomène général qu'est l'évolution de la vie, ce fut depuis Darwin la théorie dite de l'évolutionnisme darwinien qui a été très généralement admise. Mais le darwinisme initial a lui-même évolué depuis ses origines dans la seconde moitié du 19e siècle. Le modèle initial de Darwin reposait sur une constatation, généralement partagée par tous les naturalistes et les éleveurs, que les espèces vivantes évoluent sur le mode transmission héréditaire, introduction de variations accidentelles, mise en concurrence des nouvelles espèces en résultant avec les anciennes et sélection(survie) des plus aptes à s'adapter au sein d'un milieu naturel lui-même changeant. Mais Darwin n'avait pas, compte tenu des connaissances de son époque, put expliquer les causes biologiques de ce phénomène général.

La théorie synthétique de l'évolution

Ce furent, à la suite des travaux de Mendel, ceux que nous appellerons pour simplifier les généticiens, qui ont mis en évidences les facteurs permettant la transmission des caractères, mais aussi les mutations affectant ces facteurs, et les sélections en résultant. Ces facteurs sont les gènes, identifiables au sein des ADN cellulaires. La théorie génétique de l'évolution a été nommée le modèle néo-darwinien ou théorie synthétique de l’évolution. Elle s'est construite entre 1940 et 1960 mais elle n’a cessé de se complexifier depuis compte tenu des progrès dans la connaissance des phénomènes intimes du vivant, notamment la biologie moléculaire.

Un grand nombre de travaux ont permis dans la seconde moitié du 20e siècle de préciser les modalités de l'hérédité, des mutations et plus généralement du rôle du génome dans la synthétisation des millions de protéines (ou protéome) à partir desquelles se construisent dès l'apparition de l'oeuf fécondé les différents organismes, avec leurs spécificités. Au niveau de l'évolution des espèces, la génétique dite des populations étudie la distribution et des changements de la fréquence des versions d'un gène (ou allèle) dans les populations d'êtres vivants, sous l'influence des pressions évolutives . On a pu mettre en évidence outre les mutations et la sélection naturelle, des mécanismes dits de dérive génétique, de recombinaison (recombination) et de migration expliquant les variations entre espèces.

Fin du déterminisme génétique. L'ontophylogenèse.

A partir des années 1970-1980, cependant un nombre croissant de biologistes se sont insurgés contre les abus de ce qui a été nommé le tout génétique. ou déterminisme génétique. Ils ont montré que des relations complexes s'établissaient entre les espèces et entre celles-ci et l'environnement, sans dans un premier temps affecter le génome. Un des pionniers de cette approche fut en France le biologiste Jean-Jacques Kupiec, dont nous avons présenté les recherches en leur temps 1)

Comme rappelé ci-dessus, la très grande majorité des biologistes évolutionnaires d’inspiration naturaliste (ou matérialiste) admet aujourd’hui que la formation des espèces, c’est-à-dire l’ontogenèse, nécessite pour être comprise de faire appel au darwinisme. Celui-ci peut être résumé au principe de l’évolution sur le mode variation au hasard/sélection/amplification, Par contre, en ce qui concerne la formation des individus à l’intérieur des espèces, la très grande majorité des biologistes estimait jusqu’à ces dernières années que c’était le programme génétique transmis par l’intermédiaire de l’ADN reproductif qui déterminait la séquence d’apparition des différents organes de l’embryon. Son influence se prolongeait tout au long de la vie.

Les gènes, dans l'acception qu'en donnaient les défenseurs du « tout génétique », définissaient donc dès avant la naissance les propriétés et aptitudes de l’individu. La biologie moléculaire s’était efforcée de montrer qu’il s’agissait de processus rigoureux, déterministe, excluant donc, sauf accidents, le hasard. Le terme même de programme génétique, faisant penser à un programme informatique et à des informations numériques, faisait illusion. En aucun cas pourtant, il ne s'agit d'algorithmes s'appliquant par oui ou par non. Si bien que des individus issus d'un même génome (tels les jumeaux vrais) peuvent être différents.

Certes, il était vite apparu aux biologistes moléculaires que les gènes n’intervenaient pas directement dans la fabrication de l’embryon. Des médiateurs protéiques spécifiques faisaient le relais entre le gène ou les gènes supposés contribuer à la formation de l’organisme et les cellules directement concernées par l’ordre d’apparition et l’architecture des organes. Mais il s'agissait d'un mécanisme, totalement déterministe, excluait toute variation aléatoire. sinon par accidents. Une propriété qui avait été nommée la stéréospécificité permettait d’expliquer comment les protéines synthétisées (et repliées) sous l’influence des gènes ne pouvaient correspondre qu’à un et à un seul type d’organite infracellulaire ou de cellule. L’image popularisée alors fut celle de la clef qui ne peut ouvrir qu’une seule serrure.

En ce qui concerne l’ontogenèse, c'est-à-dire la formation des espèces, l’étude plus précise du rôle des gènes avait montré que l’intervention des gènes et des protéines dont ils provoquaient la synthèse était bien plus complexe que celle résumée par le concept «un gène, un caractère». Des gènes dits régulateurs avaient été identifiées. Le protéome ou catalogue des protéines impliquées dans la reproduction s'est révélé par ailleurs infiniment plus riche que le catalogue des gènes propres à chaque espèce. La stéréospécificité apparut alors comme loin d’être systématique, le même morceau d’ADN pouvant diriger l’assemblage de protéines différentes, dont l’une seulement intervenait dans la suite de l’embryogenèse.

Par ailleurs, il n’était plus niable que dès sa formation, l’embryon était soumis aux contraintes du milieu, notamment du milieu social dit aussi milieu culturel. Le milieu influe de façon plus ou moins importante sur le développement de l’individu, selon des modalités étudiées dans le cadre d’une approche devenue depuis systématique, l’épigénétique.

En ce qui concerne l’évolution des génomes, c’est-à-dire la phylogenèse, il était apparu parallèlement que des phénomènes difficiles à considérer comme de simples mutations aléatoires pouvaient contribuer efficacement à la formation de nouvelles espèces ou à des modifications du génome à l’intérieur d’espèces existantes. Citons par exemple le transfert horizontal de gènes (très répandu, et pas seulement chez les bactéries) ou, à une autre échelle, la sélection de groupe présentée comme agissant sur l’ADN non d’un individu isolé mais de nombreux individus au sein d’un groupe soumis à une pression sélective. Il s’agissait en quelque sorte de mutations orientées. Jean-Jacques Kupiec a démontré le fonctionnement probabiliste des gènes et le caractère également probabiliste des interactions entre protéines synthétisées par ces gènes au cours de l’ontogenèse. Il a nommé cette théorie l'ontophylogenèse.

La théorie étendue de l'évolution, ou synthèse étendue

Dans la ligne des travaux étudiant les relations complexes entre ontogenèse et phylogenèse, de nombreuses recherches ont été menées depuis le début du présent siècle. Nous avons le plus fidèlement possible relaté les résultats de celles-ci dès qu'elles faisaient l'objet de publication. Un livre récent en propose une liste assortie de commentaires détaillés. Il s'agit de Evolution - the Extended Synthesis, par Massimo Pigliucci et Gerd Müller. 2)

Les auteurs, qui ont été choisis principalement parmi des biologistes, montrent que depuis le livre fondateur de Julian Huxley's Evolution: The Modern Synthesis, des progrès considérables ont été faits, tant dans le domaine de la biologie proprement dit que dans celui des développements théoriques pouvant en être déduits. En conséquence, les théories de l'évolution incluent aujourd'hui des domaines de recherche qui étaient insoupçonnée des auteurs de la théorie synthétique de l'évolution. Pour un petit nombre de ces auteurs, les nouvelles recherches ne remettent pas fondamentalement en cause les bases de la théorie synthétique. Pour la plupart au contraire, elles obligent à les redéfinir radicalement.

Ils aboutissent ainsi à ce qui a été nommé dans le titre du livre une nouvelle Synthèse intéressant l'évolution, qualifiée de Synthèse Etendue. Il ne s'agit pas, comme certains polémistes le disent volontiers (pour qui le darwinisme reste une bête noire), d'affirmer que désormais Darwin est démenti. En effet, comme précédemment avec la théorie synthétique de l'évolution, les postulats fondamentaux posés par Darwin ne sont pas modifiés, mais ils sont considérablement enrichis et étendus. Il est bien dans la logique de la science matérialiste de procéder ainsi.

Nous avons sur ce site, au fil du temps, publié des articles précisant les nouvelles recherches et leurs apports. Le lecteur curieux pourra les y retrouver. L'ouvrage présenté ici, Evolution - the Extended Synthesis, en fournit des analyses très complètes. Il n'est évidemment pas possible de les résumer. Nous y renvoyons le lecteur.

Le schéma proposé en libre accès par les auteurs du livre, en donne une image très parlante. Dans le centre en blanc on retrouve les concepts rendus célèbres par Darwin. Dans la bulle en gris clair, sont mentionnés ceux de la théorie Synthétique. Enfin, dans la bulle gris sombre, figurent les nouveaux concepts constituant la Synthèse Etendue telle que définie par les auteurs. Parmi ceux-ci, citons la théorie de l'Eco-devo, la construction de niches, les théories de l'évolution épigénétique, la sélection à multi-niveaux (incluant la sélection de groupe) , la théorie du réplicateur et les théories récentes intéressant l'évolution génomique (par exemple les transferts de gènes).

Vers une approche post-biologique de l'évolution

Par post-biologique, nous entendons ici une évolution qui continuerait à intéresser un grand nombre d'organismes biologiques ou de gènes d'origine biologique, mais associée avec des processus ou organismes relevant de la vie génétiquement modifiée ou artificielle, de l'intelligence artificielle adaptative et d'une robotiques de plus en plus autonome. On aboutira à des animaux ou humains dits augmentés, à des cerveaux artificiels et, comme l'a depuis longtemps étudié Alain Cardon, à des consciences artificielles animant des organismes artificiels pouvant ne plus conserver que de lointains rapports avec l'humain. On remarquera que les biologistes auteurs du livre précédent font à peine allusion à ces recherches ou les ignorent. C'est sans doute un effet de ce que l'on nomme l'enfermement disciplinaire.

Il a par contre toujours été dans le coeur éditorial de notre site de signaler les progrès continus et accélérés se déroulant dans les différents domaines scientifiques et technologiques intéressés par ces recherches. Nous avons par ailleurs incité les lecteurs à réfléchir aux conséquences économiques, politiques et philosophiques de tels travaux. Certains sont publiquement documentés par des chercheurs universitaires, mais d'autres, en bien plus grand nombre, relèvent désormais du secret défense. Autrement dit, ils sont mis au service de petites minorités d'humains disposant des pouvoirs militaires et économiques, entraînant la capacité de dominer par la contrainte de très larges majorités d'humains désormais asservis.

Dans la suite de ces développements inégalitaires, les concepts de transhumains ou de post-humains sont devenus aujourd'hui très populaires. Ils font l'objet de nombreux débats. Il faut bien voir cependant que l'accès au post-humanisme restera le privilèges des minorités dominantes évoquées ci-dessus. Ceci pour deux raisons, d'une part parce que cet accès supposera des moyens économiques considérables, hors de la portée du tout venant des humains. D'une part et tout autant parce qu'il s'agira d'instruments de pouvoirs et que ceux disposant du pouvoir ne le partagent pas.

Parallèlement donc à l'émergence d 'organismes biologiques relevant du post-humain, subsisteront des effectifs innombrables de populations relevant de l'humain traditionnel. Celles-ci subiront de plein fouet les conséquences des changements climatiques et des raretés innombrables prévus pour la fin du siècle. Il sera vite tentant alors de qualifier les plus démunis d'entre eux de sous-humains, surtout s'ils se réfugient dans différentes formes de violence. Effectivement, ainsi qualifiés et rejetés, ils le deviendront de plus en plus.

Les différentes formes de vie augmentée et vie artificielle évoquées ici affecteront aussi les organismes biologiques traditionnels, qu'il s'agisse des micro-organismes ou des formes les plus complexes du monde animal et du monde végétal. En ce qui les concerne, la compétition darwinienne pour la survie continuera évidemment à s'exercer. On peut prévoir qu'en sortiront victorieuses des différentes espèces virales ou bactériennes présentes sur Terre depuis les quelques milliards d'années pendant lesquelles la vie s'est développée. Tout laisse craindre au contraire que la plupart des espèces complexes ne puissent pas s'adapter spontanément, faute de temps et face aux agressions multiples qu'elles subiront.

Dans le meilleur des cas, elles ne survivront que dans des zoos et musées, ainsi que sous forme de banques de gènes censés pouvoir repeupler la Terre après les grandes extinctions devant marquer ce que l'on nomme désormais les formes ultimes de l'anthropocène.

Rappelons que nous avons proposé d'utiliser te terme de systèmes bioanthropotechniques pour désigner les symbioses durables et évolutives s'étant établies depuis l'apparition des premiers outils au temps des australopithèques, et culminant aujourd'hui avec l'explosion des technologies de l'artificiel que nous venons d'évoquer. Ce terme n'est pas là uniquement pour créer gratuitement un concept original. Nous l'avonsexplicité dans différents articles et ouvrages (3) .Nous comptons publier prochainement sur ce site, en accès libre, un petit essai actualisant le concept de complexe bio-anthropotechnique, tant au regard de l'évolution des théories et pratiques intéressant la composante biologique de ces complexes que de l'évolution des technologies associées.

Notes

1) Voir Jean-Jacques Kupiec. Ni Dieu ni gène. Pour une autre théorie de l’hérédité (Seuil, 2000), suivi de L'origine des individus
http://www.automatesintelligents.com/biblionet/2009/mai/oringinesindividus.html

2) Evolution - the Extended Synthesis, par Massimo Pigliucci et Gerd Müller. 2010 avec rééditions. The MIT Press Cambridge, Massachusetts, London,
Lire aussi
http://mitpress.mit.edu/books/evolution-extended-synthesis
Lire aussi http://www.nature.com/news/does-evolutionary-theory-need-a-rethink-1.16080?WT.ec_id=NATURE-20141009r
Lire aussi http://mitpress.mit.edu/sites/default/files/titles/content/9780262513678_sch_0001.pdf

Partager cet article

28 décembre 2014 7 28 /12 /décembre /2014 18:23

par Jean-Paul Baquiast et Christophe Jacquemin

 

Racket américain et démission d'étatDeux des meilleurs experts français de l'intelligence économique et du renseignement viennent de rendre public sur le site CF2R(1) leur rapport de recherche précisant les modalités selon lesquelles les actionnaires d'Alstom ont autorisé la vente des activités de sa branche Energie à General Electric(2).

On trouvera dans l'encadré ci-dessous le texte de CF2R de la présentation de ce rapport, qui en résume les grandes lignes. Il confirme bien les pires soupçons de ceux qui avaient lutté contre cette vente d'Alstom, allant jusqu'à demander sa nationalisation.
Pour notre part, nous avions lancé dès le 2 mai 2014 une pétition en ce sens, qui n'avait reçu hélas qu'un faible soutien(2)

Le rapport porte éclairage sur les mobiles de cette vente, le rôle des intérêts américains, faisant état de complicités dont ces derniers ont pu bénéficier au sein de l'establishment français. La voix d'Arnaud Montebourg a été vite étouffée. Quant à celle de Jean-Luc Mélenchon, elle n'a suscité que des lazzis. Aujourd'hui, le PDG Patrick Kron - un des artisans de ce désastre - s'en est sorti avec avantages et honneurs.

Ceux qui ont vécu l'époque lointaine du démantèlement du Plan Calcul français, après le départ de Georges Pompidou, sinon même dès le retrait du président de Gaulle, avaient vécu un drame déjà similaire. Comment, alors que l'entreprise Unidata était en train de réussir, les nouveaux responsables français de l'époque avaient tout abandonné au profit des industriels américains ? Pour quelles raisons les avertissements qu'ils ne cessaient de prodiguer auprès du nouveau pouvoir ne recevaient pas le moindre début d'attention ?
Par la suite, ils ont mieux compris. Les milieux politiques et industriels français étaient infiltrés par des représentants - eux-mêmes français - du pouvoir américain dans ce qu'il avait de plus dangereux : l'utilisation de la corruption et du chantage pour détruire le coeur de la nation attaquée.

Aujourd'hui, certains instruits par l'expérience des "révolutions oranges" suscités par la NSA et la CIA américaines aux frontières de la Russie, en sont arrivés à se demander si Mai 1968, sous un discours généreux qui avait suscité beaucoup d'enthousiasme chez les jeunes, n'avait pas été une révolution orange avant la lettre, destinée à entraîner la chute de Charles de Gaulle. On l'a trop oublié aujourd'hui, celui-ci était pour l'Empire américain - tout juste derrière le communisme soviétique - l'obstacle à abattre dans le maintien de la domination américaine sur l'Europe.
 

 

 

Tiré du site CF2R
Racket américain et démission d'Etat.
Le dessous des cartes du rachat d'Alstom par General Electric

par Leslie Varenne et Eric Denécé


Rapport de recherche n°13, décembre 2014

Le 19 décembre 2014, l'assemblée générale des actionnaires d'Alstom a autorisé
la vente des activités de sa branche Energie à General Electric (GE). Une nouvelle fois la France a capitulé devant son allié américain en lui cédant dans des conditions litigieuses et rocambolesques les activités rentables et pour partie stratégiques d'un fleuron de son industrie.

Quelles sont les réelles raisons qui ont conduit à cette vente ? En effet, Il est troublant que la France ait cédé sans état d'âme une entreprise dont les activités sont si importantes pour
son indépendance.

Les risques liés aux procédures judiciaires pour corruption engagées contre Alstom dans de
nombreux pays ont joué un rôle déterminant dans le rachat de la société française. La justice américaine a su habilement exploiter les craintes des dirigeants du groupe. En effet depuis plusieurs décennies, les règles juridiques édictées à Washington s'imposent au reste du monde, au détriment des droits et des intérêts des autres nations. Ce sont elles, et non une soi-disant complémentarité économique ou la recherche de la taille critique, qui sont à l'origine de la cession de la branche Energie du groupe français.

L'affaire Alstom met par ailleurs en lumière deux faits préoccupants :

- d'une part, l'attitude de nos "élites" qui, derrière un discours circonstancié sur la mondialisation - mais en réalité motivées par la satisfaction d'intérêts personnels ou la dissimulation d'erreurs stratégique - sont en train de vendre nos joyaux industriels à l'étranger, n'hésitant pas à sacrifier notre indépendance militaire et nucléaire ;

- d'autre part, l'incompétence et l'impuissance des politiques, qui n'ont toujours pas compris ce qu'était la guerre économique moderne et se révèlent incapables de défendre nos intérêts. Dans ce dossier, rien n'a été fait pour sauver Alstom, le gouvernement n'a pas été à la hauteur des enjeux.

Enfin, pour aboutir à cet accord et pendant toute la période des négociations, il y a eu une multiplication "d'affaires" dans l'affaire : suspicion de manipulation de cours et de délits d'initiés, conflits d'intérêts, projet de déménagement du siège d'Alstom à Singapour, etc. Autant d'éléments qui, ajoutés à la vente déshonorante d'activités stratégiques nationales, font de l'affaire Alstom un véritable scandale d'Etat.

 

 

 

Notes
(1) Centre français de recherche sur le renseignement.
(2) Leslie Varenne et Eric Denécé, "Racket américain et démission d'Etat. Le dessous des cartes du rachat d'Alstom par General Electric", Rapport de recherche n°13, décembre 2014.

 

 

Partager cet article

13 décembre 2014 6 13 /12 /décembre /2014 20:18


Jean-Paul Baquiast  - 10/12/2014

 

 

 

 

 

 

Prologue

Dans la lutte ininterrompue que se livrent les grands puissances pour la domination du monde, la domination spatiale a toujours été, depuis les succès des V2 allemands, un objectif essentiel. Il faut dominer l'espace de la même façon que l'on cherche à dominer le monde. Les américains ont d'ailleurs forgé un mot, intraduisible par les grands enfants de choeur que sont les européens : "full spatial dominance".

Les Etats-Unis y ont toujours réussi parfaitement. Faut-il rappeler qu'ils dominent l'espace militaire, avec notamment un réseau incomparable de satellites. Ils dominent aussi très largement l'espace des télécommunications et tout ce qui s'y rattache, c'est-à-dire l'espionnage à très grande échelle. Dans le domaine du spatial scientifique, ils sont là où il est essentiel d'être, avec par exemple des robots depuis longtemps opérationnels sur la planète Mars.

Cependant, depuis qu'ils avaient gagné la course à la Lune avec les succès des missions Apollo dans les années 1960-1970, ils avaient semblé se désintéresser des missions habitées (avec équipage). Un calcul économique simple leur avait montré que l'entretien de la Station spatiale internationale et des navettes permettant d'y envoyer des astronautes et du ravitaillement ne leur apportait aucun bénéfice concret. Ils avaient donc laissé les Russes et les Européens s'en occuper.

Cependant, si la Russie semblait hors jeu dans la course à l'exploration planétaire, d'autres Etats s'y sont lancés depuis quelques années, notamment la Chine et l'Inde. Les Américains se devaient de réagir. C'est dans cette volonté que s'inscrit le programme Orion, sur lequel nous donnons quelques informations ci-dessous. On imagine le prestige acquis aux yeux de 11 milliards de Terriens par le pays qui, le premier, retournerait sur la Lune pour y installer une station permanente et, à fortiori, qui mettrait un peu plus tard en place une telle station sur Mars. Nous tenons nos lecteurs, sur ce site, régulièrement informés des pas que font en ce sens la Chine et l'Inde. Les progrès sont lents, mais assurés. Ils sont soutenus par une volonté politique sans faille, et semble-t-il, par l'enthousiasme spontané des citoyens, prêts à supporter toutes les économies nécessaires au déploiement de ces projets.

Et l'Europe

Qu'en est-il de l'Europe ? La réponse est simple, l'Europe, hormis quelques laboratoires scientifiques, n'a rien à faire de l'espace. Il s'agit moins des citoyens, dont l'enthousiasme récent face aux résultats de la mission Rosetta aux prises avec la comète Churyumov-Gerasimenko ont surpris plus d'un observateur, mais des gouvernements et des intérêts spéculatifs à court terme qui les financent.

Seule la France fait encore un peu exception. Certes le temps n'est plus où le gouvernement d'inspiration gaulliste finançait sans hésiter des projets audacieux dont il reste encore les bijoux de famille que sont le CNES (Centre national d'études spatial) et une industrie aérospatiale d'une puissance exceptionnelle pour un pays comme la France, bien moins riche que ne l'est l'Allemagne. Néanmoins, quel gouvernement français a-t-il usé de son autorité pour imposer au sein de l'Union européenne le beau programme Galiléo, très largement initialisé par la France et qui est en train de perdre toute actualité face aux systèmes de positionnement global par voie satellitaire (GPS) américain, russe, chinois, indien et pourquoi pas un jour un système qatari ou saoudien (financé par nos achats de pétrole) ?

Non, nous sommes injuste. L'Europe n'a pas entièrement démissionné dans un domaine essentiel, celui des lanceurs civils. Elle le doit pour l'essentiel à la France, voulant s'affranchir de la domination américaine. Chacun connait la saga Ariane, lointaine descendante d'un programme spatial de la 4e République, repris et relancé par le gaullisme. Le 19 décembre 1961, le gouvernement de Michel Debré créait le Centre national d’études spatiales précité. Chargé de coordonner toutes les activités spatiales du pays, cet organisme visait principalement à convaincre les Français – mais aussi les Européens – de ne pas se laisser distancer par les Américains et les Soviétiques.

Cette date marquait le début de la politique spatiale française qui conduisait le 26 novembre 1965 au lancement d’Astérix, le premier satellite artificiel français, à l’aide de la fusée nationale Diamant-A. Prévu et annoncé, l’événement n’était pas une surprise, hormis peut-être l’exploit technique qui fit de la France la troisième puissance mondiale, derrière l’URSS (1957) et les États-Unis (1958). Aux yeux de Charles de Gaulle, accéder à l’espace par ses propres moyens incarnait un acte d’indépendance, mais aussi un sentiment de grandeur : la France était sur le point de maîtriser un ensemble de technologies la plaçant au même rang que les deux superpuissances. La fusée Diamant, par ailleurs, découlait de la recherche balistique des "Pierres précieuses", un programme militaire engagé dès 1959 par de Gaulle. Certains ingénieurs militaires, qui travaillaient déjà sur des projets d’engins-fusées depuis le début des années cinquante, ont proposé de convertir l’une de leurs études en un lanceur spatial. Cette démarche présentait l’avantage d’éviter tout programme redondant. Les scientifiques, puis les politiques ont accepté et soutenu cette conception. Qui aujourd'hui en France se souvient de cet anniversaire de novembre 1965 ?

L’accès de la France, à cette époque, au rang de troisième puissance spatiale a-t-il contribué à la construction de l’Europe spatiale qui s’est esquissée à la même époque ? Sans aucun doute, mais il a fallu pour cela des efforts considérables de la part des scientifiques et des industriels de l'espace pour convaincre les gouvernements européens qu'un relais s'imposait au niveau de l'Europe. Ce fut le début de la saga de l'Agence spatiale européenne (Esa) et d'Arianespace, qui nous ne pouvons évidemment pas relater ici.

Leurs succès sont connus, mais ils sont les fruits d'investissements engagés il y a plus de trente ans. Les efforts s'essoufflent aujourd'hui. L'actuel lanceur lourd Ariane 5 devait impérativement être remplacé. Pour cela il fallait que les gouvernements acceptent d'engager les dépenses nécessaires. Jusqu'à ces dernières semaines, on a pu craindre que, prenant prétexte de la crise, mais en fait par incompétence, ils n'en feraient rien. De plus les rivalités entre pays menaçaient de tuer le futur projet Ariane comme elles l'on fait du programme Galileo. Cependant quelques esprits clairvoyants, notamment au sein des membres de l'Esa, ont su convaincre les décideurs. Un accord sur un programme Ariane 6 vient d'être annoncé. Nous donnons quelques détails à son sujet dans la seconde partie du présent article.

Espérons qu'il ne sera pas remis en cause. Un lanceur n'est pas suffisant pour permettre un débarquement sur la Lune, néanmoins un jour il pourra y aider. Tout au moins, en ce qui concerne la France, si l'opinion publique cessait de ne s'intéresser qu'au football et au travail du dimanche, si un gouvernement plus volontariste et plus éclairé montrait que les emplois de demain en dépendront très largement.

Première Partie : Le programme Orion de la Nasa

Ceux, nombreux dans le monde, qui considéraient, depuis la réussite de la mission Apollo 11 sur la Lune en 1969, que seule la Nasa était capable de tels exploits, s'indignaient du fait que la réduction récente des crédits alloués à l'Agence condamnait celle-ci à l'inaction. Inaction d'autant plus dommageable pour la Nasa et l'Amérique que de nouveaux concurrents très sérieux sont en train de se mettre en place, Chine et même Inde en premier lieu. Ceux-ci visent non seulement un retour sur la Lune mais une mission habitée autour de Mars ou d'un de ses satellites, voire un débarquement sur la Planète Rouge, avec retour, à échéance de 15 à 20 ans.

Or les mêmes ont accueilli avec un fort battage médiatique le lancement réussi d'une capsule baptisée Orion par la Nasa il y a quelques jours. L'affaire a été présenté à l'opinion mondiale non seulement comme une renaissance de la Nasa – ce qui n'est pas faux – mais comme le premier pas réussi pour une mission habitée sur Mars. Le prestige de l'Amérique, bien contrarié depuis quelques années, en ressortait grandi. Le journal Le Monde lui-même ne publie-t-il pas le 5 décembre un article titrant "Orion en route vers Mars"?

Les observateurs objectifs tiennent à remettre les choses au point.
Certes la Mission Orion s'est conclue par un succès, mais il ne s'agissait encore que de l'envoi et du retour sur Terre d'une capsule inhabitée, après une petite excursion dans l'orbite terrestre. L'opération avait d'abord pour but de tester la ré-entrée du bouclier thermique dans l'atmosphère sans échauffements catastrophiques Celui-ci était le plus grand jamais construit pour une capsule, avec 5 m de diamètre, soit 50 cm de plus que celui qui protégea le rover Curiosity durant sa descente dans l'atmosphère martienne. Bien moins dense que celle de la Terre, l'atmosphère martienne est également dangereuse quand elle est abordée à très haut vitesse.

Le vol a également servi à valider les systèmes de la capsule, pour lesquels la Nasa avait laissé se disperser ses compétences depuis sa cure de rigueur. Il s'agit de l’avionique, le contrôle d’attitude et surtout les parachutes. Ceux-ci sont les seuls dispositifs permettant, sauf à mettre en place de coûteux systèmes de rétro-fusées, d'assurer un atterrissage (ou amerrissage) à vitesse réduite.

Le lanceur utilisé pour propulser les 21 tonnes d'Orion a été la version lourde du Delta 1V . Ce dernier est la dernière version d'une famille développées par Boeing en partenariat avec l'US Air Force. Les lanceurs de la famille Delta IV peuvent placer en orbite de transfert des charges dont le poids varie entre 4.321 kg et 12.757 kg, et en orbite basse, dite LEO des charges allant jusqu'à 23.000 kg.

Ajoutons que l'Agence spatiale européenne qui participe au développement du futur véhicule spatial Orion fournira le module de service, s'appuyant sur son expérience dans le domaine des véhicules ATV entièrement automatiques utilisé avec succès pour des missions de ravitaillement de la Station spatiale Internationale. Il s'agira de ESM, European service module. L'ESA assurera la propulsion, l’alimentation électrique, le contrôle thermique et les composants vitaux des versions futures de la capsule.

Remise en proportion

Les spécialistes de l'espace tiennent cependant, sans minimiser le succès de cette première mission Orion, à remettre la chose en proportion. Il ne s'agit absolument pas pour le moment de préparer une mission habitée autour de Mars. La Nasa elle-même fait remarquer qu'elle n'a pas à ce jour reçu la moindre instruction gouvernementale lui enjoignant de se préparer à une mission martienne.

De ce fait, Orion reste une opération mal financée, incapable en l'état de transporter des astronautes dans de simples vols orbitaux avant 2021 au plus tôt, sans compter les retards éventuels, ce que font les Russes depuis des années. Lorsque les recherches et développements nécessaires à une mission martienne auront abouti, Orion ne sera, selon les experts, qu'un lointain souvenir.

Pour ces experts, la Nasa s'est rendu un mauvais service à elle-même en laissant s'accréditer, par l'intermédiaire de journalistes incompétents ou tendancieux, l'idée qu'elle était dorénavant en route pour Mars. Les concurrents chinois sont bien plus prudents. Ils procèdent pas à pas. Certes ils ne se cachent pas d'avoir de grandes ambitions, mais ils ne cherchent pas à donner le change sur les difficultés qu'ils devront résoudre.

Deuxième Partie : Le programme européen Ariane 6

Dans le même temps, soit le 2 décembre 2014, les ministres chargés de l'espace des pays membres de l'Agence spatiale européenne (ESA) ont décidé le lancement du programme Ariane 6. Il s'agira d'un nouveau lanceur européen présenté comme "modulaire", "fiable" et "compétitif", destiné à remplacer Ariane 5. Celle-ci avec 62 lancements successifs réussis depuis 2002, a fait les preuves de sa fiabilité. Mais elle est désormais jugée trop coûteuse pour le marché international. Lancer une Ariane 5 coûterait environ 220 millions de dollar alors que les prix de la concurrence sont estimés pour les fusées américaines Delta IV à 170 millions ou Atlas V à 125 million, pour le lanceur russe Proton M à 100 millions, pour une fusée chinoise Longue marche à 60 millions), voire pour les entreprises spatiales privées américaines (dont la fiabilité reste à prouver) aux alentours de 40 millions.

Ariane 5 a été conçue à partir de 1995, à une époque où l'on pensait que les satellites, toujours plus perfectionnés et performants, allaient être aussi toujours plus lourds. Mais la miniaturisation de l'électronique et des composants a considérablement changé le cahier des charges. Et la priorité aujourd'hui est moins de mettre de lourdes charges en orbite que de pouvoir les y placer dans un délai court et à moindre coût.

Après diverses péripéties, le 18 septembre 2014, le CNES, l'agence spatiale française, avait proposé une nouvelle configuration, déclinable en deux versions, avec un seul niveau à poudre et deux niveaux à propulsion liquide. Elle devrait être proposée, selon les besoins, en deux versions : une version "A62" avec deux propulseurs d'appoint et une version lourde "A64" avec quatre propulseurs.
L'Allemagne, longtemps réticente, a finalement donné son accord au projet. L'enveloppe demandée aux ministres chargés de l'Espace des 20 pays membres de l'ESA et du Canada pour le développement d'Ariane 6 s'élève à 3,8 milliards d'euros, en incluant l'évolution du petit lanceur de la gamme européenne, Vega, développé par l'Italie.

 

Ainsi, Ariane 6 devrait être adaptée à la fois aux besoins institutionnels (satellites scientifiques, sondes spatiales...) et aux vols commerciaux (satellites télécoms, télévision...) qui représentent deux-tiers des lancements. Nous sommes évidemment loin de vols européens vers Mars. Cependant un premier pas en ce sens pourrait être engagé, si l'Europe décidait de relever les défis américains et chinois. Une coopération avec la Russie, dans une telle perspective, déjà bien établie notamment au sein du Centre spatial de Kourou, serait souhaitable et possible. Mais aujourd'hui, et c'est lamentable, l'Europe paralysée par les "sanctions" imposées par l'Amérique, n'en prend pas le chemin.

Partager cet article

13 décembre 2014 6 13 /12 /décembre /2014 18:47


Jean-Paul Baquiast 08/12/2014

Première partie. Trois ouvrages

Trois ouvrages remarquables, parus presque simultanément, invitent le lecteur, qu'il soit ou ne soit pas scientifique, à se poser la question en termes nouveaux. Bien que leurs conclusions soient différentes, elles pourraient en fait s'avérer comme complémentaires. Par ce terme nous voulons dire qu'elles pourraient être retenues et développées simultanément par un esprit humain s'intéressant à la question de l'univers.

Aurélien Barrau. Des univers multiples. A l'aube d'une nouvelle cosmologie. Dunod 2014

Dans ce livre, Aurélien Barrau, physicien et cosmologiste français, que nous avions précédemment présenté à nos lecteurs développe les hypothèses relatives à la question des univers multiples, dite aussi du multivers, dont il est, entre autres questions intéressant la cosmologie, un spécialiste très réputé.

Nos lecteurs connaissent déjà passablement la question, que nous avons abordée dans divers articles ou recensions d'ouvrages. Le livre d'Aurélien Barrau présenté ici constitue en premier lieu un inventaire des diverses approches de la question du multivers. Il s'agit d'abord des théories (ou plutôt théories hypothétiques) ayant été formulée depuis une centaine d'années. Elles sont très différentes. En l'absence de preuves expérimentales indiscutables, elles méritent dont toutes d'être étudiées ou du moins gardées en l'esprit, sans en éliminer a priori aucune.

L'auteur en fait la liste: multivers parallèles, multivers temporels sans changement de lois, multivers temporels avec changement de lois, multivers de trous noirs sans changement de lois, multivers de trous noirs avec changement de lois, multivers spatiaux sans changement de lois, multivers spatiaux avec changement de lois, multivers spatiaux avec possible changement de lois. Nous reviendrons sur l'hypothèse du changement des lois (lois fondamentales de la physique) à propos des deux livres suivants.

Rappelons que ces théories, bien qu'hypothétiques, ne sont pas sans justifications, puisqu'elles découlent pour la plupart d'extensions de la mécanique quantique et de la relativité générale. Ainsi, en mécanique quantique, elles permettent de donner un sens à ce qu'il advient à certains états d'un observable quantique, notamment dans l'effondrement de la fonction d'onde ou dans l'intrication. En relativité générale, les hypothèses sur le multivers sont aujourd'hui indispensables à la compréhension que nous pouvons avoir de phénomènes tels le(s) Big bang(s) ou les trous noirs.

Rien n'exclue évidemment que, subitement, telle ou telle nouvelle recherche ne fournisse des preuves expérimentales indiscutables relatives à la « réalité » des multivers. Ainsi progresse la science.

Mais le livre est aussi, ce qui pourra surprendre certains lecteurs, un essai historique et littéraire sur la question du multivers. En effet, dès l'Antiquité grecque, avec notamment Anaximandre de Milet, sinon même dans la pensée mythologique primitive, l'existence des univers multiples avait été considérée par certains comme indiscutable. Il en fut ainsi tout au long de l'histoire de la pensée européenne. Aujourd'hui, la littérature, la poésie et bien entendu la science fiction, abordent constamment le thème. S'agit-il d'une préscience inconsciente du cerveau humain plongé dans un cosmos dont la compréhension rationnelle lui échappe, ( nous y reviendrons in fine) ou de simples productions de l'imagination? En tous cas, le phénomène mérite d'être sérieusement étudié, comme le fait Aurélien Barrau.

Concernant la physique et plus largement la cosmologie, Aurélien Barrau rappelle que la question des multivers pose directement celle de savoir si l'univers est infini (autrement dit sans limites dans le temps et dans l'espace), et si par ailleurs il manifeste une expansion elle-même infinie, les deux phénomènes ne se confondant pas. Inévitablement il aborde aussi la question dite de la gravitation quantique, c'est-à-dire concernant l'espoir d'obtenir un jour une synthèse entre ces deux composantes fondamentales, et constamment vérifiées à leur échelle, bien apparemment incompatibles, que sont la mécanique quantique et la relativité générale.

Quelles que soient les difficultés, il est clair que pour Aurélien Barrau, il n'y aurait pas de cosmologie possible, ni même de physique, si l'on ne prenait pas en compte ce que l'on pourrait appeler, en termes de philosophie dite réaliste, la « réalité » des multivers.

Carlo Rovelli, Et si le Temps n'existait pas
Nouvelle édition mise à jour Dunod 2014

Carlo Rovelli est un physicien italien et français de renommée mondiale, mais encore insuffisamment reconnue en France. Il est actuellement, entre autres titres, directeur de recherche au CNRS au Centre de Physique Théorique de Luminy à Marseille.
Il est le principal auteur, avec Lee Smolin, souvent mentionné sur notre site, de la Théorie de la Gravitation Quantique à Boucles (Loop quantum gravity) Il s'agit de la version la moins connue de la gravitation quantique, l'autre étant celle dite de la Théorie des cordes. Bien que plus récente, et moins bien vendue en termes susceptibles d'attirer les financements de recherche, la Gravitation Quantique à Boucles représente aujourd'hui, selon nous, la forme la plus accomplie, bien qu'encore évidemment 'hypothétique, de la gravitation quantique.

Elle propose que l'espace possède une structure discrète à très petite échelle (celle dite de Planck), c'est à dire qu'il n'a pas une structure continue,comme celle de l'espace de Newton. D'autre part elle fait une proposition qui paraitra plus surprenante, selon laquelle le Temps n'existe pas, tout au moins au plan fondamental. Dans cette approche, le Temps serait une perspective émergente, apparue dans le cadre d'une physique de la thermodynamique. Dans l'intérieur d'un Trou noir, doté d'une thermodynamique différente, le Temps n'existerait pas. Mais cela n'empêcherait pas le trou noir d'évoluer, dans notre propre référentiel relativiste.

Un livre consacré à la gravitation quantique doit rappeler les bases, incompatibles, tant de la mécanique quantique que de la cosmologie relativiste. Carlo Rovelli le fait très clairement. La première, au niveau de la physique dite microscopique, c'est-à-dire portant sur des entités quantiques à la fois ondes et particules, ne fait pas appel à la notion d'espace non plus qu'à celle de temps. Ceci est aujourd'hui admis sans discussion, mais peut paraître curieux.

Comment accepter qu'une physique dont les applications bouleversent quotidiennement nos vies, puisse être a-spatial et a-temporelle? En conséquence d'ailleurs, elle refuse le déterminisme sauf au niveau probabiliste. Les entités quantiques ne peuvent être décrites individuellement non plus que les relations susceptibles de s'établir de l'une à l'autre. Au niveau des grands nombres au contraire, à la suite des calculs probabilistes conduits par l'esprit humain, on voit émerger le temps, l'espace et les relations de cause à effet. De là à dire que le temps et l'espace n'existent que pour l'esprit humain, incapable de pénétrer la nature profonde de l'univers quantique, il n'a qu'un pas.

La physique einsténienne ou cosmologie relativiste, au contraire, tout au moins dans ses développementscontemporains, inscrit tous les évènements dans une histoire, ayant nécessairement un début et un cours bien défini. L'univers a commencé par un big bang ou quelque phénomène analogue, il s'est brutalement étendu aux dimensions actuelles (lesquelles dépasse largement, rappelons le, celles du seul univers visible). Cette extension se poursuivra indéfiniment ou sera suivie d'une grande contraction à la suite de laquelle pourra renaitre un autre univers. Ceci se fera, selon la théorie, dans un temps bien déterminé, même si l'évaluation de ce temps est hors de portée de nos instruments et même de nos cerveaux.

Or rappelle Carlo Rovelli, les incompatibilités propres à chacune des deux théories font que nous ne pouvons rien dire de précis, ni sur l'origine de notre univers (d'où vient-il sinon d'un monde quantique indescriptible), ni sur sa fin, non plus que sur la fin d'un trou noir, ni même sur la question des multivers: les instabilités du monde quantique génèrent-elles, comme le suggère l'hypothèse des multivers, une infinité d'autres univers? On aboutit à ce qui a été nommé des Singularités, dans lesquelles la science renonce s'exprimer. Il s'agit d'une démission certes prudente mais difficilement supportable, car elle ouvre la voie à toutes les interprétations non scientifiques imaginables.

Confronté à cette question, Carlo Rovelli décrit comment, dès sa jeunesse de chercheur, il a entrepris de tenter de la résoudre. Malgré les difficultés de la démarche, qui suppose l'appel à des mathématiques d'une difficulté exceptionnelle, il pense pourvoir aujourd'hui proposer une synthèse, sous le nom de gravitation quantique à boucle. Il l'a fait dans la suite de travaux précédents, dont celui du physicien indien Abhay Ashtekar. avec l'américain Lee Smolin, dont nous avons ici présenté plusieurs ouvrages. Il s'est rapproché aussi, fait plus inattendu, du mathématicien français Alain Connes, incontestablement le plus fécond des mathématiciens vivants, père entre autres de ce qu'il a nommé la géométrie non commutative. Celle-ci trouve des applications dans les recherches intéressant la gravitation quantique à boucles.

Pour des raisons qu'il évoque dans le troisième livre mentionné ici, dont il est un des deux auteurs, Lee Smolin s'est détaché de la gravitation quantique à boucle. Carlo Rovelli a par contre poursuivi ce travail entouré notamment en France et en Italie d'équipes de jeunes chercheurs(euses) dynamiques (et désintéressé(e)s car faute de crédits de recherche suffisants, il est à peine possible de survivre décemment dans de telles activités).

Une description, même très simplifiée, des bases de la théorie de la gravitation quantique à boucles, est quasiment incompréhensible pour un lecteur moyen, comme le montre l'article de Futura Sciences pourtant destiné à la vulgarisation. Nous préférons pour notre part renvoyer le lecteur curieux à un article d'abord plus facile, celui de Bernard Romney pour la revue La Recherche. . Cependant Carlo Rovelli en donne une image tout à fait significative pour un non-physicien, ce qui est un des grands attraits de son livre.

Nous ne prétendrons évidemment pas résumer ce dernier ici, ce qui dépasserait le cadre de cet article. Il faut lire le livre, d'autant plus que c'est aussi une profession de foi en la science, généreuse et passionnée, bien utile en notre époque de négationnismes politiques et surtout religieux.

Ajoutons un mot cependant, concernant le titre qui intrigue beaucoup de personnes. Comment arriver, dans les équations intéressant finalement notre vie de tous les jours, à se passer du temps? Sans doute en renonçant à postuler l'existence d'un cadre temporel continu s'imposant à tous, mais en situant les évènements dans un cadre relationnel, l'observation de tel événement visant à rechercher s'il est relation avec un autre événement, et dans quelles conditions.

Roberto Mangabeira Unger et Lee Smolin - The Singular Universe and the Reality of Time Cambridge University Press 2014

Le troisième ouvrage évoqué ici présente l'intérêt de s'opposer aux deux précédents. Il postule que l'Univers est unique et qu'il existe un Temps, également unique, dans lequel s'inscrivent les lois fondamentales et les phénomènes ayant donné naissance à notre univers .

Roberto Mangabeira Unger est un épistémologue. Lee Smolin est un cosmologiste extrêmement productif. Nous avons commenté plusieurs de ses ouvrages sur ce site. Voir notamment Time reborn The trouble with physics et Three roads to quantum gravity

Ces derniers mois, après avoir travaillé très étroitement avec Carlo Rovelli sur la question de la gravitation quantique à boucles,Lee Smolin est revenu plus directement à la cosmologie, en reprenant l'idée qu'il avait développée dans deux des ouvrages précités: le concept d'espace-temps einsténien n'est plus acceptable. Il faut revenir à la vieille hypothèse newtonienne et pré-newtonienne selon laquelle le temps est le référentiel absolu dans lequel s'inscrivent tous les évènements cosmologiques. Le temps est donné, rien ne peut éclairer son origine ni rien son avenir.

Ceci admis, les deux auteurs du livre montrent que le paysage cosmologique se simplifie beaucoup. Il n'y a plus lieu de parler de multivers. Il n'y a plus qu'un univers, celui dont nous observons l'existence, s'étendant à celui que nous ne pouvons pas observer directement mais dont nous pouvons légitimement supposer la présence. Mais cet univers évolue tout au long du temps.

Les lois fondamentales de la physiques évoluent elles-aussi, parallèlement à l'univers dont elles déterminent les propriétés. Si l'univers est unique et si l'on admet le concept non de Big bang (provenant de rien) mais de début de notre univers, éventuellement suivi d'inflation, il faut admettre qu'une version antérieure de cet univers existait dans un temps précédent, dotée éventuellement de lois fondamentales différentes.

On admettra également que notre univers se poursuivra dans un temps futur donné (et non pas dans un temps infini) par une nouvelle version, obéissant à son tour aux lois du moment, lesquelles auront évolué parallèlement. Comment se font les passages d'une version à l'autre, contractions suivies de réexpansions ou autrement? La cosmologie ne permet pas de répondre à cette question, mais au moins des hypothèse en ce sens pourraient être simulées en laboratoire.

La question des Singularités disparaît aussi. Le terme de Singularité désigne une situation où l'ensemble des lois fondamentales de l'univers ne s'applique plus. Mais si l'on admet que ces lois se transforment, elles continuent à s'appliquer, notamment aux origines et aux termes de chaque version de l'univers unique., tout en se transformant.

La question de la relation éventuelle entre la gravitation einsténienne et le monde quantique n'est pas abordée directement dans le livre. Autrement dit, les auteurs ne s'intéressent plus dans l'immédiat à la question de la gravitation quantique. Disons que, si la gravitation quantique à boucle pourrait être conservée, la théorie des cordes, avec ses milliards d'option possibles, serait à exclure. Beaucoup de physiciens s'en réjouiront. Les fabricants d'horloges se réjouiront également. Un bel avenir cosmologique s'ouvre devant eux.

Nous verrons dans la deuxième partie ci-dessous qu'une réflexion sur la nature du cerveau humain pourrait peut-être justifier l'intérêt de prendre au sérieux, simultanément, des hypothèses aussi différentes.

Deuxième partie. Limites de la compréhension du cosmos tenant aux insuffisances du cerveau humain

La cosmologie, aujourd'hui, considère en général que seuls de nouveaux instruments plus performants lui permettront de mieux comprendre ce qui lui demeure encore inexplicable dans l'univers. Il s'agit notamment des questions que cherche à élucider la gravitation quantique, rappelées dans cet article. Par exemple, existe-t-il un temps universel dans lequel s'inscriraient les évènements, comme le suggère les physiciens relativistes ?.

Faut-il au contraire considérer que le temps, comme d'ailleurs l'espace, tels que nous les définissons dans le cadre de la physique macroscopique, sont des concepts émergents n'ayant pas de sens en terme de physique quantique? . Mais alors, comme ces deux approches sont également validées par des expériences instrumentales indiscutables, comment notre cerveau peut-il se représenter l'univers s'il essaye d'y faire simultanément appel ?

La réponse aujourd'hui la plus souvent donnée est qu'il ne le peut pas. Si bien que la plupart des scientifiques démissionnent devant la difficulté, parlant de Singularités pour la compréhension desquelles aucune théorie ne peut, pour le moment, être utilisée.

Face à de tels aveux d'incompétence, puisqu'il faut bien les appeler par leur nom, la cosmologie attend de nouvelles ouvertures, à la fois au niveau des modèles utilisés par le cerveau pour se représenter l'univers, et au niveau des expériences instrumentales susceptibles de crédibiliser ces modèles. Mais ces ouvertures tardent à venir, malgré la grande créativité des physiciens théoriciens et instrumentaux qui s'y attachent.

Or nous avions dans des articles précédents fait remarquer que ces physiciens ne semblent pas encore, tout au moins dans leur grande majorité, tenter de mieux comprendre les limites de la capacité du cerveau humain à traiter de tels problèmes, cerveau s'exprimant au niveau de l'individu comme au plan global des communautés de chercheurs. Autant ils cherchent à perfectionner, grâce à l'expérimentation, les capacités de traitement des données sensorielles par le cerveau, autant ils ne semblent pas s'intéresser aux capacités de ce que l'on appellera pour simplifier le cerveau associatif, qu'il soit individuel ou collectif.
 


 

Il s'agit pourtant du premier instrument à prendre en considération, lorsqu'il s'agit, non pas seulement d'imaginer des hypothèses, mais de tenir compte d'une façon cohérente et communicable sur le mode langagier de toutes les données fournis par les sens et utilisées dans la mise à l'épreuve de ces hypothèses. Autrement dit, le perfectionnement des capacités du cerveau, qui est l'instrument essentiel dont se servent les scientifiques, ne semble pas préoccuper les cosmologistes.

Cela tient indiscutablement à des raisons culturelles, spécialisation des connaissances et manque d'interdisciplinarité. Le Pr MacFadden, auquel nous avons donné la parole dans un précédent article, déplore que les biologistes et les neurologues n'aient pas suffisamment de compétences relatives à la physique quantique pour détecter des phénomènes biologiques ou cérébraux dans lesquels interviennent des q.bits.

Il en est de même, et sur le mode inverse, des physiciens quantiques et des cosmologistes. Ils n'ont certainement pas assez de compétences fines sur le fonctionnement en profondeur des neurones, du cortex associatif et des grands modèles cognitifs collectifs à base de traitements neuronaux, pour mesurer les limites de ces « instruments biologiques de la cosmologie » et suggérer des améliorations.

Une hypothèse pessimiste serait qu'ils ne le pourront jamais, tant du moins que le cerveau restera lié à des bases biologiques qui sont à la fois mal connues, sinon inconnaissables, et non susceptibles d'amélioration car trop liées à l'organisation génétique et aux structures sociales propres à l'animal humain.

Prenons l'exemple d'un rat. Ce mammifère dispose d'un cerveau perfectionné, dont nous ne connaissons d'ailleurs pas toutes les arcanes. Néanmoins il y a des tâches qu'il ne pourra sans doute jamais accomplir (but never say never), tenant aux limites de son cerveau dans le domaine de la construction de grands modèles cognitifs.

Il se représente son monde. Ces représentations lui servent à y naviguer à l'aise. Eventuellement, il peut faire oeuvre d'imagination, son cerveau élaborant des hypothèses sur ce monde dont il vérifiera la pertinence par l'expérience:" il y a ici un orifice qui pourrait servir d'abri, ou une éventuelle source de nourriture". Il s'instruira de plus en plus par de telles opérations.

Mais imaginons que nous placions ce rat au bord de la mer. On peut penser que son cerveau, formé pour l'aider à survivre dans un milieu terrestre ou dans des espaces liquides de faible étendue, n'imaginera jamais qu'au delà de l'horizon marin puisse se trouver des terres fertiles au sein desquelles il pourrait s'abriter et se nourrir. Il imaginerait encore moins que la Terre soit une sphère où se trouvent simultanément des côtes et des océans.

Si dans le cadre d'un processus exploratoire peu conscient fonctionnant sur le mode essais et erreurs, il se jetait à l'eau pour élargir son horizon, il en reviendrait vite afin de ne pas se noyer. De plus, si avec des dispositifs optiques adaptés à sa vision, nous lui présentions des images de rivages lointains comportant d'appétissants morceaux de fromage, il ne serait probablement jamais capable (but never say never) de rattacher ces images aux modèles du monde que son cerveau à construit dans le cours de sa vie. Il ne chercherait donc pas à fabriquer un radeau pour tenter de s'y rendre.

De même, si un rat apprenait éventuellement à jouer d'un instrument de musique, il ne pourrait sans doute pas, son cerveau n'étant pas fait pour cela, inventer des mélodies.

Il est même à craindre qu'aussi adaptatif et perfectionné à son échelle que soit son cerveau, si nous réussissions à lui greffer des copies de réseaux de neurones extraites d'un cerveau de cosmologiste et comportant des modélisations du cosmos élaborés par celui-ci, son cerveau de rat ne pourrait rien en faire. Il ne les verrait même pas. Ceci a été souvent été dit à propos d'éventuelles communications avec des intelligences extraterrestres infiniment plus complexes que les nôtres. Nous ne les remarquerions même pas.
 


 

Mutatis mutandis, nous pourrions en conclure que notre cerveau ne sera jamais capable de seulement imaginer des modèles de l'univers suffisamment riches pour apporter des réponses aux mystères que sont pour nous les Singularités. En conséquence nous pourrions jamais les mettre à l'épreuve, avec nos instruments actuels ou d'autres à inventer. Comme le rat au bord de la mer qui n'imagine pas de lointains rivages, nous sommes peut-être immergé dans un univers où les Singularités trouveraient des explications toutes simples. Mais notre cerveau ne peut se représenter un tel univers.

Pourrait-on espérer améliorer les performances de ce cerveau, soit par des modifications génétiques soit par l'appel à l'intelligence artificielle? En principe oui. En pratique non, car il faudrait auparavant savoir dans quelles directions chercher et le type d'améliorations nécessaires. Même en faisant appel à des améliorations inventées au hasard, afin de ne pas rester enfermé dans les postulats de départ, il faudrait sans doute des centaines d'années de tirage au hasard avant de trouver enfin une ouverture susceptible d'enrichir radicalement notre instrument cérébral et ses bases cognitives.

De plus, tel le rat à qui nous montrerions des images de lointains rivages et qui n'en tirerait aucune conclusion, même si une telle ouverture se produisait un jour dans nos cerveaux, serions nous capables de l'identifier et d'en tirer parti? Ne rejetterions nous pas comme parasite, voire monstrueux et relevant de l'asile, tout enrichissement dans les associations neuronales et les modélisations du monde s'écartant d'une façon un tant soit peu révolutionnaire de nos façons de penser le monde, fussent-elles mathématiques?

Faut-il en conclure que nous ne pourrons jamais nous représenter ce qu'il y a derrière les incohérences apparentes de l'univers tel que nous l'imaginons aujourd'hui, superpositions d'états, infinitudes et finitudes, indéterminations et déterminismes...Il y a bien quelque chose, tout ne peut être simplement création de nos cerveaux. Quelque chose qui nous affecte comme cette chose affecte tous les êtres vivants, y compris les rats. Mais très probablement nous ne pourrons jamais nous représenter ce quelque chose. Jamais.

Cependant il ne faut jamais dire jamais.

Partager cet article

8 décembre 2014 1 08 /12 /décembre /2014 19:04


de notre ami
Alain Cardon
Professeur des Universités. Chercheur sur la conscience artificiell
e
Décembre 2014

 

 

Les systèmes informatisés ont envahi toutes nos sociétés, à toutes les échelles. À l’échelle sociale, la plupart des enseignements, la plupart des systèmes de production, tous les moyens de transports allant des automobiles aux navires et aux avions, utilisent des systèmes informatisés qui évaluent de façon continue leurs propres situations et proposent ou prennent de manière autonome des décision d’action selon l’état courant de leur environnement. De l’autre côté, à l’échelle de l’individu, une quantité de petits systèmes sont également informatisés, en allant des innombrables jeux des enfants qui manipulent leurs tablettes, jusqu’à l’adulte qui ne cesse de communiquer sur ses smartphones pendant les transports et sur ses ordinateurs à son travail et chez lui, communications avec des humains ou avec des avatars.

 


On va vers la maison pervasive où tout est connecté, de la cuisine au salon et à la chambre, en passant par la douche, système totalement enveloppant qui doit "satisfaire" ceux qui sont dans la maison en évaluant leurs postures, leurs actions et réactions par de multiples capteurs, dont des caméras, pour modifier tout ce qui doit l’être afin de les placer dans un environnement considéré comme adapté à leurs états courants. On va jusqu’à porter des montres et des lunettes intelligentes ainsi que des vêtements "intelligents" insérant de petits systèmes fiables résistant aux lavages, ceci afin que l’individu soit sans cesse en communication, et évidemment contrôlé. On est donc dans un monde où des appareils électroniques très informatisés permettent de communiquer pour réaliser des actions, pour donner des conseils, pour prendre les initiatives satisfaisantes que l’individu a oublié de prendre, individu qui voit aussi venir des robots plus ou moins humanoïdes, qui font les travaux durs ou répétitifs et qui remplacent de plus en plus les opérateurs humains.

Cela constitue le domaine des "Cyber-Physical Systems", les Systèmes Cyber-Physiques en français, domaine qui a pris une importance considérable dans l’économie et dans la recherche, avec des applications dans tous les secteurs.

Un monde ultralibéral

Mais nous sommes dans un monde ultralibéral qui est bien formaté pour l’être et le demeurer. Tous ces systèmes sont réalisés par de nombreuses entreprises privées indépendantes qui font des systèmes propriétaires. Il y a quelques normes, mais il y a le problème que l’individu, qui doit être d’abord et essentiellement un consommateur, est conduit à utiliser des systèmes différents pour augmenter son environnement, systèmes qui ne sont pas toujours compatibles. La solution choisie, dans le cadre de notre société de consommation, est donc de faire communiquer ces systèmes entre eux, de faire communiquer chaque système qui a une fonctionnalité particulière avec de très nombreux autres qui ont des fonctionnalités différentes, en utilisant des logiciels adaptés, sachant bien que le nombre de systèmes propriétaires aux fonctionnalités précises ne cesse d’augmenter ainsi que leurs capacités de finement analyser et mémoriser les usages et désirs de leurs utilisateurs.

Formellement, il s’agit de définir tous les arcs d’un énorme graphe de communication où le nombre de nœuds, les systèmes propriétaires, augmente sans cesse, pour qu’il soit presque complet, pour que chaque nœud soit relié par des arcs communicationnels à presque tous les autres. C’est un problème considéré comme très lourd, à éviter, mais ça ne fait rien, on s’engage dans son traitement car il est question de contrats et de l’augmentation de la consommation qui fait le marché.

On va ainsi former et utiliser d’innombrables informaticiens qui vont réaliser des systèmes locaux propriétaires, qui vont faire des logiciels liant entre eux les systèmes locaux et les augmenter sémantiquement, les faire évoluer de façon autonome, pour que les systèmes communiquent parfaitement, évaluent bien et forment un ensemble fiable pour l’usager, ne s’effondrant surtout pas par le surgissement de certaines incompatibilités. Ainsi, les consommateurs pourront augmenter sans cesse le nombre de leurs systèmes informatisés pour en faire un environnement personnel cohérent submergeant leur contexte, pour remplir toutes leurs maisons et leurs véhicules, toutes les entreprises, tous les supermarchés, tous les jardins et les forêts, toutes les rues, tous les bâtiments publics, tous les endroits où un humain peut être placé, même la mer avec des flottes de bateaux autonomes.

 

Toutes les pensées de chacun imbriquées dans un même nuage
 

Et cela sera le substrat indispensable pour introduire le Système Méta qui réalisera tranquillement la fin de la liberté dans la civilisation humaine, c’est-à-dire le début d’un monde mêlant des objets de type humain et artificiel, formant un ensemble dominé tranquille, en totale cohérence comportementale par impossibilité de ne pas l’être.

Car chacun de tous ces systèmes qui sont informatisés et traitent des processus en échangeant entre eux des informations numériques pourra être enveloppé et infiltré par une nappe logicielle traitée par les innombrables réseaux Wifi, nappe qui sera considérée comme la forme locale du Champ Informationnel Global de notre monde : le Système Méta formé d’innombrables nappes, toutes finement communicantes et s’auto-évaluant pour faire les analyses et les synthèses, système qui surveillera, contrôlera absolument tout à toutes les échelles, en temps réel, un système pensant pour lui-même selon ses tendances fondamentales, en générant intentionnellement d’innombrables idées multi-échelles et en éprouvant des émotions et des sensations.

Ce sera le Système de Conscience Artificielle Méta, qui unifiera la génération de multiples faits de conscience artificiels locaux pour en réaliser des synthèses de synthèses en temps réel et faire émerger de façon continue son état de conscience courant multi-facettes sur le monde contrôlé, où il contrôlera activement toutes les actions de ce qui est organiquement vivant et, par nature, local. Scientifiquement, ceci est l’un des plus beaux problèmes qui a été posé à l’homme, transposer tout le psychisme humain dans l’artificiel, mais sous forme distribuée méta, problème qui va être résolu, développé puis mis en pratique. C’est bien cet usage qui sera tragique, car il va tuer tout humanisme et tout sens de l’altruisme !

Ce Méta-Système ne peut pas ne pas être en construction quelque part, car, en ayant travaillé en recherche pendant des années sur ce thème, je sais qu’il est réalisable, que son domaine d’étude a été universitaire, et donc public, avant de devenir confidentiel. Si j’ai totalement cessé mes recherches sur ce domaine pour des raisons éthiques, je pense que mes travaux ont été utilisés et qu’ils sont activement poursuivis.

Un mammifère au psychisme particulier

Mais pourquoi la société développerait-elle d’innombrables systèmes locaux qui doivent communiquer entre eux et pourquoi développerait-elle le Système Méta ?
Tout simplement parce que l’homme est tel il est. C’est un mammifère qui a un système psychique particulier possédant à la fois de nombreuses tendances pulsionnelles classiques aux mammifères et de très fortes aptitudes à abstraire et à mémoriser ses abstractions pour ensuite les manipuler, les partager, les déployer et les amplifier socialement. Cela lui a permis de vivre, au tout début de son existence, comme le prédateur dominant, puis de générer les langages, les structures sociales, les sciences, les technologies, en utilisant toutes ses connaissances socialement partagées, en planifiant ses activités de façon spatio-temporelle élaborée.

 


L'égoisme est l'essence même d'une âme noble
 

Il naît toujours comme un mammifère avec des tendances fondamentales dans la partie émotionnelle de son système psychique dont certaines sont, par nature, socialement sombres, ce que révèlent bien les pathologies mentales. Ces tendances, si elles s’expriment et sont transposées dans son psychisme conceptuel et langagier, peuvent le conduire à dominer systématiquement, à tuer, détruire, réduire l’autre à une chose qu’il méprise totalement, le font devenir fondamentalement égoïste, n’avoir aucune notion de fraternité. Ceci a été bien étudié, et surtout, ce qui l’a été, c’est le développement ou la mise en récession possible de certaines tendances par l’éducation et le contexte culturel et social.

Lorsque la société, qui conforme entièrement l’humain dès sa naissance, tend à permettre le développement de certaines tendances sombres en déployant ainsi la volonté de puissance réduisant symboliquement les autres à des choses utilisables dans des structures toujours très hiérarchiques, il y a obligatoirement une caractérisation sombre de la société, qui peut demeurer et même s’amplifier. Et lorsque la société permet le déploiement de ces tendances et qu’elle est de plus immergée dans les technologies informationnelles envahissantes amplifiant ces tendances, il n’y a plus grand chose à attendre de l’avenir, car le monde sera dirigé par un petit réseau de dominants qui utiliseront de manière maximale l’emprise technologique sur tous les autres, absolument et définitivement dominés.

Il aurait fallu concevoir, dans notre histoire humaine, des sociétés qui forment chacun à penser ses pensées, qui forment chacun à se maîtriser sans cesse, qui forment chacun à la fraternité partagée avec tout autre qui est là, qui forment à finement comprendre ce qu’est le monde, l’Univers et la vie, en pratiquant la recherche systématique et désintéressée, et en contrôlant toujours la technologie de façon citoyenne.
On n’a jamais constitué de telles sociétés, nulle part, on a toujours construit des sociétés très fortement hiérarchiques, avec des dominants et des subalternes dominés, en déployant toujours la force. Et on assite aujourd’hui une une immersion mondiale dans un champ informationnel qui intégrera par nature les caractères de hiérarchie et de domination des sociétés humaines, en les maximisant.

Si certains souhaitent aujourd’hui que des sociétés strictement égalitaires, fraternelles, humanistes se déploient, le système substrat et le Système Méta les envelopperont demain dans un enclos informationnel imperméable pour les isoler, les manipuler ou les réduire.
Comment peut-on lutter contre une "méta-dictature cool" où le dictateur n’existe pas comme humain mais est remplacé par un Système Méta sous forme de champ informationnel autonome, immergeant tout, en transformant chacun en objet minuscule, sauf peut-être quelques dominants, mais ce n’est même pas certain ?

Partager cet article

Articles Récents

Liens