Overblog
Suivre ce blog Administration + Créer mon blog

Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

Archives

5 décembre 2015 6 05 /12 /décembre /2015 21:19

Jean-Paul Baquiast 05/12/2015

Le présent texte est un résumé, fait et commenté par moi, d'un article original en anglais de Michael Brooks que vient de publier le NewScientist.
Is quantum physics behind your brain’s ability to thin
k?

Dans un article qu'il vient de publier sur arxiv ( http://arxiv.org/abs/1508.05929 ), le physicien quantique Matthew Fisher (voir son site http://www.kitp.ucsb.edu/mpaf/ ) a entrepris de rechercher si des effets propres à la mécanique quantique ne pourraient pas expliquer les mécanismes les plus complexes du cerveau (voir ci-dessous, abstract)

Le cerveau humain, comme dans une moindre mesure les cerveaux animaux, dispose de capacités calculatoires dont les bases neuronales demeurent encore mal expliquées. Ceci notamment qu'il s'agisse de la mémoire à long terme et de la conscience. L'hypothèse a depuis longtemps été formulée que ces fonctions tiendraient à certaines propriétés du monde quantique, notamment l'indétermination et l'intrication. Il n'y aurait rien d'étonnant en principe car les biologistes pensent pouvoir démontrer le rôle de particules quantiques dans un certain nombre de fonctions intéressant le vivant, fonction chlorophyllienne ou vision chez certains oiseaux (voir notre article Phénomènes quantiques dans les organismes vivants ).

Concernant la conscience, le mathématicien Roger Penrose et le médecin anaesthésiste Stuart Hamerof avaient dans un ouvrage qui fit grand bruit proposé en 1989 que les bases des mécanismes conscients pourraient se trouver dans les microtubules neuronales, structures protéiniques qui participent à l'architecture du neurone. Celles-ci se comporteraient comme les q.bits dans un ordinateur quantique. Mais ils n'ont pas pu présenter de preuves expérimentales intéressant leurs hypothèses.

Un q.bit ne peut en effet conserver ses propriétés quantiques que s'il est maintenu strictement isolé du milieu physique ordinaire, autrement dit s'il maintient sa cohérence. Empécher la décohérence des bits quantiques constitue la plus grande difficulté dans la réalisation des ordinateurs quantiques, expliquant la lenteur du développement de ces calculateurs. Or il a été montré que dans un milieu chaud et humide tel que celui régnant au sein du cerveau, la cohérence, à supposer qu'elle se produise, disparaitrait quasi instantanément.

Matthew Fisher n'essaye pas pour le moment de traiter le sujet complexe de la conscience. Ses recherches l'ont conduit à explorer les mécanismes qui paraissent simples mais qui restent encore incompréhensibles et qui permettent à deux ou plusieurs neurones de communiquer entre eux ou de s'influencer sur des distances pouvant s'étendre à l'ensemble du cerveau et dans des temps qui ne seraient pas seulement instantanés.

Les neurologues classiques répondent qu'ils ont présenté depuis longtemps des solutions à ces questions, en analysant les architectures neuronales, les transmissions électriques et les neurotransmetteurs permettant au cerveau de se comporter comme un ordinateur classique. Il ne serait pas nécessaire dans ces conditions de faire appel à d'éventuelles propriétés s'inspirant de celles de l'ordinateur quantique. Il reste que beaucoup de points obscurs demeurent au coeur des mécanismes cérébraux.

C'est la raison pour laquelle Matthew Fisher a fait de nouveau appel aux solutions quantiques. Mais comme la difficulté à résoudre consiste à montrer comment des processus neuronaux quantiques pourraient éviter la décohérence, la première chose à faire devait être de montrer pour quelles raisons cette décohérence ne se produirait pas, aussi bien à l'intérieur des neurones que dans le milieu biologique où ils baignent.

Le lithium

Pour approfondir cette question, Matthew Fisher a été conduit à se demander pourquoi le lithium peut aider des malades perdant la mémoire ou manifestant des tendances dites bi-polaires à récupérer une certaine disponibilité neuronale. La pharmacologie a constaté expérimentalement en effet l'efficacité de médicaments contenant du lithium mais sans s'en expliquer la raison. Matthew Fisher a donc recherché des solutions faisant appel à sa spécialité, la mécanique quantique.

Les noyaux des atomes, comme les particules élémentaires qui les constituent, ont une propriété quantique nommé le spin. Le spin caractérise la sensibilité des noyaux aux courants électrique et magnétique les environnant. Plus le spin est élevé, plus ils y sont sensibles. A l'inverse un noyau disposant d'une valeur de spin minimum ne réagit que très faiblement aux rayonnements produits par ces courants. Le spin est, en physique quantique, une des propriétés des particules, au même titre que la masse ou la charge électrique. Comme d'autres observables quantiques, sa mesure donne des valeurs discrètes et est soumise au principe d'incertitude. C'est la seule observable quantique qui ne présente pas d'équivalent classique, contrairement, par exemple, à la position, l'impulsion ou l'énergie d'une particule. (Pour plus de précision, voir Wikipedia Spin ) .

Dans le cerveau, où les champs magériques et électriques abondent, un noyau disposant d'un spin de 1/2, la plus basse valeur possible, devrait être bien protégé des perturbations résultant de ces champs. Or c'est le cas des noyaux de lithium, plus précisément du lithium 6. Les physiciens avaient constaté depuis longtemps qu'il pouvait conserver son spin pendant au moins 5 minutes. Le lithium n'est pas présent naturellement dans le cerveau, au contraire du phosphore, très abondant. Les noyaux d'acide phosphorique et de phosphates en dérivant (phosphate dit organique) disposent eux aussi d'un spin de 1/2 et peuvent donc en principe résister aux processus de décohérence.

La molécule de Posner

Or une molécule dite de Posner avait été identifiée en 1975 dans les tissus osseux. Elle apparait également dans des fluides corporels reconstitués en laboratoire. Soumises à des effets quantiques, son temps avant décohérence peut être de 12 à 24 heures, c'est-à-dire un temps largement suffisant pour qu'elle puisse participer à des processus quantiques.

Fisher a trouvé au moins une réaction dans le cerveau qui pourrait en théorie produire des états intriqués entre spins de noyaux au sein des molécules de Posner. Elle fait intervenir une enzyme nommée la pyrophosphatase. Celle-ci peut casser des structures comportant deux ions phosphates liés, en produisant deux ions phosphates indépendants. En théorie, les spins nucléaires de ces ions pourraient subir une intrication, s'ils avaient été soumis auparavant à un processus quantique. Libérés dans le fluide entourant les cellules, ils pourraient se combiner avec des ions calcium pour produire des états intriqués entre spins de noyaux au sein des molécules de Posner.

En théorie toujours, les fluides inter-neuronaux du cerveau pourraient comporter de grandes quantités de molécules de Posner intriquées. Si elles pénètrent les neurones, ces molécules pourraient modifier leur comportement, leur donnant la possibilité de réaliser des activités complexes, telle que des pensées et des mémorisations. Restera à vérifier expérimentalement si des molécules de Posner existent réellement dans les fluides intercellulaires du cerveau, en ce cas, si elles peuvent se trouver intriquées et finalemlent, par quels mécanismes quantiques elles ils le seraient.. Fisher envisage aujourd'hui de réaliser en laboratoire des expérimentations portant sur ces points.

La mécanique quantique à l'oeuvre au sein du cerveau

En cas de succès, les effets thérapeutiques du lithium, proche de l'acide phosphorique comme indiqué ci-dessus. pourraient commencer à trouver des explications. Ils découleraient de mécanismes faisant globalement appel à la mécanique quantique. Si aux origines de la vie les mécanismes biologiques avaient appris à utiliser celle-ci au profit de cette fonction universellement répandue qu'est la fonction chlorophyllienne, pourquoi n'auraient ils pas réutilisé la mécanique quantique pour permettre le fonctionnement des systèmes nerveux, dès que ceux-ci sont apparus dans la suite de l'évolution?

Certes, réussir à montrer que des neurones pourraient s'influencer à distance en dehors des voies connues de la communication intra et inter-neuronale ne pourrait suffire à faire comprendre les mécanismes infiniment plus complexes de la production des idées ou de la mémoire à long terme. Il faudra sans doute des années, si les hypothèses de Matthew Fisher sont validées, pour y réussir. Mais la voie proposée par lui pourrait enfin ouvrir des perspectives nouvelles dans des problématiques suspectées être les plus complexes de celles présentées par l'univers. Que la physique quantique y joue un rôle clef n'aurait rien d'étonnant, si l'on admet que la physique dite macroscopique aurait pu émerger, avec l'univers macroscopique lui-même, d'une fluctuation dans le monde quantique.

Quantum Cognition: The possibility of processing with nuclear spins in the brain
Matthew P. A. Fisher
(Submitted on 19 Aug 2015 (v1), last revised 29 Aug 2015 (this version, v2))

The possibility that quantum processing with nuclear spins might be operative in the brain is proposed and then explored. Phosphorus is identified as the unique biological element with a nuclear spin that can serve as a qubit for such putative quantum processing - a neural qubit - while the phosphate ion is the only possible qubit-transporter. We identify the "Posner molecule", Ca9(PO4)6, as the unique molecule that can protect the neural qubits on very long times and thereby serve as a (working) quantum-memory. A central requirement for quantum-processing is quantum entanglement. It is argued that the enzyme catalyzed chemical reaction which breaks a pyrophosphate ion into two phosphate ions can quantum entangle pairs of qubits. Posner molecules, formed by binding such phosphate pairs with extracellular calcium ions, will inherit the nuclear spin entanglement. A mechanism for transporting Posner molecules into presynaptic neurons during a "kiss and run" exocytosis, which releases neurotransmitters into the synaptic cleft, is proposed. Quantum measurements can occur when a pair of Posner molecules chemically bind and subsequently melt, releasing a shower of intra-cellular calcium ions that can trigger further neurotransmitter release and enhance the probability of post-synaptic neuron firing. Multiple entangled Posner molecules, triggering non-local quantum correlations of neuron firing rates, would provide the key mechanism for neural quantum processing. Implications, both in vitro and in vivo, are briefly mentioned.

Partager cet article
Repost0
26 novembre 2015 4 26 /11 /novembre /2015 21:37

.
Jean-Paul Baquiast 26/11/2015




Structure moléculaire de l'ARN

Dans un article du NewScientist daté du 21 novembre 2015, Steven Benner expose comment la biologie synthétique pourrait permettre d'inventer de nouvelles formes de vie. Steven Benner est un des fondateur de ce champ de recherche. Il a crée le Westheimer Institute of Science and Technology et la Foundation for Applied Molecular Evolution (FfAME). Il participe à deux start-up(s) qui en proposent des applications dans certains domaines, notamment en thérapeutique. On objectera que son point de vue risque de perdre l'objectivité scientifique nécessaire au profit de certains intérêts économiques. Mais il va de soi que l'objection ne peut être reçue, dans le cadre de cet article. Les bases théoriques de ses travaux font en effet l'objet d'une large diffusion dans le monde académique.

Steven Benner rappelle dans son article des points que les biologistes évolutionnistes et les généticiens, ne fussent-ils pas experts en biologie synthétique, ne contestent pas. La plupart des hypothèses concernant les premières formes de vie sur Terre admettent que celles-ci se sont initialement développées à partir de ce qui a été nommé un « monde de l'ARN » (DNA world).

Initialement l'ADN qui est à la base de tous les mécanismes génétiques n'existait pas. Sa structure était trop complexe pour avoir été « inventée » par les premières formes de vie. Il s'est progressivement développé, sur le mode darwinien, à partir des molécules d'ARN qui constituait les seules formes d'information génétique existantes, notamment chez les virus.

L'ADN, que chaque géniteur transmet à sa descendance, est indispensable pour permettre à l'embryon de produire les différentes variétés de protéines indispensables au métabolisme. Mais compte tenu de son peu d'efficacité en ce domaine, l'ADN fait appel à l'ARN pour catalyser les réactions chimiques nécessaires. On parle d'ARN messager pour désigner les molécules d'ARN qui, à travers une structure cellulaire spécifique, le ribosome, vont faire ce travail. Le ribosome est un mélange d'ARN et de protéines et joue le rôle de machine moléculaire nécessaire à la fabrication des milliers de protéines utilisées par les cellules pour remplir leur rôle dans l'organisme.

L'ARN n'agit pas seulement à travers les ribosomes, structures complexes n'existant pas dans les cellules primitives. On le rencontre aujourd'hui partout en biologie pour aider les protéines à catalyser les réactions métaboliques nécessaires à la vie. Si cependant l'ARN est généralement remplacée par l'ADN dans les grands processus biologiques, c'est qu'il n'est pas une molécule stable et d'autre part ne comporte pas assez d'éléments pour être un catalyseur efficace.

Les mécanismes darwiniens considérés comme facteurs essentiels de l'évolution biologique ont fait que l'invention, sans doute par hasard, de l'ADN par certaines cellules a donné à ces cellules un avantage compétitif considérable, faisant ainsi disparaitre le monde de l'ARN primitif. L'ARN n'a survécu que comme vestige, limité essentiellement au rôle de messager à travers les ribosomes.

Imaginer d'autres formes de vie

Si l'on s'interroge sur ce qu'aurait pu être l'évolution de la vie sur Terre sans l'apparition de l'ADN, sous la seule action de l'ARN, ou sur ce que pourraient être des formes exobiologiques (existant sur d'autres planètes) n'ayant pas « inventé » « l'ADN, toutes les suppositions sont possibles concernant ces formes de vie. On pourrait, à une autre échelle, se demander quelles auraient été les espèces animales si certaines d'entre elles n'avaient pas « inventé » l'aile. Elles n'auraient pas disparu pour autant, mais elles se seraient développées en s'adaptant aux seuls milieux terrestres et maritimes.

Pour limiter l'exploration du champ des possibles, le laboratoire de Steven Benner a montré que l'ARN aurait pu évoluer différemment de ce qu'il a fait dans l'histoire de la vie. L'ARN (cf wihipedia référencé ci-dessous) ne comporte que quatre bases nucléiques, l'adénine, la guanine, la cytosine et l'uracile. Il a de nombreuses similitudes avec l'ADN, avec cependant quelques différences importantes : d'un point de vue structurel, l'ARN contient des résidus de ribose là où l'ADN contient du désoxyribose, ce qui rend l'ARN chimiquement moins stable, tandis que la thymine de l'ADN y est remplacée par l'uracile, qui possède les mêmes propriétés d'appariement de base avec l'adénine. Sur le plan fonctionnel, l'ARN se trouve le plus souvent dans les cellules sous forme monocaténaire, c'est-à-dire de simple brin, tandis que l'ADN est présent sous forme de deux brins complémentaires formant une double-hélice.

Enfin, les molécules d'ARN présentes dans les cellules sont plus courtes que l'ADN du génome, leur taille variant de quelques dizaines à quelques milliers de nucléotides, contre quelques millions à quelques milliards de nucléotides pour l'acide désoxyribonucléique. Par ailleurs, dans la cellule telle qu'elle a résulté de l'évolution, l'ARN est produit par transcription à partir de l'ADN situé dans le noyau. L'ARN est donc une copie d'une région de l'un des brins de l'ADN.

Cependant rien n'interdit de penser qu'un ARN comportant un plus grand nombre de bases nucléiques, lesquelles auraient pu résulter d'un appariement différent entre nucléotides, n'aurait pu apparaître. Il aurait pu en ce cas devenir un aussi bon catalyseur que l'ADN, produisant donc autant sinon davantage de protéines. L'ADN serait resté nécessaire, du fait de sa grande stabilité, mais de nouveaux métabolismes, et donc finalement de nouveaux types de cellules et d'organismes; auraient pu apparaître.

La biologie synthétique

On ne peut évidemment pas en laboratoire reconstruire une évolution hypothétique qui, sur des bases biologiques différentes, se seraient déroulées pendant des millions d'années. Mais la toute récente biologie synthétique pourrait en principe le faire. Elle peut dorénavant produire en laboratoire des ARN et ADN de synthèse utilisant des alphabets génétiques plus larges que ceux de leurs homologues naturels. Il est possible de provoquer par ailleurs des processus évolutifs considérablement accélérés. Autrement dit, il devient possible de reproduire en laboratoire le cycle darwinien bien connu : mutation, compétition, sélection et expansion, fut-ce encore à très petite échelle.

Ceci ne veut pas dire qu'à horizon prévisible la biologie darwinienne synthétique puisse faire apparaître de nouvelles espèces, par exemple comportant une douzaine de paires d'ailes. Mais elle a pu déjà produire, dans le laboratoire de Steven Benner, en collaboration avec une équipe dirigée par Weihong Tan à l'université de Floride, des molécules nouvelles ayant la propriété de se lier à des cellules cancéreuses de façon à mieux les combattre.

Sur d'autres planètes, il serait possible d'imaginer que des formes de vie ayant évolué dans un monde exclusivement à ARN auraient pu naitre et se développer de façon darwinienne, sans avoir besoin de protéines. En ce cas, elles pourraient être si différentes de la vie telle que nous la connaissons que les premiers explorateurs pourraient les côtoyer sans, au moins dans un premier temps, les identifier comme vivantes.

On n'oubliera pas cependant que la vie ne résulte pas seulement d'interactions entre un génome et un environnement. Beaucoup d'autres facteurs sont à prendre en considération, qu'il est inutile de rappeler ici. La vie synthétique devra organiser ces interfaces, fort complexes d'ailleurs. Il en sera de même de la vie totalement artificielle, celle que l'on cherche à incarner dans des robots en cours d'étude actuellement.

Références

* Article de Steven Benner https://www.newscientist.com/article/mg22830480-200-drop-the-proteins-alien-life-might-be-radically-different/

* Steven A. Benner https://en.wikipedia.org/wiki/Steven_A._Benner

* Domaines de recherche http://www.ffame.org/sbenner.php

* ARN Acide ribonucléique Wikipedia

* ADN Acide désoxyrubonucléique Wikipedia

* Ribosome. Wikipedia

* Biologie synthétique. Wikipedia

Partager cet article
Repost0
13 novembre 2015 5 13 /11 /novembre /2015 14:03

Dans un article d'un Hors série de la revue La Recherche daté d'octobre 2015 et consacré à la conscience, le philosophe David Chalmers reprend et actualise une hypothèse qui a toujours été la sienne, selon laquelle la conscience serait un phénomène universel comme le temps et l'espace. Précisons tout de suite que dans cette approche il se veut scientifique bien que philosophe. Il n'accepte pas les nombreuses tentatives de récupération qu'il a suscité parmi les divers spiritualismes et défenseurs de sciences parallèles.

Cette hypothèse va au delà des travaux très nombreux aujourd'hui étudiant les changements et corrélats neuronaux se produisant lorsqu'un sujet se dit conscient. Les études correspondantes se sont développées à partir d'un article fondateur de Francis Crick et Cristof Koch, intitulé « Vers une théorie neurobiologique de la conscience (1990). Elles se sont appuyées sur les possibilités d'observation offertes depuis cette date par les différentes techniques d'imagerie cérébrale et neuronale.

Ces techniques ont d'abord été utilisées pour étudier les processus du système nerveux central ne produisant pas nécessairement de faits de conscience, comme la réaction justement dite inconsciente du cerveau à un stimulus extérieur simple, tel qu'un son. Mais très vite, elles ont été appliquées à l'étude des processus neurologiques par lesquels un sujet réagit à un stimulus interne ou externe se traduisant par une prise de conscience plus ou moins durable: par exemple un sentiment de peur pouvant survenir dans l'esprit du sujet à la perception d'une scène inquiétante.

Deux grandes approches, comme le rappelle Chalmers, ont été utilisées depuis quelques années pour expliquer comment ces sentiments conscients apparaissent et s'organisent au sein des faisceaux neuronaux. La première est le développement d'une idée proposée par Baars et reprise depuis par les français Changeux, Dehaene et al. Elle fait l'hypothèse que le cerveau génère un « espace de travail conscient commun » lorsqu'il prend conscience de quelque chose. Ce sont des neurones dits associatifs couvrant l'essentiel de l'espace cortical qui se coordonnent à cette occasion. La seconde approche, assez différentes, est dite théorie de l'information intégrée et due à Giulio Tononi. Selon cette hypothèse, la conscience d'un thème émerge lorsque le cerveau recueille un nombre suffisant d'informations sur ce thème. Celles-ci s'organisent sous une forme mathématique.

La conscience phénoménale

Cependant l'imagerie cérébrale et autres techniques d'observation extérieure ne permettent pas de mettre en lumière les mécanismes sans doute plus fondamentaux par lequel un sujet ressent subjectivement les conséquences d'un phénomène dont il a pris conscience – ce que l'on nomme la conscience phénoménale. Autrement dit, comment, selon un terme très utilisé, le sujet ressent subjectivement les qualités ou qualia s'attachant à un phénomène objectif perçu par lui ?

Or ceci n'apparait pas à l'observation neuronale. Celle-ci ne montre pas par exemple ce qui se passe dans mon cerveau lorsque je ressens subjectivement les qualités d'une couleur telle que le rouge. Il n'est pas par conséquent possible de montrer en quoi le cerveau d'un autre observateur réagit à la perception d'un objet rouge identique, que ce soit pour en tirer une sensation identique ou une sensation différente. A plus forte raison n'est-il pas possible de montrer comment la conscience complexe que j'ai de moi s'organise et en quoi elle diffère de la conscience que mon voisin a de lui-même. Tout au plus peut-on comparer les signes objectifs par lesquels nos consciences se manifestent, tels que les symboles socialement acceptés des gestes et du langage.

Face à ces difficultés, comme le rappelle Chalmers dans l'article cité, il a été obligé de faire appel à deux hypothèses complémentaires. Selon la première de celles-ci, il faut considérer la conscience comme un phénomène aussi fondamental que la masse, l'espace et le temps en physique. Autrement dit, il pourrait s'agir d'une loi de la même portée que celles désignées que les physiciens et cosmologistes sous le terme de lois fondamentales de l'univers. Nous pouvons en conclure qu'elle serait apparue dans le même temps que ces dernières, c'est-à-dire immédiatement après le Big Bang.

L'autre hypothèse, qui découle en grande partie de la première, est que la conscience serait universelle. On la trouverait partout dans l'univers, des particules élémentaires jusqu'aux astres et galaxies. Dans le domaine de la biologie terrestre, elle serait de même présente de la bactérie jusqu'à l'homme. Mais, dans ces divers cas, elle prendrait des formes différentes en fonction des propriétés de ces diverses entités.

Ces deux thèses ont été pressenties et évoquées dès l'aube de l'humanité, sous deux formes un peu différentes, celle du panpsychisme selon laquelle le psychisme est partout, et celle du dualisme, conduisant à distinguer le monde matériel et le monde spirituel. Comme rappelé ci-dessous, elles ont donné lieu à d'innombrables croyances mythologiques et religieuses ayant profondément inspiré les créations humaines. Aujourd'hui encore, elles sont admises – au moins sous la forme du dualisme- par sans doute 90% de l'humanité. Est-ce une raison pour que le scientifique se voulant matérialiste (naturalist selon le mot anglais) les accepte sans discussion? Certainement pas.

Mais pour les discuter, il faut trouver des méthodes permettant de les mettre en relation avec les autres lois fondamentales de l'univers. Chalmers reconnaît son ignorance en ce domaine, ignorance partagée à ce jour par toute la communauté scientifique. Certains auteurs ont bien évoqué des relations possibles entre le monde de la conscience et le monde quantique, mais rien de concluant n'a été présenté dans cette direction.

Le Hard Problem

Pourrions nous ici proposer quelques réflexions pour aider à éclaircir le problème de la conscience phénoménale, problème que dès ses premiers écrits Chalmers avait qualifié de « hard problem »? Rejetons d'emblée l'hypothèse selon laquelle ce problème relèverait d'un inconnaissable absolu et définitif. Il ne serait même pas nécessaire en ce cas d'en faire un sujet de science. Il ne serait même pas utile d'en parler.

Face aux questions non seulement difficiles mais considérées aujourd'hui comme inconnaissables, les scientifiques ne baissent pas les bras. C'est le cas des nombreuses questions évoquées par les cosmologistes, concernant l'univers mais concernant aussi plus immédiatement la physique quantique telle qu'applicable en cosmologie. Certes, beaucoup font l'hypothèse que le cerveau humain n'est pas capable de résoudre de telles questions. Il a été formaté par l'évolution pour nous apprendre à distinguer les proies et les prédateurs, mais pas pour résoudre des questions telles que la cause pour laquelle les pommes tombent des arbres. Cependant c'est ce même cerveau qui a finalement proposé les lois formulées par Newton et ses successeurs concernant la gravitation. Aujourd'hui même, la plupart des physiciens et cosmologistes considèrent que ce que l'on nomme la gravitation quantique relève pour le moment de l'inconnaissable. Ceci n'empêche pas les hypothèses de foisonner.

Il faudrait donc appliquer aux approches de la conscience suggérées par Chalmers, panpsychisme et dualisme, des méthodes s'inspirant de celles ayant permis aux premiers philosophes s'étant interrogés sur le mystère sous-jacent au phénomène universellement constaté de la chute des pommes. Ils ont fait appel à leur imagination créatrice, sans en limiter a priori les ambitions. Celle-ci a suggéré plusieurs hypothèses, nécessairement dans le désordre. Mais de proche en proche, des hypothèses imaginées jusqu'à leurs mises à l'épreuve utilisant les moyens expérimentaux disponibles à l'époque, une loi plus consistante a fini par émerger.

Impossible dans le cas de la conscience, dira le lecteur. Comment imaginer ce que pourrait être le degré ou la nature de la conscience supposée d'un atome ou d'un astre? Comment imaginer les rapports entre la conscience dans le monde macroscopique et celle pouvant exister dans le monde quantique? Or c'est précisément le travail à faire. Faites travailler vos imaginations créatrices, tant en matière d'hypothèses que de vérifications, et vous trouverez bien quelque chose avant la fin de vie de l'univers. Peut-être même plus tôt. Dans ce cas, vous pourrez espérer un prix Nobel.


Pour en savoir plus

* David John Chalmers, né en 1966 en Australie, est philosophe et dirige le Centre For Consciousness à l’Australian National University. D'abord diplômé en mathématiques et en informatique à Adélaïde, il se consacre ensuite aux sciences cognitives et à la philosophie, et présente en 1995 son post-doctorat au département (dirigé par Andy Clark) de Philosophie-Neurosciences-Psychologie de l'université de Washington à Saint-Louis. Il a fait paraître sous sa direction l'anthologie Philosophy of Mind (Oxford University Press, 2002), et est membre éditeur de la Stanford Encyclopedia of Philosophy. L’Esprit conscient est son maître ouvrage.

* Voir la critique de son ouvrage « L'esprit conscient par François Loth « http://www.francoisloth.com/lesprit-conscient-ou-la-faussete-du-materialisme-selon-david-chalmers/ traduit de The Conscious Mind. In Search of a Fundamental Theory – Oxford U. P.,1996

* Sur ces sujets, on pourra se référer à un dossier datant de 2008 que nous avions publié sous le titre « La conscience vue par les neurosciences. » Il va sans dire qu'il devra être actualisé sur certains points;

Partager cet article
Repost0
16 octobre 2015 5 16 /10 /octobre /2015 14:50


Je vais certainement pour cet article me faire accabler par mes fidèles lecteurs. Disons que j'émet ici une hypothèse de travail concernant l'avenir du monde. Je serais le premier à me réjouir qu'ils y en proposent d'autres

Un récent rapport de la banque Crédit Suisse 1) a précisé les chiffres actuellement disponibles concernant la répartition des inégalités dans le monde. Il confirme le fait déjà souvent mentionné selon lequel 1% des plus riches possèdent 50% des richesses du monde, les 99% autres se partageant le reste, d'une façon d'ailleurs elle-même très inégalitaire.

t

Le Crédit Suisse met aussi en évidence que ce sont les Etats-Unis qui viennent en tête des nations possédant ces richesses, à 46%, l'Europe venant ensuite. Le terme de richesses (assets) englobe toutes les formes confondues de richesses. Il ne mesure pas par contre les inégalités dans la possession du pouvoir en découlant. Celles-ci sont plus difficiles à évaluer, mais elles pourraient être réparties encore plus inégalement.

On pourra questionner la validité ou l'objectivité de ces évaluations. On pourra aussi remarquer que différentes richesses immatérielles ou tenant à l'usage de biens communs n'ont pas été prises en compte. Mais il est inutile de le faire ici. Dans l'ensemble, le rapport de la banque suisse explicite de façon presque indiscutable ce que nous pourrions qualifier de fait quasiment scientifique, depuis longtemps reconnu: 1% des humains seuls décident de l'avenir du monde. De plus, nul n'est aujourd'hui en mesure de proposer les moyens de changer cet état de chose.

Faut-il voir là comme le pense le physicien Stephen Hawking, référencé ci-dessous 2), la pire menace pesant aujourd'hui sur le monde? La thèse inverse pourrait être proposée. Compte tenu des façons archaïques, frisant la démence destructrice, dont se comportent au moins 50 à 70% de l'humanité, (pensons aux djihadistes en cours de prolifération) mieux vaut pour l'avenir de la planète que ceux-ci aient le moins de pouvoir possible.

Ceci dit, les 1% dominants seront-ils moins déments et destructeurs? L'argument fallacieux selon lequel ils le seront moins car appartenant à la race blanche ou aux sociétés anglo-saxonnes ne tient évidemment pas. Beaucoup, au nombre desquels nous nous rangeons, les considèrent d'ailleurs, globalement comme des canailles dangereuses. Mais que faire?

Deux questions se posent plus en profondeur:

Est-il d'abord possible à une bonne volonté politique quelconque de bouleverser ces inégalités, afin d'assurer une meilleure répartition des richesses ? Les révolutionnaires de bonne volonté pourraient l'espérer, mais concrètement ils ne pourront rien faire. Comme l'on sait depuis longtemps, les possesseurs de richesse disposent aussi d'un pouvoir incomparable de prévention et de répression à l'égard de ceux s'efforçant de leur disputer ces divers monopole. Ceci même s'il s'agit initialement de vastes mouvements de foule Ce pouvoir prend la forme classique de la détention des forces militaires et de sécurité, ainsi que de l'appareil judiciaire. Il s'accompagne aussi aujourd'hui d'un extraordinaire pouvoir de mise en condition des esprits éventuellement contestataires par l'utilisation des médias modernes dont ils financent eux-mêmes le fonctionnement.

Mais, second question, ceux qui se sont approprié les ressources du monde utilisent-ils uniquement celles-ci pour servir leurs propres intérêts égoïstes, affirmation névrotique de soi et de son propre pouvoir, abus de la vie de luxe et des consommations somptuaires ruineuses pour le monde? A cette deuxième question, la réponse nous semble-t-il devrait être plus nuancée.

Aucun historien ne conteste le fait que les pyramides égyptiennes, les châteaux et cathédrales du Moyen-Age, n'aient été construits à partir de la « sueur » de populations rurales quasi asservies. Autrement dit, pour diverses raisons de pouvoir, les dominants de l'époque n'ont pas entièrement dépensé en consommations immédiates les épargnes prélevées sur le peuple. Ils les ont investi en produits d'avenir, ne fut-ce que pour assurer leur propre avenir, sur la terre ou dans le ciel.

En prenant un peu de recul et sans tomber dans un optimisme naïf, ceux qui étudient l'histoire de la science dans les derniers siècles doivent admettre qu'un petit pourcentage de privilégiés ont toujours affecté à des investissementsproductifs à terme la plus grande partie des connaissances scientifiques dont ils disposaient et l'essentiel des moyens d'actions techno-scientifiques en découlant. Ils n'en ont pas fait toujours bon usage, s'en servant pour produire des armes potentiellement destructrices. Mais dans l'ensemble ces moyens permirent au cours des siècles passés la mise en place des sociétés modernes et post-modernes auxquelles même les plus défavorisés d'aujourd'hui ne voudraient pas renoncer.

Lorsque plus récemment des Etats ont développé des politiques publiques de recherche, en relais de celles des entreprises privées, ce n'était pas sous la pression d'un corps électoral sans pouvoir réel mais à l'incitation de quelques privilégés eux-mêmes, utilisant ces Etats pour produire des épargnes forcées.

Financer les sciences de demain

Ne pourrait-on espérer qu'il en serait de même à l'avenir. Sous la pression de citoyens avertis, l'inégalité des revenus ne pourrait-elle pas permettre de financer de nouveaux développements scientifiques et techniques dans lesquels une petite minorité de la minorité de dominants trouverait moyen de s'investir. Ceci que ce soit dans la lutte contre les modifications climatiques, contre la destruction des écosystèmes ou à terme pour l'exploitation des possibilités de survie dans l'espace – sans mentionner la perspective de développer des systèmes artificialo-biologiques définissant ce que l'on désigne comme une ère post-humaine.

Si une petite minorité des humains actuels détenait rapidement les moyens augmentés découlant de ces ressources techno-scientifique, il ne serait pas impossible de penser qu'ils s'en serviraient non pas seulement pour augmenter leurs niveaux de consommation somptuaire, produire des voitures de plus en plus puissantes, mais pour permettre à la planète d'échapper aux destructions certaines découlant des affrontements meurtriers opposant entre eux les quelques 80% d'autres humains restés enfermés dans les logiques destructrices héritées des siècles passés.

Cela ne veut pas dire qu'ils entreprendraient de détruire systématiquement ces humains archaïques, ou plus simplement de les laisser mourir. D'un point de vue optimiste, on pourrait penser qu'ils leur apporteraient des moyens de récupérer leur retard. Mais il faudrait que ce soit sans leur demander leur l'avis, voire malgré eux, et le cas échéant sans refuser le recours à des guerres défensives.

Nous pensons pour notre part que cette évolution salvatrice, si elle se fait, se fera sans que personne n 'en prenne clairement la décision. Il s'agira d'une transformation de type systémique affectant les complexes biologiques – nous dirons pour notre part les complexes bio-anthropotechniques 3) en compétition pour la survie, sur Terre d'abord, mais aussi dans l'espace.

Ainsi dans un lointain passé, lorsque les organismes multicellulaires ont, par une logique évolutive implacable, remis à une juste place les organismes monocellulaires, virus, microbes et bactéries dominant aux premiers millénaires et ne permettant pas à la Terre de se complexifier, ils ne l'ont pas fait en s'inspirant d'une sorte de racisme cellulaire. Ils étaient seulement les agents d'une logique évolutive plus générale.

Références

1) Crédit Suisse. Global wealth Report
http://publications.credit-suisse.com/tasks/render/file/?fileID=F2425415-DCA7-80B8-EAD989AF9341D47E

2) Stephen Hawking
http://www.huffingtonpost.com/entry/stephen-hawking-capitalism-robots_5616c20ce4b0dbb8000d9f15
Voir aussi
http://theantimedia.org/stephen-hawking-warns-about-the-greatest-threat-to-humanity/

3) Le paradoxe du sapiens. Jean-Paul Baquiast 2010

Partager cet article
Repost0
9 octobre 2015 5 09 /10 /octobre /2015 15:30


Jean-Paul Baquiast 09/10/2015

Dorénavant, il apparaît possible de fabriquer à relativement bas coût des matériaux n'ayant jamais existé auparavant. Ils peuvent répondre à des spécifications d'usage leur permettant de résoudre d'innombrables problèmes dont la solution paraissait jusqu'ici hors de portée pratique. On peut citer à titre d'exemples devenus banaux des conducteurs électriques à zéro résistance fonctionnant à la température ordinaire, des panneaux solaires à très haut rendement, des ampoules électriques de faible consommation n'exigeant pas les éléments rares et chers qui leur sont aujourd'hui nécessaires, des batteries à très forte capacité...

Il s'agit d'applications futures tirées de technologies déjà existantes. Mais toute invention un peu audacieuse, sortant des normes ordinaires, se révèle généralement à la pratique inapplicable faute de matériaux adéquats, soit que ceux-ci existent déjà mais sont trop rares et chers, soit qu'ils n'existent pas encore dans la nature. On conçoit que disposer d'une technique permettant de fabriquer facilement et à la demande ces matériaux nouveaux apporterait à l'industrie et à la recherche des perspectives pratiquement inenvisageables aujourd'hui.

Les avantages seraient analogues, dans un tout autre domaine, à ceux apportés par les imprimantes 3D. Elles permettent aujourd'hui de fabriquer un nombre considérable de produits et organes de toutes formes et de toutes natures à partir d'une matière synthétique bon marché, en faisant appel à des programmes préécrits accessibles à faible prix et souvent gratuitement dans des bibliothèques spécialisées.

Mais il est autrement difficile de concevoir de nouveaux matériaux à partir des usages que l'on voudrait leur donner et utilisant des matériaux encore partiellement ou totalement inexistants. Tout matériau est constitué d'un assemblage complexes d'atomes, eux mêmes composés de protons et électrons différents ou organisés différemment d'un matériau à l'autre. Historiquement, ceci s'est fait à grande échelle quand il s'agissait d'utiliser un matériau existant en lui donnant un usage nouveau, par exemple de la pierre pour en faire une arme. Mais les premiers inventeurs du paléolithique auraient été incapables d'imaginer de but en blanc le fer, et moins encore de le produire en quantité suffisante. Ceci n'a été acquis que lentement, à partir de l'attention portée au minerai de fer et à ses premiers usages en métallurgie. Des dizaines de centaines de siècles ont été nécessaires pour passer des âges de la pierre à ceux des métaux.

De nos jours, face à l'augmentation exponentielle des besoins, liés à l'augmentation du nombre des humains, à celle des niveaux de vie et, à l'inverse, face à la raréfaction croissante des ressources naturelles facilement accessibles, il est vital de pouvoir mettre au point en quelques années ou quelques mois des matériaux non exigeants en produits rares et en énergie, non dangereux pour les utilisateurs et l'environnement. Un enjeu considérable, que nous pourrions qualifier de planétaire, s'attache donc à la possibilité de fabriquer de nouveaux matériaux répondant à ces critères.

La Density functional theory (DFT)

Or aujourd'hui il apparaît possible, en utilisant le calcul informatique, de simuler de nouveaux matériaux et de les tester, là encore de façon simulée, afin de vérifier leur adéquation aux finalités poursuivies. Il ne restera plus ensuite, en utilisant les atomes élémentaires identifiés par ces simulations, qu'à les combiner en matières premières nouvelles. L'on s'appuiera pour cela sur les programmes informatiques réalisés par un super-ordinateur, éventuellement accessibles dans des bibliothèques de programmes. On observera à cet occasion qu'il s'agit là d'une nouvelle révolution résultant de l'apparition de tels ordinateurs, s'ajoutant à toutes les autres.

En pratique, ces perspectives demanderont encore beaucoup de travail pour donner des résultats généralisables. Cependant la mécanique quantique découverte au milieu du siècle dernier rend , avec l'aide de l'ordinateur, la démarche accessible. Les propriétés d'un matériau dépendent de la configuration de ses atomes et de la trajectoire des électrons gravitant autour des noyaux. En théorie la fonction d'onde proposée par Erwin Schrödinger permet d'en faire une description, mais celle-ci est purement statistique. Il n'est pas possible d'en tirer des informations permettant de réaliser les atomes et les orbites d'électrons propres au matériau ou au composé chimique précis que l'on veut réaliser.

En 1965 cependant le physicien théoricien Walter Kohn, aujourd'hui à l'Université de Californie, et le chimiste théoricien John Pople, tous deux Prix Nobel de chimie en 1998, proposèrent une méthode pratique pour calculer les propriétés des substances. Ils la nommèrent Density Functional Theory ( DFT). On en trouvera une analyse dans le document joint en référence. Pendant 20 ans, les applications de la DFT restèrent rares, mais à partir de 1989, la combinaison de la DFT avec les théories de la « dynamique moléculaire » offrirent de nombreuses perspectives. Aujourd'hui un grand nombre de publications sur ce thème sont publiées par de jeunes chercheurs.

Les avancées considérables obtenues depuis 2000 résultent principalement, comme indiqué ci-dessus, d'un appel intensif à l'ordinateur. En pratique, il fallu cependant un financement important fourni par la firme Procter and Gamble en 2005 aux deux chercheurs Persson et Ceder afin qu'ils réalisent une cathode améliorée pour les batteries Duracell de l'industriel. En utilisant un super-ordinateur analysèrent 130.000 matériaux existants ou imaginaires et en trouvèrent 300 qui répondaient aux spécifications demandées.

Le Materials project

S'appuyant sur ce premier succès, Persson et Ceder présentèrent en 2010 un « Materials génome project » devenu « Materials project. De même que dans le même temps se développaient en biologie les banques de génomes, ils proposèrent de réaliser une banque de données rassemblant les résultats de toutes les recherches réalisées en « génomique » des matériaux intéressant des substances réelles ou virtuelles.

Le Materials project a été rapidement soutenu par le gouvernement fédéral américain, dans des buts tant civiles que militaires et spatiaux. La Maison Blanche a coordonné et financé une Materials Genome Initiative qui reprend et étend la démarche à de nombreux autres secteurs.

Pour diversifier le champ des recherches fondamentales, une équipe de chercheurs réunis autour de Persson et Ceder ont abordé le domaine bien plus complexe de ce qu'ils nomment les propriétés élastiques des composés cristallins inorganiques. Il s'agit de mesurer la façon dont, dans un matériau donné, les atomes se déplacent en relation les uns avec les autres, afin de faire des prédictions relatives à des propriétés intéressantes jusqu'ici non étudiées. La nouvelle base de données en résultant intéresse désormais 1.200 composants. Son utilisation est entièrement automatisée.

Une des applications intéressantes de ces calculs permet de prévoir l'aptitude d'un matériau à conduire la chaleur. Il s'agit de mesurer l'effet dit thermoélectrique gràce auquel des matériaux chauffés produisent de l'électricité. Ainsi une voiture mixte moteur classique-moteur électrique pourrait recharger sa batterie en utilisant la chaleur des gaz d'échappement. De nombreuses applications dans des domaines plus intéressants au plan stratégique sont actuellement envisageables, par exemple en ce qui concerne les satellites et sondes spatiales.

Les recherches permettent aussi de remplacer dans un produit donné des composants rares par des assemblages de composants plus répandus. L'équipe a récemment présenté une substance constituée de thulium, argent et tellurium. A partir de ce premier résultat, les chercheurs ont en manipulant les atomes remplacé le thulium, produit rare, par de l'yttrum, beaucoup plus commun. Le nouveau composé est par ailleurs plus performant en matiière thermoélectrique que le précédent.

Nous sommes là dans le domaine des Terres rares, devenant de plus en plus raes aujourd'hui, et quasi monopole actuellement de la Chine. Mais l'exemple montre comment les nouvelles recherches pourront permettre de mettre au point de nouveaux matériaux aux performances bien supérieures à celles des matériaux existants sur la Terre. Les Chinois au reste ne sont pas les moins intéressés par de telles domaines émergents.

Nous n'avons pas ici le temps d'étudier la participation éventuelle de laboratoires ou entreprises européennes à ces développements. Disons seulement que nous n'en avons pas entendu parler. Ce serait grave si l'Europe manquait ce tournant vers ce qu'il faut bien appeler un nouveau siècle technologique.

Références

* Nature Mars 2015 Charting the complete elastic properties of inorganic crystalline compounds
http://www.nature.com/articles/sdata20159

Abstract

The elastic constant tensor of an inorganic compound provides a complete description of the response of the material to external stresses in the elastic limit. It thus provides fundamental insight into the nature of the bonding in the material, and it is known to correlate with many mechanical properties. Despite the importance of the elastic constant tensor, it has been measured for a very small fraction of all known inorganic compounds, a situation that limits the ability of materials scientists to develop new materials with targeted mechanical responses. To address this deficiency, we present here the largest database of calculated elastic properties for inorganic compounds to date. The database currently contains full elastic information for 1,181 inorganic compounds, and this number is growing steadily. The methods used to develop the database are described, as are results of tests that establish the accuracy of the data. In addition, we document the database format and describe the different ways it can be accessed and analyzed in efforts related to materials discovery and de
sign.

* Density functional theory: Its origins, rise to prominence, and future, R.?O. Jones; Rev. Mod. Phys. 87, 897 – Published 25 August 2015 http://journals.aps.org/rmp/abstract/10.1103/RevModPhys.87.897

* Molecular dynamics. Wikipedia https://en.wikipedia.org/wiki/Molecular_dynamics

* Materials project
https://www.materialsproject.org/

* Materials Genome Initiative
https://www.whitehouse.gov/mgi

* Voir aussi Welcome to the everything factory New Scientist 26 sept. 2015 p.41 (sur abonnement) https://www.newscientist.com/article/mg22730400-800-wonder-stuff-making-every-material-youve-never-heard-of/

Partager cet article
Repost0
21 septembre 2015 1 21 /09 /septembre /2015 21:41

Jean-Paul Baquiast 21/09/2015

En dehors de grands changements institutionnels destinés à promouvoir des recherches et innovations permettant de mieux tirer partie des ressources existantes, il est une méthode, simple en principe, mais difficile en pratique à mettre en oeuvre. Il s'agit d'encourager partout, laboratoires, entreprises, administrations, ce que les Britanniques nomment la « blue sky research », autrement dit la recherche fondamentale menée sans objectifs d'applications immédiates. L'on pourrait aussi parler de recherche de la connaissance pour la connaissance. Ceci ne se limite pas évidement aux sciences physiques, mais s'étend à toutes les autres, sciences du vivant, sciences humaines et bien évidemment sciences de l'information.

A la fin du 19e siècle, le monde a subit des transformations d'ampleur et de rythme jusqu'ici inconnues. Elles ont découlé de l'application à la pratique quotidienne des grands principes théoriques que venaient de découvrir les penseurs du Siècle des Lumières. De nouveaux modes de pensée concernant l'homme, la nature, les outils se sont développés. Ils ont entrainé très rapidement l'apparition de nouvelles machines et pratiques (malheureusement autant dans le domaine militaire que civil) qui ont définitivement fait disparaitre les anciennes sociétés. On prête aujourd'hui à ces dernières de multiples vertus. Mais personne en pratique n'accepterait d'y passer ne fut-ce que quelques mois.

Ces changements n'ont pas découlé de décisions volontaires visant à l'amélioration des niveaux de vie et des pratiques productives. Ils ont été les conséquences de recherches théoriques, apparemment sans applications immédiates, celles des Newton, Lavoisier, Darwin et de bien d'autres. Des générations entières de praticiens, ingénieurs, médecins, militaires se sont appuyés sur les nouveaux paradigmes ainsi esquissés pour en tirer les applications immédiates ou de long terme susceptibles de bouleverser leur pratique.

Ceci semble oublié aujourd'hui. Ce que l'on nomme la croissance, ou mieux le développement raisonné, ne résulte pas comme on le croit désormais d'une simple rencontre entre des ressources naturelles, du capital et du travail. Des économistes mieux avertis ont montré depuis longtemps que ce développement reposait en fait sur des avancées technologiques. Celles-ci à leur tour ne seraient pas apparues sans des recherches en sciences fondamentales ayant fourni les bases de leur développement.

Des crédits de recherche adéquats

On pourrait penser qu'il s'agit d'une évidence que personne ne devrait aujourd'hui discuter. Mais au delà du principe, il faut examiner où vont les épargnes et les crédits en résultant. Aujourd'hui, les secteurs ayant depuis plus ou moins longtemps fait l'objet d'applications découlant de recherches fondamentales antérieures font seuls l'objet d'investissement. Tout se passe, dans l'esprit des financiers et des gouvernements, comme s'il n'y avait rien de radicalement neuf à découvrir, comme si rien de radicalement neuf dans les activités économiques et sociales ne pourrait résulter de nouvelles recherches fondamentales.

Interrogés, les décideurs comme le grand public affirmeront qu'il n'en est rien, que subventionner la recherche désintéressée fait partie des préoccupations majeures de la société. Mais un peu d'examen critique montre que la « blue sky research » ne recueille que des sommes de plus en plus réduites. Ses avancées, que personne n'encourage, sont par conséquent devenues trop rares pour susciter l'intérêt : « A quoi cela me servira-t-il », pense le public. « De plus, si jamais de nouvelles applications apparaissent, elles ne feront sentir leurs résultats que dans des décennies, lorsque tout le monde sera mort ». Plus généralement les investisseurs, privés et même public, ne percevant pas quels profits immédiats pourrait permettre la recherche fondamentale, s'en désintéressent.

Bien évidemment, les conséquences de cette incompréhension systématique se font dès maintenant sentir à grande échelle, dans la vie courante. Encore faut-il disposer d'un minimum de connaissances scientifiques pour s'en apercevoir. Pour ne prendre qu'en exemple récemment évoqué, les grandes entreprises pharmaceutiques dépensent des milliards en recherche sur les cosmétiques et autres produits à large diffusion. Elles refusent de financer des recherches fondamentales sur les cellules, les virus, les processus de contagiosité, ne présentant en pratique aucune perspective de profits immédiats. Si bien que lorsque surviennent des épidémies de grande ampleur, telles que le Sida, le MERS ou la fièvre Ebola, elles sont incapables de proposer des sérums ou vaccins efficaces. Ce seront pourtant de telles épidémies, ou plutôt pandémies, qui provoqueront les plus grandes mortalités dans les prochaines décennies.

Les sociétés de demain, pour survivre, devront impérativement trouver des alternatives au capitalisme de profit à application immédiate, qui consomme toutes leurs ressources d'épargne. Mais dès maintenant, des décisions politiques simples devraient être prises. Il s'agirait, notamment au niveau des gouvernements et des institutions de recherche, d'alléger la bureaucratie qui occupe l'essentiel du temps des chercheurs en science fondamentale. Elle leur demande de justifier les profits futurs qui pourront découler de ces recherches, chose que précisément et par définition ils ne peuvent pas faire. S'ils pouvaient le faire, il ne s'agirait plus alors, de sciences fondamentales.

La « peer review »

Le souci par ailleurs d'éliminer les risques, par une application systématique d'un « principe de précaution » qui le plus souvent donne la parole aux représentants des vieilles sciences, face aux inventeurs d'aujourd'hui, fait des ravages considérables. C'est comme si l'on avait voulu appliquer le principe de précaution lors de l'invention de l'aviation, s'appuyant sur le fait que les ballons sont moins dangereux que les plus lourds que l'air, car ils ne peuvent pas tomber aussi facilement.

De même qu'il n'est pas possible de justifier à l'avance les profits pouvant résulter à terme du financement de la recherche fondamentale, il n'est pas possible non plus d'anticiper avec précision les risques pouvant en découler. Personne ne peut en effet deviner à l'avance ce que seront les sciences appliquées et technologies découlant de ces recherches fondamentales. Si cela était possible, de telles recherches fondamentales n'auraient plus lieu d'être. Le futur a ceci de spécifique, dit-on, que la prévision ne lui est pas applicable. Ce n'est pas le cas de la prévision du passé.

Sur un plan plus spécifique, dont l'intérêt n'apparait pas au grand public, il faut par définition, refuser le recours systématique à ce que l'on nomme le « peer review », c'est-à-dire le jugement des pairs, face à un article, une demande de brevet ou même un projet d'investissement de recherche. Cette démarche est évidemment indispensable pour éliminer les fantaisistes et escrocs (elle serait utile, par exemple, face aux propos des frères Bogdanov). Mais, dans son principe même, elle donne la parole à des scientifiques chevronnés, a priori hostiles aux idées nouvelles qu'ils n'auront pas eu eux-mêmes. Beaucoup de ces scientifiques, il est vrai, ont suffisamment de force d'âme pour s'élever au dessus de ces considérations. Cependant le peer-review présente un autre danger non mesurable mais certainement considérable, celui que les auteurs d'idées innovantes se censurent eux-mêmes de peur d'être rejetés par la communauté.

Si les sociétés d'aujourd'hui, et à plus forte raison les sociétés de demain, confrontées à des risques et catastrophes multiples, ne trouvent pas moyen de laisser une totale liberté à des institutions et organismes spécialisés dans la promotion de recherches fondamentales sans applications pratiques, les découvertes majeures qui seront nécessaires ne se produiront pas. Il faudra en pratique impérativement accepter de courir le risque de dépenser 10, voire 100, avec seulement l'espoir de recueillir 1.

Quant auxinconvénients de devoir faire face à des frères Bogdanov de demain, ils sont très faibles. Les sciences émergentes sont si complexes, nécessitent de tels investissements intellectuels, que les escrocs et illuminés ne s'y risqueront pas. Rétrospectivement, on constate d'ailleurs que les découvertes majeures du 20e siècle n'ont eu à leur origine que quelques dizaines d'inventeurs désintéressés. C'est faire apparaître leurs homologues du 21e siècle que les sociétés actuelles et de demain devraient se fixer comme priorité.

Des mesures d'encouragement et d'accompagnement à grande échelle

Ajoutons qu'il ne suffira pas pour provoquer la véritable explosion des recherches fondamentales qui serait nécessaire, au niveau mondial et dans les prochaines décennies, d'y affecter des crédits. Il faudra mettre en place des mesures d'incitation et d'accompagnement qui n'existent absolument pas aujourd'hui.

Celles-ci viseront les trois champs de la recherche qui sont conjointement nécessaires : le champ mondial, le champ des nations ou des grands blocs géopolitiques, le champ des collectivités locales. Certes, dans ces trois champs, les rivalités entre intérêts se feront sentir et ne permettront pas une totale coopération. Mais il faudra que les gouvernements, relayés par les opinions publiques, mettent en valeur les domaines très nombreux où les recherches fondamentales pourront bénéficier à tous, dans un objectif d'intérêt général.

Ce sera le cas, pour reprendre l'exemple cité des pandémies, de toutes les recherches visant à mieux comprendre l'émergence de la vie, la formation des monocellulaires puis des pluricellulaires, leurs résistances aux agressions et leurs capacités évolutives. De même, lorsque des recherches théoriques en exobiologie (biologie non terrestres) se développeront, elles devraient ainsi avoir des conséquences rapides dans le domaine médical.

Ajoutons que les pouvoirs publics devront promouvoir l'interdisciplinarité indispensable à l'apparition d'idées nouvelles fécondes. Il devra s'agir d'une démarche volontariste nécessitant des études et des moyens spécifiques. Nul n'ignore qu'une des faiblesse de la recherche contemporaine est qu'elle se compartimente en disciplines et sous disciplines empêchant toute rencontre et interfécondation entre recherches différentes. Certes, rester performant dans un domaine donné parait nécessiter tous le temps disponible.

Mais en fait des méthodes de communication modernes faisant le cas échéant appel à l'intelligence artificielle devraient permettre de résoudre cette difficulté. Les scientifiques devront se résoudre à y faire appel. Ils sont les premiers responsables de leur isolement intellectuel. Il leur est plus facile de comprendre ce qu'ils font que comprendre ce que font leurs collègues, fussent-ils très proches.

Les mesures à prévoir viseront à créer une ambiance favorable à l'apparition de nouvelles idées et de nouveaux chercheurs se dédiant au service de celles-ci. Pour cela, tous les moyens de la communication et des échanges utilisant les ressources des réseaux numériques devront être mobilisés, y compris en leur affectant un temps bien supérieur à celui qui leur est consacré par les grands médias aujourd'hui. Ainsi les esprits curieux, nombreux mais très sous-employés, pourront passer plus de temps devant leur télévision à regarder des émissions scintifiques que des courses automobiles et des matchs de foot-ball.

Note.

Sur cette question, on lira un ouvrage récent de Donald Braben, « Promoting the Planck Club: How defiant youth, irreverent researchers and liberated universities can foster prosperity indefinively » (Wiley)

Partager cet article
Repost0
9 septembre 2015 3 09 /09 /septembre /2015 21:46

Eléments de programme pour un futur Conseil National de la Résistance français (CNRF)
Jean-Paul Baquiast, Christophe Jacquemin 07/09/2015
Se sont associés aux signataires, par ordre d'arrivée:
Alain Cardon, professeur des Universités en informatique
***

NB. projet en discussion. Commentaires, propositions et critiques seront reçus sous la version du texte publiée par Overblog,

Introduction

Nous avons évoqué dans des articles précédents l'hypothèse selon laquelle Jeremy Corbyn, appelé au pouvoir par un électorat britannique excédé des impasses du néo-libéralisme, mettrait en œuvre un programme s'inspirant de celui du Labour party des origines. Il serait intéressant ici d'imaginer ce que pourrait être ce programme. Mais il serait encore plus intéressant d'imaginer ce que pourrait être l'équivalent d'un tel programme, s'il se trouvait en France une majorité suffisante pour le proposer.

Il est tentant de dire que ce programme pourrait s'inspirer de celui proposé sous l'occupation allemande et après la Libération par le Conseil National de la Résistance. Celui-ci avait été conçu par des militants de diverses origines, parti communiste, parti socialiste mais aussi une forte proportion de démocrates chrétiens, selon le nom qui était le leur à l'époque. Son ambition était d'être adopté par des mouvements refusant le retour au capitalisme de pur profit qui avait réussi avant la guerre à provoquer la chute des gouvernements de Front Populaire, et qui s'était fort bien accompagné par le suite de l'occupation nazie.

Après presque un siècle cependant, si aujourd'hui les objectifs politiques et sociaux du CNR demeurent plus que jamais d'actualité, les mesures concrètes proposées (d'ailleurs imparfaitement appliquées à la Libération) demandent une importante actualisation. C'est ce à quoi s'efforce ce texte. Ici le terme de Résistance pourrait être entendu comme désignant la résistance à une finance se disant transnationale mais demeurant très largement inspirée par les objectifs géopolitiques des Etats-Unis.

Le FMI et la Banque mondiale sont directement au service de cette finance. Malheureusement, rompre avec Wall Street, comme le proclamait le mouvement Occupy Wall Street, ne peut se faire pour les européens sans rompre avec la monnaie unique européenne et plus généralement avec les institutions de l'Union définies par les traités actuels. Autrement dit, il faut imaginer comment un Conseil National de la Résistance français (CNRF), adapté aux éxigences du 21e siècle, pourrait permettre à un pays comme la France de vivre et même prospérer en tant qu'Etat-nation. Un tel Etat ne romprait évidemment pas ses liens avec les Etats restés membres de l'Union européenne, mais il les définirait d'une façon tenant mieux compte de ses intérêts civiilisationnels propres.

L'hypothèse d'une sortie de l'euro et de l'Union n'est évidemment pas utopique pour la France, puisqu'elle avait été envisagée avec beaucoup de crédibilité pour la Grèce, pays disposant pourtant d'infiniment moins de ressources que la France. Renvoyons le lecteur à ce propos aux analyses formulées à l'époque par l'économiste Jacques Sapir, qui avaient en partie inspiré Yannis Varoufakis.

Pour préciser ce que pourraient les éléments de programme d'un futur CNRF, nous examinerons dans une première partie ce que devrait être sa philosophie économique et sociale, puis dans une seconde partie certains des changements institutionnels permettant de dépasser les freins actuels à la créativité

Première partie Un CNR français. Philosophie économique et sociale

1.1. Contraintes externes à prendre en compte

Il ne sert à rien d'émettre des propositions tirées de rêves sur la comète. Celles ci doivent tenir compte des contraintes incontournables, certaines dramatiques, qui s'imposeront au monde dans les prochaines décennies. Nous les avons souvent décrites sur ce site. Bornons nous à les rappeler en quelques mots.

- Le réchauffement climatique rendant certaines parties de la planète inhabitables et provoquant des déplacements de populations considérables, y compris entre pays dits riches

.- L'appauvrissement continu des écosystèmes et de leurs ressources résultant d'une surexploitation imposée non seulement par l'accroissement des populations, mais par le refus d'imposer les normes de protection qui seraient indispensables à la survie de ces ressources. Le cas le plus évident en ce domaine est celui des ressources océanographiques

.- La raréfaction croissante des réserves énergétiques et en matière première de la Terre, tenant là aussi à leur exploitation sans précautions. L'appel aux nouvelles sciences pourra y suppléer mais le recours à celles-ci sera limité par leurs coûts.

- L'accroissement continu de la population. Freiné dans les régions ayant atteint la transition démographique, il ne sera pas contrôlable avant des décennies (compte tenu de l'hystérésis caractérisant ces phénomènes) dans certains pays asiatique et surtout en Afrique, dont la population pourrait atteindre 4 milliard dans un siècle.

- Le maintien, sinon le renforcement, d'une inégalité globale entre les pays dits riches -parmi lesquels se trouve l'Europe - et les pays dits pauvres. Cette inégalité se complète, y compris dans les pays riches, d'une inégalité considérable entre le 1% des élites favorisées et les 99% du reste de la population. Nécessairement, avec le développement de l'information, ces inégalités seront de moins en moins bien supportées. En résulteront des conflits parfois violents, précédés si rien n'est fait de migrations de grande ampleur..

- Le développement, dans les pays riches mais aussi de plus en plus dans les pays pauvres, de technologies numériques et robotiques. Celles-ci procureront un grand nombre de nouveaux services les rendant indispensables. Mais elles se substitueront inévitablement aux forces de travail traditionnelles. Le mouvement se fera en premier au profit des pays et des firmes ayant acquis la maitrise de ces technologies, c'est-à-dire les Etats-Unis, suivis de loin par certains Etats européens et par la Chine. D'autres régions du monde en resteront longtemps dépourvues.

1.2.Objectif premier: faire disparaître le chômage grâce à une innovation systématique et tout asimut.

Les contraintes précédemment énumérées se traduisent pour les sociétés n'ayant pas su maitriser les aspects favorables de ces contraintes, par un sous-investissement, un sous-emploi de l'ensemble des forces de travail intellectuelles et manuelles, une dépendance croissante à l'égard des pays ayant mieux su tirer parti des opportunités technologiques favorables ou disposant de ressources naturelles plus importantes. Elles supportent donc de plein fouet les conséquences destructrices de ces contraintes.

Les pays européens, l'Allemagne en grande partie exceptée, quoique relativement favorisés au regard des pays pauvres, n'ont généralement pas pu ou su utiliser les potentialités offertes par les nouvelles sciences et technologies pour se développer dans tous les domaines qui étaient théoriquement à leur portée. C'est très largement le cas de la France.

La France dispose de ressources indiscutables sur lesquelles nous reviendrons (annexe 1). Mais elle souffre de maux également indiscutables. Parmi ceux-ci se trouve un sous-emploi généralisé des forces de travail, physique et intellectuel. C'est à ce mal qu'il convient en premier lieu de porter remède. Cependant, des incantations ne suffiront pas. Il faudra pour cela transformer radicalement les objectifs que se donnerait une société comme la France, s'appuyant sur son héritage politique, scientifique et industriel.

Dans ce sens, il convient de réfléchir à l'exemple américain, non pas pour s'en inspirer mais au contraire pour ne pas le suivre. Les Etats-Unis, confrontés à ce qui est présenté aujourd'hui comme le plus grand cataclysme de son histoire, la crise de 1929, n'avaient pas trouvé mieux, pour retrouver le plein emploi de leurs ressources, qu'entreprendre des guerres mondiales. La participation décidée par Roosevelt à celle menée contre Hitler était parfaitement justifiée au plan moral, mais Hitler vaincu, l'Amérique avait du chercher à réutiliser les ressources mobilisées, pour éviter de retomber dans une nouvelle Dépression.

A cette fin, les gouvernements n'avaient rien imaginé d'autre que porter de nouvelles guerres dans diverses parties du monde, en s'engageant dans de nouvelles dépenses considérables. L'essentiel de ces dépenses intéressait le domaine militaire. Grâce à ces dépenses, financées par l'emprunt, l'Amérique avait réussi à éviter un retour massif du chômage. Mais les guerres, même destinées à s'emparer des ressources d'autres peuples, n'ont finalement que peu de retombées constructives. Aujourd'hui, si l'Amérique dispose de technologies de sécurité et de défense hors pair, elle n'a pas su tirer de celles-ci toutes les applications tournées vers les besoins en profondeur de la société, qui étaient à sa portée. Elle est constamment menacée d'un retour de la crise économique. Elle réagit mal, e termes politiques, à l'immigration sud-américaine.

En 1946 et plus encore par la suite, l'imagination et les compétences ont manqué aux décideurs, décideurs politiques ou décideurs constituant le puissant lobby militaro-industriel. Ils n'ont pas su imaginer une mobilisation toute différente, au service d'objectifs scientifiques et industriels pacifiques, pouvant bénéficier non seulement aux citoyens américains, mais au reste du monde. En particulier, le lobby est resté militaro-industriel au lieu de se transformer en lobby pacifico-industriel. On peut rêver à ce que serait aujourd'hui le monde si l'Amérique et plus généralement les puissances victorieuses s'étaient inspirées des idées défendues en petit comité par Einstein ou par les pères de la physique quantique.

C'est à l'échelle de la France, et 70 ans après, l'erreur qu'il ne faudrait pas renouveler. La France doit mobiliser ses ressources au service du développement de sciences et de technologies radicalement nouvelles, ce que l'Amérique n'avait pas su faire en 1938 et en 1946, ce que d'ailleurs elle ne sait toujours pas faire en profondeur. Nous présenterons en annexe quelques unes de ces sciences et technologies et leurs applications souhaitables ( annexe 2). Pour indiquer d'emblée qu'elles ne devront pas être limitées par le manque d'imagination créatrice, nous reprendrons, en l'explicitant, le terme de transition vers le post-humain.

1.3. Viser au delà du plein-emploi des hommes.

Nous voulons dire par là que le CNRF ne devra pas se limiter à créer des emplois aidés ou autres formules sans perspectives. Il lui faudra concevoir et mettre en place des objectifs véritablement révolutionnaires, tels que l'avènement du post-humain mentionné ci-dessus.. Le lecteur jugera sans doute qu'il s'agit d'utopies, mais souvent dans l'Histoire ce furent les utopies qui ont fait les grands peuples.

- Redéfinir le plein-emploi. Le plein emploi, au sens noble du terme, ne doit pas viser à donner à tous une occupation, quelle que soit celle-ci, et même s'il s'agit d'emplois subalternes. Cet objectif déjà loin d'être atteint en France, devra être complété par de plus grandes ambitions. La société devra se fixer des objectifs si exigeants que les ressources humaines existantes ne suffiraient pas à les satisfaire. Pour y réussir, plutôt que faire appel à l'immigration qualifiée, comme aujourd'hui l'Allemagne, il faudra former les forces de travail nationales pour qu'elles fassent face aux tâches les plus difficiles, en formation initiale d'abord, en cours de carrière ensuite, comme précisé ci-dessous. La France dispose de sources quasiment illimitées de matière grise disponible, qu'elle ne sait pas valoriser.

Cette redéfinition du plein-emploi, et son application systématique, devrait aujourd'hui constituer le facteur essentiel dans ce que l'on appelle la crise des banlieux. Elle devrait permettre aussi d'absorber une grande partie des apports de l'immigration.

- Qu'entendre par objectifs ambitieux? Résumons les en une formule: devenir le laboratoire d'essais du monde (ou l'un des premiers d'entre eux). La Chine a longtemps été l'usine du monde, appliquant les idées imaginées par d'autres. La France doit avoir l'ambition de suggérer des objectifs scientifiques et technologiques que n'auraient pas les autres pays, et de les mettre à l'essai pour tester leur faisabilité et leur intérêt. Nous en proposons une liste en annexe 2 précitée. Pour cela elle devra viser à devenir le laboratoire du monde. Certes dans cette voie elle serait vite rejointe pas d'autres, mais elle aurait l'avantage d'avoir eu les bonnes idées en premier.

- Former chaque citoyen-ne. pour ce faire. Il ne suffit pas de vouloir pour pouvoir. Il faut se donner les formations et les compétences nécessaires, en utilisant chaque fois que possible les technologies numériques. Pour devenir le laboratoire d'essais du monde il faudra faire appel à toutes les capacités d'imagination et d'invention disponible, en France comme dans le reste du monde. Il faudra donc mettre en place des formations initiales et des formations continues qui devront viser l'excellence. Chacun devra pouvoir en être le bénéficiaire, mais chcun devra en contrepartie mobiliser toutes les capacités que lui auront données la nature et le milieu social.

- Assurer à chacun un plein emploi, dans le cadre de ce laboratoire, adapté en permanence aux capacités qu'il aura acquises. Ces emplois devront être suffisamment ambitieux pour que chacun y trouve une place, en mobilisant et développant ses compétences. L'emploi ne se limitera pas à ce que l'on nomme aujourd'hui les années actives, mais devra se poursuivre, en fonction des capacités physiques des individus, jusqu'à leur extrème vieillesse.

- Assurer à chacun un salaire et une couverture sociale de base, indépendants du rôle et de l'emploi qui seront les siens dans ce laboratoire. Ceci veut dire que ce ne sera plus la peur du chômage et de la perte de sa couverture sociale qui devront pousser les individus à travailler, mais le goût du travail. La société devra assurer à chacun les garanties et services d'un Etat-providence universel tel qu'imaginé en France par le premier CNR, et partiellement réalisé à la Libération. Autrement dit, les individus travailleraient, non pas pour assurer leur vie matérielle, mais pour mettre en valeur leurs capacités et leurs idées. En contrepartie, les revenus du travail dépassant certains plafonds, qui ne profitent qu'à des minorités n'étant pas nécessairement les plus productives, seront découragés

- Instituer à divers niveaux les appels à idées que le laboratoire se donnera pour mission de mettre à l'essai puis de développer en cas de succès. La société nouvelle à créer, les sciences et technologies nécessaires, les bons emplois qui en seront faits ne sortiront pas tout armés des cerveaux des gens. Il faudra que se mette en place de véritables « machines à inventer », organisées sur un mode professionnel, et utilisant les meilleurs outils d'aide à la décision disponibles.Certaines entreprises ont déjà développé de telles machines, mais en les limitant à la recherche d'objectifs soit ludiques, soit visant un profit corporatif immédiat.

- Définir sur ces bases des projets de développement à la fois ambitieux et cohérents, tant en interne qu'au profit des autres projets. Citons ici les énergies non polluantes, l'agriculture raisonnée (respectueuse de la terre), la médecine raisonnée (respectueuse du patient), des cycles de production raisonnés (qui évitent le plus possible le consumérisme pour le simple profit (les produits à obsolescence programmée et le pillage de la planète), la création d'outils permettant de réduire les dégâts fait à l'environnement, etc...Mentionnons ici les sciences humaines mises à la portée de tous, (avec une réflexion sur ce que signifie vivre sur cette terre.

Nous dévelooperons ces thèmes et en proposerons d'autres en annexe 2.


- Donner dans la mesure du possible des suites industrielles, économiques et sociales à ces projets. Il ne suffira pas évidemment de se borner à suggérer de bonnes idées, pour que seuls les autres pays en tirent partie. Il faudra créer les entreprises technologiquement capables de passer de la recherche à l'application de grande échelle sur le terrain. Les entreprises privées, y compris coopératives, seront appelées à le faire. Mais pour donner l'exemple, des entreprises et services publics scientifiques, sociaux, industriels et commerciaux devront être mis en place et pourvus des meilleurs moyens disponibles.

- Décourager en contrepartie les types de consommation gaspilleuses de ressources, imposant des importations importantes et détournant les citoyens de priorités plus nobles (cf ci-dessus) Certains décisions réglementaires devront être prises à cette fin, mais elles devront être très largement accompagnées d'un effort collectif de conviction montrant aux individus qu'ils ont mieux à faire que rechercher de petits plaisirs égoïstes dans une consommation largement promotionnée par la publicité. Tout à l'inverse, les activités intellectuelles et physiques contribuant au développement des personnes devront être encouragées.

Un très grand problème demeurera cependant, auquel il reste difficile de suggérer des remèdes efficaces.Il s'agit de l'addiction à des excitants, stupéfiants et autres produits de la chimie de synthèse, qui s'emparera toujours, semble-t-il, d'un certain nombre de personnes fragiles. Encore faudra-t-il lutter plus énergiquement qu'à présent contre les intérêts mafieux qui en assurent la diffusion, notamment aujourd'hui par Internet.

- Nous reviendrons ci-dessous sur la question des moyens et plus particulièrement des budgets nécessaires à de tels investissements. Disons seulement ici qu'en complément de ressources fournies par l'impôt, l'émission de monnaie et autres sources, il faudra aussi faire appel à l'épargne des particuliers. La formule des obligations à durée indéterminée (ODI), déjà proposée sur ce site par Joseph Leddet, paraît offrir des solutions très intéressantes.

Deuxième partie. Changements institutionnels permettant de dépasser les freins à la créativité.

Le cadre général censé jusqu'ici permettre à un pays comme la France de se développer lui a été imposé par les forces libérales et néo-libérales ( la « Finance »). Il se résume en un terme, la mondialisation. S'ouvrir le plus largement possible à la mondialisation et au marché devrai prétend-on permettre à la France de sortir de son état actuel de stagnation. Or, il a été largement montré par les économistes et politologues indépendants que cette ouverture signifie au contraire la disparition progressive des atouts dont dispose encore la nation. Ceux ci se trouvent en effet confrontés dans le cadre de la mondialisation à des forces contre lesquelles, dans leur état acuel, ils ne sont pas de force à lutter: le grand capital anglo-saxon, bientôt peut-être relayé par le capitalisme d'état chinois, d'une part, la concurrence sans lois et sans limites des pays à forte population misérable, supportant pour survivre des conditions de travail qui seraient insupportables en Europe, d'autre part.

Il faudra donc en France accepter de revenir à des modes d'organisation ayant permis à la Libération de reconstruire le pays: une économie très largement dirigée, des protections aux frontières très fortes. Mais pour tenir compte des erreurs passées, ce « dirigisme » et cette protection devront être repensés pour intégrer des méthodes modernes de direction expérimentées dans un certain nombre de groupes mondiaux innovants, tout en leur retirant leur orientation exclusivement destinée à maximiser le profit de l'actionnariat des dits groupes. Que pourraient être en conséquences les objectifs et les méthodes que se donnerait le CNRF étudié ici?

2.1. Modifier en tant que de besoin le cadre juridique actuel. Celui-ci, très vieilli, se montre aujourd'hui plus riche en incitations à ne rien faire qu'en incitations à faire. Tout évidemment ne devra pas être remplacé, mais il faudra imaginer des réformes en profondeur, dans de nombreux domaines, qui apparaitront comme dangereusement révolutionnaires aux esprits conservateurs. Ces modifications imposeront en interne une remise en cause du droit de propriété, notamment en ce qui concerne les entreprises. Au plan externe, relevant du droit européen et du droit international, les mêmes remises en cause s'imposeront, aussi largement que nécessaire. Nous y reviendrons.

2.2. Nationaliser en tant que de besoin, les entreprises nécessaires au développement de ces projets, si elles refusaient de s'y associer. Parmi celles-ci, on citera les banques et un certain nombre d'entreprises dites du CAC 40. Le terme de nationalisation suscite l 'horreur, non seulement des intérêts privés concernés, mais aussi de l'opinion. On évoque à ce sujet les échecs rencontrées par les nationalisions en URSS et ailleurs. Pourtant, pour combattre la crise de 2008, la Finlande avait nationalisé un moment ses banques, sans difficultés particulières. Si des fuites à l'étranger en résultent, tant pis. Des forces nationales prendront le relai, dans l'esprit remarquablement illustré par la poésie de Victor Hugo « ô soldats de l'An deux » http://poesie.webnet.fr/lesgrandsclassiques/poemes/victor_hugo/soldats_de_l_an_deux.html.

2.3. Définir le statut interne de ces entreprises nationalisées afin de les rendre plus efficaces que celles qu'elles auront remplacées. Il ne s'agira pas, en dehors de la propriété du capital, de chasser tous les états-majors et cadres concernés, pour les remplacer par des fonctionnaires ou personnels promus par le gouvernement du moment. Il faudra assurer au contraire à ces cadres une place de choix, dès lors qu'ils accepteront de mettre leurs capacités au service du vaste laboratoire d'innovations à créer. Dès lors aussi qu'ils accepteront, dans les entreprises nationalisées, les limitations de salaires évoquées plus haut. Une échelle de 5 en ce qui concerne les niveaux de rémunérations et prestations annexes serait suffisante, et finalement très convenable.

2.4. Organiser au niveau national, comme au niveau des branches ou de secteurs horizontaux, la planification des actions nécessaires à l'émergence des idées comme au développement des moyens nécessaires à faire du pays le laboratoire évoqué ci-dessus. La France a perdu la pratique des Commissariats au plan et des Plans de développement et de modernisation institués à la Libération. Contrairement à ce qui en avait été dit, il ne s'agissait pas principalement de structures administratives et politiques stérilisantes. Elles faisaient un large appel à ce que l'on nommait les « forces vives » de la nation. Des structures de même type devront être mises en place.

2.5. Repenser en conséquence le rôle et la composition du gouvernement, en tant que responsable de la proposition des mesures à prendre et de mise en place des administrations permettant de les appliquer. Les autres pouvoirs constitutionnels, Parlement et Judiciaire, devront être adaptés parallèlement. Par ailleurs les objectifs et méthode de la décentralisation devront être modifiés, afin que celle-ci se mette au service des innovations et cessent de soutenir des intérêts particuliers constituant des freins à la politique générale de changement qui sera mise en œuvre.

2.6. Recréer une fonction publique, en priorité au niveau de l'Etat, qui retrouvera là encore le rôle essentiel qu'elle avait joué en France après la guerre et au début du gaullisme. Ceci signifiera, quel qu'en soit le coût, renforcer ses effectifs actuels, notamment dans les services indispensables à l'encadrement et au contrôle des activités proposées ici. Ces services seront notamment en charge de la planification et de l'évaluation des résultats, mais aussi et surtout des tâches de contrôle fiscal et contrôle de l'application des réglementations, systématiquement dépourvues d'effectifs aujourd'hui. On y ajoutera la police et la douane indispensables à la lutte contre les mafias qui prolifèrent partout dans le monde actuellement.

On y ajoutera aussi la défense nationale sous ses diverses formes. L'armée servira à protéger le pays des agressions extérieures, protection d'autant plus nécessaire qu'il s'engagera dans les tâches évoquées ci-dessus. Ceci ne manquera pas de lui susciter l'opposition armée des groupes d'intérêts internationaux s'estimant frustrés. Les tentatives de changement de régime (regime change) à partir de soulèvements populaires artificiellement provoqués par des Agences spécialsée, ne manqueront pas. Les Etats-Unis y font encore largement appel.

Les méthodes traditionnelles de recrutement, formation et gestion de cette fonction publique renforcée devront être modernisées pour tenir compte des nouveaux rôles qui lui seront donnés.

2.7. Lever le handicap prétendu du manque de moyens, budgétaires notamment. La question essentielle des ressources devra être abordée à partir d'approches qui, sans être à proprement parler révolutionnaires, devront bousculer les faux impératifs visant à paralyser les initiatives créatrices susceptibles de remettre en cause l'ordre établi. Le premier point consistera à se débarasser du fardeau de la dette. Un Etat ayant repris son autonomie par rapport à l'Union européenne devra plus facilement négocier et restructurer sa dette. Celles jugées légitimes seront remboursées, quite à être mieux réparties dans le temps. Celles imposées par des engagements spéculatifs pris précédemment par des intérêts financiers souvent extérieurs aux administrations budgétaires, seront dénoncées unilatéralement, quelles qu'en soient les conséquences.

Pour l'avenir, l''obligation de respecter des équilibres budgétaires calculés au niveau le plus bas et de fait injustifiés sera modulée selon les secteurs. Dans les domaines où existent des ressources considérables restant sous-employées. il faudra faire ce qu'ont toujours fait les pays en état de guerre, et ce que font encore les Etats-Unis, dans le type de guerre qu'ils mènent contre le reste du monde. Il s'agira dans un premier temps, de créer de la monnaie sous diverses formes, qui servira de moyens de paiement temporaire interne pour financer les investissements et salaires à consentir. Cette monnaie ne sera convertible que sous le contrôle des autorités en charge du secteur financier.

Dans un second temps, il faudra valoriser de différentes façons les investissements ainsi réalisés. Cette valorisation permettra de « rembourser » les créations de monnaie précédemment faites, et de financer de nouveaux investissements. Le cycle ne peut évidemment se dérouler en une seule année. Il doit être assurée sur des durées plus longues, différentes selon les domaines considérés.

2.8. Protéger par diverses méthodes les efforts en cours puis les résultats obtenus. Ceci signifiera la mise en place initiale d'un développement en autarcie partielle, c'est-à-dire vivant au maximum en circuit fermé, à partir de ses propres ressources. Pour un pays comme la France, ces ressources sont insuffisantes pour éviter de faire appel aux importations, compensées par des exportations. Il faudra donc organiser, dans le cadre de l'économie dirigée, les circuits nécessaires en ce sens. Le principe en sera l'établissement de relations gagnantes-gagnantes avec les autres pays partenaires. Les relations avec les Brics ouvriront de larges perspectives à cet égard, pour peu que l'on accepte de s'affranchir des "sanctions" et interdits imposés à l'Europe par les Etats-Unis.

Pour éviter que des fuites diverses, souvent criminelles (mafieuses) ne se produisent, un contrôle des changes sera indispensable, complété d'un contrôle des flux de marchandises. Il sera par contre nécessaire, malgré les risques, de laisser s'organiser librement les échanges en matière de personnes physiques, tant du moins que ceux-ci ne serviront pas d''instrument aux activités criminelles.

Troisième partie La question de l'euro et celle de l'Union européenne

Nous ne détaillerons pas ici les solutions proposées par ceux désirant s'affranchir des contraintes devenues insupportables découlant de la participation à la monnaie unique et à l'Union sous sa forme actuelle. Elles n'auront rien d'original au regard de celles déjà largement discutées en Europe. Disons seulement que le CNRF envisagé ici se donnera une monnaie qui, sans doute sous le nom conservé de Franc, n'aura rien de comparable à l'euro actuel ni à l'ancien franc. Il s'agira d'une monnaie très largement administrée pae une Banque centrale nationale et nationalisée, au sein des frontières et des missions évoquées ci-dessus. Concernant les relations avec les autres monnaies, elles s'établiront d'une façon assez proches de celles existant actuellement entre celles-ci et le renminbi chinois.

Par ailleurs,le CNRF rejettera soit de façon unilatérale non négociée, soit de façon négociée, les diverses obligations imposées actuellement aux Etats-membres de l'Union par les divers traités définissant celle-ci. La négociation de nouvelles relations, sur ces sujets et sur d'autres actuellement non abordées par les traités, mais pouvant être considérées comme prioritaire, sera évidemment recherchée. Seront concernés les Etats restés au sein de l'Union européenne comme tous les autres membres de l'Organisation des Nations Unies en général.

Il en sera de même des obligations imposées aujourd'hui à la France par sa participation à l'Otan (Organisation du Traité de l'Atlantique Nord). Celles-ci interdisent pratiquement tout rapprochement avec les Brics et l'Organisation de Sécurité de Shanghai. Pourtant les orientations stratégiques adopées par cette vaste partie du monde intéresseront nécessairement sur de nombreux points les relations internationales du CNRF. Il va sans dire à l'inverse que la mise en tutelle des Etats européens résultant de la signature d'un Traité de libre échange transatlantique (TTIP) sera immédiatement dénoncée unilatéralement par le CNRF, quelles que puissent être les mesures de rétorsion imposée par les Etats-Unis, principaux initiateurs de ce traité lui-même « unilatéral ».

Quatrième partie. La question des migrations.

Le thème est de très grande actualité aujourd'hui. Il le sera probablement indéfiniment et en s'amplifiant. Ceci non seulement du fait des guerres, mais des déréglements climatiques s'imposant à des populations incapables encore de contrôler leur démographie. Il n'est pas possible à ce jour ici d'en discuter sérieusement, compte tenu de l'évolutivité du sujet.

On se bornera ici pour fixer les idées à présenter un document que les auteurs de ces éléments de programme viennent de rédiger et mis en ligne par ailleurs:

La France doit investir pour organiser l'accueil aux réfugiés qu'elle recevra

Dans un article qui est en discussion sur le site Admiroutes-Automates intelligents, auquel le lecteur pourra se reporter, nous avons proposé quelques idées qui pourraient permettre à la France d'échapper à la spirale de désinvestissement et de découragement où elle s'enferme aujourd'hui. http://www.admiroutes.asso.fr/larevue/2015/161/CNR.htm

Concernant les migrations, quelques points complémentaires mériteraient d'être évoqués ici, à la lumière des besoins d'accueil qui s'imposent dorénavant du fait des engagements pris par la France en la matière. Il est évident qu'il ne suffira pas à terme d'ouvrir des centres d'hébergement dans lesquels seraient dans un premier temps dirigés les premiers arrivants, ni même de compter sur la bonne volonté des familles acceptant d'en héberger quelques uns (unes) à domicile. Il faudra faire beaucoup plus. Il semble que l'Allemagne ait déjà prévu des mesures à grande échelle permettant d'intégrer au mieux les 500.000 réfugiés par an qu'Angela Merkel invite à venir dans le pays. Certes, comme nous l'avons indiqué dans un précédent article, ceci lui sera relativement facile car les employeurs, en manque de main-d'oeuvre, s'efforceront de recruter et de former ces effectifs, en complément des efforts que fera l'Etat fédéral. Mais des mesures spécifiques de grande ampleur s'imposeront outre-Rhin .

En France, la situation sera moins favorable. Du fait d'une politique malthusienne imposée depuis longtemps par les intérêts néo-libéraux faisant la loi à Bruxelles, la France n'a fait jusqu'ici aucun effort sérieux pour relancer la recherche, l'industrialisation, les services publics et hospitaliers dont elle aurait depuis longtemps besoin pour assurer des emplois convenables à ses propres ressortissants. Or face à l'arrivée de réfugiés, la société dans son entier devra, non se fermer encore davantage au prétexte du sous-emploi dont elle souffre, mais en profiter pour réclamer des pouvoirs publics et des grandes entreprises la mise en place immédiate de programmes de développement ouverts non seulement à ses propres citoyens mais à ces réfugiés, sans distinction d'origine ou de religion.

Ceci représentera un coût certain. Il sera refusé si persiste une politique anti-croissance consistant à réduire les déficits publics jusqu'à la barre fatidique des 3%. Mais des politiques audacieuses d'investissements, fussent-elles financées par des déficits supplémentaires, rapporteraient très vite des bénéfices susceptibles de compenser à terme, et au delà, les efforts budgétaires ainsi consentis. Ce raisonnement d'une simplicité élémentaire, jusqu'ici peu entendu, devrait pouvoir être repris en force par les pouvoirs publics, les partis politique et l'opinion, à l'occasion de l'arrivée des réfugiés.

Aussi bien ne faut-il pas prévoir des mesures spécifiques ne s'appliquant qu'à eux. Il faut relancer la croissance dans tous les secteurs, au bénéfice de tous les français et résidents en France, sans exclusive. Chacun en tirera profit. Il semble que ce soit la politique actuellement décidée par la chancelière Merkel 1) La France accroitrait son retard sur l'Allemagne si elle ne faisait pas de même, sous-emploi ou non.

Évidemment, des mesures différenciées s'imposeront, selon la nature des besoins. Des formations au français ou sur un plan professionnel basique, destinées à rattraper les retards des réfugiés, ne seront évidemment pas inutiles. Mais, dans la plupart des autres domaines, des politiques indifférenciées devraient s'imposer, sous réserve de régler des problèmes d'ajustement temporaires. Cet article n'est pas le lieu pour en traiter en détail. Rappelons seulement les besoins qu'il faudra satisfaire, au bénéfice de tous. Ce rappel ne demande aucun effort d'imagination, car les besoins sont depuis longtemps bien connus en France. Le seul point à signaler concerne le fait qu'aujourd'hui ces besoins non pourvus ne dérangent aucun des « grands décideurs », qu'ils fussent publics ou relevant des entreprises du CAC 40.

Politiques publiques ou privées à renforcer dans l'esprit de ce qui précède

* Identification fine des compétences actuelles non employées, afin de leur fournir des possibilités de formation et d'embauche.

* Mise en place de centres de formation générale et de formation professionnelle destinés à compléter les compétences ainsi recensées, si celles-ci paraissent insuffisantes. Il semble pour le moment qu'un pourcentage important de réfugiés disposent déjà de bonnes qualifications. Il faudra seulement dans un premier temps les aider à les adapter, y compris dans le cadre de l'utilisation de la langue française.. Ajoutons que beaucoup de réfugiés auront les compétences nécessaires pour devenir formateurs eux-mêmes.

* Amélioration du fonctionnement des services relevant de Pôle Emploi ou du secteur coopératif et privé recensant les besoins et les offres.

* Politique de construction de logements autres que simplement d'urgence, dans les zones où, à la suite des évaluations précédentes, des besoins d'hébergement non satisfaits se feront sentir. En Italie, l'idée de proposer à ces émigrés de repeupler et mettre en valeur des zones rurales désormais délaissées est à l'étude. Elle est à recevoir avec précautions. Elle pourrait entrainer la formation de communautés fermées qui viendraient en conflit avec les villages voisins.

* On ajoutera, mais là une pression politique forte des opinions publiques sera nécessaire, l'engagement de politiques publiques ou privées d'investissement, notamment dans les secteurs de l'énergie renouvelable, du logement zéro-énergie, de la future protection contre les effets destructeurs pour l'environnement du réchauffement climatique... N'allons pas plus loin, la liste serait trop longue.

* Pour tout ceci, le rôle des réseaux numériques et des services en ligne devra être fortement accru. Ils sont seuls à permettre de résoudre les problèmes tenant notamment au langage et au manque de proximité.

* Rappelons enfin qu'une politique globale de cette nature ne pourra pas être décidée ou appliquée par les seules associations de bénévoles ou par les collectivités locales. La mobilisation de tous les services de l'Etat sera indispensable.

Bien évidemment, les normes françaises de droit civil, notamment celles relatives à l'égalité hommes-femmes, devront être respectées.

Note

1) voir l'article de Romaric Godin dans La Tribune http://www.latribune.fr/economie/union-europeenne/allemagne-pourquoi-angela-merkel-est-elle-si-genereuse-envers-les-refugies-503128.html

Annexes (à rédiger ultérieurement) .

1) Atouts et faiblesses de la France actuelle.

2) Objectifs scientifiques et technologiques que le CNRF pourra se fixer, compte tenu non seulement des capacités actuelles de la France, mais de celles que l'action volontariste décrite ci-dessus lui donnera. D'une façon imagée, disons seulement ici que ces objectifs pourront s'apparenter à la construction d'une société de type post-humain, évidemment à préciser, pouvant porter remède aux destructions qu'impose l'humanité sous sa forme actuelle tant à elle-même qu'à la planète et à certaines composantes du système solaire.

Postface

Dans un document plus détaillé, nous discuteront les valeurs philosophiques et morales que pourrait se reconnaître officiellement le CNRF. Elles ne s'imposeront évidemment pas aux membres du CNRFse rattachant à d'autres valeurs, tant que celles-ci ne seront pas en conflit direct avec les premières.

Précisons que le texte ci-dessus n'engage que ses signataires, mais en aucune façon les éditeurs et auteurs participant aux divers sites qui accepteront de le publier

Bibliographie

* A titre de référence concernant certains points, le lecteur pourra se reporter à " Ce monde qui vient. Sciences matérialisme et post humanisme au 21e siècle"
Par Jean-Paul Baquiast. Préface de Paul Baquiast
Edition L'Harmattan décembre 2014
Faire http://www.admiroutes.asso.fr/larevue/2015/153/baqbaq.htm

ainsi qu'aux précédents ouvrages publiés par ces derniers.

* Des articles illustratifs seront également joints à l'étude. Citons par exemple

http://www.lesechos.fr/journal20150908/lec1_france/021309269409-les-universites-de-recherche-generent-7-milliards-deuros-de-retombees-par-an-1153283.php

Partager cet article
Repost0
10 août 2015 1 10 /08 /août /2015 18:41

par Jean-Paul Baquiast et Christophe Jacquemin

 

 

Mécanisme possible pour CRISPR
Mécanisme possible pour CRISPR

Un nouveau risque du même type que les recherches concernant les armes létales autonomes, celui des recherches portant sur les conducteurs d'expression génétique, dit "gene drives", vient d'être rendu public par un groupe de 26 scientifiques directement impliqués dans ces recherches.

Ainsi nommés pour leur capacité à se déplacer à l'intérieur des génomes durant de nombreuses générations des espèces porteuses, ces gene drives amplifient les capacités d'expression des gènes auprès desquels ils se positionnent. Ils se localisent en amont de la séquence codante. Or ils sont organisés naturellement de telle sorte qu'ils peuvent être transmis lors de la reproduction de l'organisme à la totalité des descendants de celui-ci, et non à la moitié d'entre eux.

Il s'agit d'éléments à base d'ARN se trouvant dans la plupart des génomes des espèces naturelles. Ils accroissent les chances de transmission des gènes "infectés" par eux à l'ensemble des descendants. Ils peuvent donc se répandre rapidement eu sein des populations s'ils ne sont pas contrôlés. Cette transmission se fait indépendamment des conséquences qu'elle peut avoir sur l'adaptabilité de l'organisme. Autrement dit, les gene drives sont transmis même s'ils ont des effets négatifs sur l'adaptabilité des espèces concernées. Dans la nature, leurs effets favorables l'emportent cependant sur leurs effets nuisibles, du fait de leur dispersion réduite.

Des gene drives de synthèse ont été développés pour la première fois, dans le cadre des recherches en biologie génétique, afin d'être utilisés dans la lutte contre la reproduction des moustiques transmetteurs de la malaria. L'objectif est d'obtenir des populations de moustiques dépourvues de ceux portant les gènes transmetteurs de la malaria afin de les éradiquer définitivement. Mais cette pratique, si elle se développait, ne serait pas sans danger.

Un groupe de 26 chercheurs intéressés par les recherches de ce type ont publié un appel de mise en garde. Ils recommandent différentes mesures de précaution visant à prévenir la diffusion des résultats obtenus par les laboratoires s'intéressant aux genes drives, que cette diffusion soit accidentelle ou d'origine criminelle.

Au-delà des moustiques, de nombreux chercheurs développent en effet des gene drives synthétiques qui pourraient être diffusés intentionnellement au sein de diverses populations d'espèces sauvages afin d'altérer leurs capacités à transmettre des maladies, et plus simplement à empêcher la reproduction des espèces considérées – à tort ou à raison – comme nuisibles.

Un éditeur de gene-drives

Un éditeur de gene-drives nommé CRISPR a été développé pour systématiser la lutte contre les espèces d'insectes porteurs de diverses maladies affectant l'homme, ou ayant un effet destructeur sur les cultures. La méthode a été présentée comme protégeant l'environnement au contraire de l'utilisation de pesticides divers. Elle peut également lutter contre la prolifération d'espèces nuisibles telles que les rats ou certains variétés de crapauds (cane toad).

Jusqu'ici, les espèces dites transgéniques, aux génomes modifiés, ne se répandent pas facilement dans la nature puisque seulement 50% de leurs descendants leur survivent. Avec l'utilisation de gene-drives, ce seront 100% des descendants qui survivront.
Or, utilisés au sein d'espèces mobiles, telles les moustiques ou les mouches du fruit, ces génomes modifiés pourront s'étendre à de nombreuses autres espèces, sans qu'il soit possible de prévoir ou prévenir leur dispersion.

Une mise en garde

Aussi les chercheurs travaillant au sein des laboratoires poursuivant des recherches sur les gene drives, telle la Synthetic Biology Platform au sein du Wyss Institute, ont commencé à rédiger des guides d'usage et de précaution visant à empêcher les dérives. Le document est désormais accessible en open source.

Les 26 auteurs de la mise en garde, appellent tous les chercheurs qui travailleront dans ce domaine à adopter de sévère mesures de confinement destinées à éviter que les produits de ces recherches n'aillent contaminer des espèces sauvages. Ceci même si les laboratoires sont en compétition les uns avec les autres pour commercialiser les produits de leurs recherches.

On ne peut que féliciter les auteurs de cet appel. Mais sachant avec quelle vitesse se propagent les produits scientifiques et industriels pourtant considérés comme nuisibles pour l'environnement et au-delà, pour l'espèce humaine elle-même, on ne pourra pas éviter un certain scepticisme.

 

Pour en savoir plus :
* Gene drives
* CRISPR
* Wyss Institute

* At the frontier of biosafety

Partager cet article
Repost0
27 juillet 2015 1 27 /07 /juillet /2015 21:26

Un faux "robot tueur" lors du lancement d'une campagne à Londres contre les armes entièrement autonomes, en 2013 - Photo : AFP
Un faux "robot tueur" lors du lancement d'une campagne à Londres
contre les armes entièrement autonomes, en 2013



Dans une lettre ouverte publiée lundi 27 juillet à l'occasion de l'IJCAI, une conférence internationale sur l'intelligence artificielle, qui se tenait du 25 au 31 juillet à Buenos Aires, un millier de personnalités, dont une majorité de chercheurs en IA et en robotique, ont réclamé l'interdiction des armes létales autonomes ALA, capables de sélectionner et de combattre des cibles sans intervention humaine.

Parmi les signataires, on trouve le milliardaire Elon Musk, le constructeur des voitures électriques Tesla et du lanceur SpaceX, l'astrophysicien britannique Stephen Hawking, le cofondateur d'Apple Steve Wozniak, le linguiste américain Noam Chomsky ou Demis Hassabis, le fondateur de DeepMind, une entreprise consacrée à l'intelligence artificielle rachetée par Google.

La lettre dénonce un "danger imminent" découlant du niveau aujourd'hui atteint par l'intelligence Artificielle (AI ou IA)) et de ses progrès prévisibles : L'intelligence artificielle a atteint un point où le déploiement de tels systèmes d'ALA sera faisable d'ici quelques années si les enjeux militaires et plus généralement politiques sont importants. Les ALA ont été décrites comme la troisième révolution dans les techniques de guerre, après la poudre à canon et les armes nucléaires.

D'ores et déjà, en pratique, l'armée américaine, qui sera bientôt suivie d'autres, déploie sur le terrain, notamment dans la lutte contre les djihadistes islamiques, des drones capables de nombreuses décisions autonomes, notamment sélectionner avec le plus de pertinence possible les cibles et diriger vers elles des tirs précis. Mais l'ordre final de tir est réservé à des opérateurs humains à distance, opérant dans des postes de commandement souvent situés à des centaines de kilomètres, sinon aux Etats-Unis mêmes. Ce qui n'empêche pas de nombreuses erreurs de se produire, produisant des victimes civiles comptabilisées comme "risques collatéraux".

Ce fut Barack Obama lui-même qui a pris la décision de généraliser de telles opérations, pour remplacer des troupes sur le terrain. Les pays touchés, notamment le Pakistan et l'Afghanistan, ont protesté, mais sans effets. Il semble aujourd'hui que le Pakistan soit de son côté en train de se doter de telles armes acquises auprès des Etats-Unis.

La pétition craint que les Etats ne se lancent dans une course à l'armement, justifiée par le fait que remplacer des hommes par des machines permet de limiter le nombre de victimes du côté de celui qui les possède. Mais ce ne sont pas seulement les Etats qui le feront. Tous les groupes d'opposition militarisés pourront suivre cet exemple. Ils seront suivis par des individus opérant pour leur compte. En effet, ces armes ne nécessitent pas beaucoup de matériels de base coûteux ou difficile à obtenir. Elles pourront être réalisés souvent à partir de produits disponibles "sur étagère". Des modes de savoir-faire et modes d'emploi circuleront sur le Net. Très vite ces armes apparaîtront sur les marchés parallèles, à la disposition de groupes terroristes souhaitant imposer leurs objectifs et leurs religions aux populations.

Le texte ne se veut pas une charge contre l'intelligence artificielle. Les chercheurs qui l'ont signé redoutent au contraire qu'une telle application de l'IA ne suscite un rejet du grand public contre l'IA qui couperait court à tous ses bénéfices sociétaux futurs. La question de l'interdiction des ALA a fait l'objet d'une réunion de l'ONU en avril 2015. Le rapporteur spécial de l'ONU Christof Heyns plaide depuis plus de deux ans pour un moratoire sur le développement de ces systèmes, en attendant la définition d'un cadre juridique adapté. L'ONG Human Rights Watch a quant à elle dénoncé "l'absence de responsabilité légale" s'appliquant aux actes de ces "robots tueurs" (rapport publié en avril dernier).

La Lettre Ouverte a été publiée par le Future of Life Institute (FLI), un organisme américain à but non lucratif qui étudie notamment les risques potentiels du développement d'une intelligence artificielle de niveau humain en vue d'atténuer les risques «existentiels auxquels doit selon lui faire face l'humanité». Le FLI avait récemment annoncé le financement de 37 projets visant à prévenir les risques de l'IA et financés par un don d'Elon Musk.

Nos commentaires

* L'initiative est évidemment louable. Plus on s'interrogera sur les risques de l'IA, notamment sous sa forme autonome, mieux cela vaudra. Plus les pouvoirs publics, voire l'ONU ou d'autres instances, pourront interdire certaines armes, comme ce fut le cas précédemment des gaz de combat, mieux cela vaudra.

* Mais, à notre avis, il ne faudra pas se faire d'illusion. La recherche et le développement en matière d'ALA se poursuivra dans tous les Etats disposant du niveau technologique suffisant. Ce sera notamment le cas au Etats-Unis, dont les stratèges ont toujours affiché la volonté de se donner une avance de quelques années sur le reste du monde. Les Etats présentés comme une menace contre l'Amérique, notamment la Russie et la Chine, réagiront à leur tour. Il y aura nécessairement des fuites pouvant profiter, comme indiqué ci-dessus, à divers groupes terroristes.

* Le développement d'ALA se fera d'autant plus nécessairement qu'il sera inévitablement un aspect dérivé d'une marche mondiale vers ce que l'on nomme le post-humain. En pratique, ce concept n'intéressera que ceux ayant les moyens financiers nécessaires pour le financer. Ce sera inévitablement le cas des Etats-Unis en premier lieu. En termes géostratégiques, quand on évoque les Etats-Unis, il ne pas seulement évoquer le Département de la Défense et son Agence scientifique, la Darpa. Il faut aussi mentionner les grands du Web américain, notamment Google qui a racheté pratiquement toutes les start-up(s) investissant dans le domaine de la robotique autonome et de l'IA en réseaux intelligents et dont un des directeurs, Ray Kurzweil, se fait le champion du post-humanisme .

* Des systèmes de décision autonomes se construisent déjà en utilisant notamment les big data collectées dans le monde entier à partir des services en ligne offerts par ces Grands du Net et l'appui multiforme de la NSA et de la CIA américaines. Il ne s'agira pas, dira-t-on, d'ALA. Mais en ce domaine, la nuance entre systèmes d'IA autonomes, armes autonomes et armes létales autonomes sera difficile à faire. En guerre, tous les moyens sont bons. Le danger de débordement sera plus grand en ce domaine que celui souvent évoqué par la littérature résultant de prises de pouvoir par des robots autonomes s'érigeant en adversaires de l'humanité.

Faut-il enfin limiter le concept d'ALA à des systèmes technologiques ?
Une mine qui explose aveuglément aux dépends de tous véhicules passant à proximité n'est-il pas l'ancêtre des ALA? Plus gravement, quand on considère aujourd'hui la façon dont des groupes islamistes terroristes conditionnent des gamines de 14 ans afin de les transformer en bombes vivantes, la différence d'avec les ALA n'est pas grande. Pour se défendre contre de telles armes vivantes autonomes, dont le nombre inévitablement se multipliera, les pays refusant de transformer des enfants en robots tueurs ne seront-ils pas en droit d'utiliser des ALA ?

Références
(merci à Nicolas Leccia nicolas.leccia arobase free.fr )

* La Lettre ouverte "Autonomous Weapons: an Open Letter from AI & Robotics Researchers"
* Plus généralement, consulter cette page sur le phénomène des robots en Open Source
* Revue Hérodote (recommandée)

Observations
De François Anceau

Les armes à déclenchement automatique ne sont pas une nouveauté.... Depuis la mine déclenchée par une ficelle à la tourelle anti-aérienne de navire orientée et déclenchée par radar, cela fait déjà longtemps que l'homme a substitué la condition de tir à l'ordre de tir. Les nouvelles armes dites autonomes ne font pas autre chose que d'appliquer des conditions de tir plus élaborées. Cette "révolution" n'est en fait qu'une évolution....
De plus, il me semble utopique de vouloir légaliser la guerre alors qu'il s'agit de la confrontation ultime de deux puissances pour lesquelles "tous les coups sont permis". La seconde guerre mondiale et les guerres de religion modernes l'ont bien montré par leurs horreurs. Si les gaz de combats n'ont pas, ou peu, été utilisés, ce n'est pas pour obéir à un quelconque règlement, mais parce que les conditions de combat, devenues plus dynamiques, ne s'y prêtaient pas...
Tout ce que l'on peut espérer, c'est que ces machines, obéissant à la rationalité de leur programmation, seront moins folles que certains combattants, malheureusement beaucoup trop nombreux.....

De Louis Bastien

Interdire ? Oui, mais qui prendra la décision ? Et qui la fera respecter ? Tout ceci n'est que gesticulation de ceux qui veulent faire oublier ce qu'ils font par ailleurs (notamment Google que vous citez). Quant à Stephen Hawking, il vaudrait mieux par charité le laisser tranquille.



D'Alain Bonneau

Pour les lecteurs intéressés et qui voudraient approfondir le sujet, voici le lien d'une étude que j'ai réalisée sur les robots tueurs : http://www.ladeleuziana.org/wp-content/uploads/2015/02/20141227-SALA-et-non-droit-%C3%A0-la-vie.pdf

Je vous remercie d'avoir inclus ce sujet dans votre éditorial.
Je suis d'accord avec les arguments de cette pétition que j'ai signée et publiée sur Mediapart ainsi qu'avec votre opinion.

Je me permettrai d'ajouter deux points à vos commentaires:
- Comme vous l'avez évoqué dans de nombreux articles sur le sujet, les Systèmes ALA (SALA) sont dénommés cyniquement LAWS en américain car : 1- Cela vise sans équivoque à substituer au droit international humanitaire (conçu pour protéger les civils en tant de guerre en définissant la notion de combattant) une gestion autonome du risque, aussi bien en temps de guerre qu'en temps de paix (surveillance et contrôle des foules), sans appel, sans droit, en automatisant les fonctions par des systèmes algorithmiques, comme c'est déjà le cas dans de nombreux domaines de la société.
2- Ce contournement est d'autant plus évident et efficace à très court terme qu'il dénie toute responsabilité aux politiques, aux chefs de guerre, ou à un quelconque militaire, ingénieur ou opérateur : toute cour sera obligée de se déclarer incompétente devant des pratiques qui ne constitueront pas des atteintes préalablement conçues par le droit humain.
Comme vous le dites, «Le danger de débordement» sera beaucoup plus grand que la fiction cinématographique ne l'a laissé supposer.

Je pense qu'il ne s'agit pas ici uniquement de la vision d'homme augmenté chère à un certain nombre de patrons de sociétés technologiques mais de celle de dictatures discrètes des possesseurs de ces machines qui coûteront - comme vous l'avez signalé - bien moins cher que d'entretenir des armées, tant pour les États que pour les sociétés de sous-traitance spécialisées que pour les nouveaux empires fondés sur les big data. Les développements de starts-up innovantes devenant des industries à part entière en dehors de toute législation historique ne sont pas étrangères à cette 3° révolution que vous avez notée.

La course aux armements que craignent les auteurs de l'appel international est déjà enclenchée, et elle a tellement d'avance qu'il est peu probable qu'un quelconque accord entre pays puisse l'empêcher à temps, comme, à l'initiative de la France à Genève en mai et novembre 2014 puis avril 2015, les 170 pays réunis ont tenté de le faire lors des trois réunions de la “Réunion informelle d’experts sur les Systèmes d’Armes Létaux Autonomes (SALA)”, dans le cadre de la “Convention on Certain Conventional Weapons” (CCW). Car les investissements d'importance des États dans l'intelligence artificielle, censés apporter de la croissance à l'économie, reposent tant sur les développements civils que militaires. De surcroît, l'insécurité mondiale record notée par Amnesty International en 2014 n'incite pas les gouvernements à réduire leurs budgets de défense. Le Pape a d'ailleurs déjà déclaré que la 3° guerre mondiale était déclarée par à-coups.

Bien à vous.

Partager cet article
Repost0
4 juillet 2015 6 04 /07 /juillet /2015 15:34

Le Big Rip
Jean-Paul Baquiast 04/07/2015

Le concept de viscosité cosmologique concerne l'application à la cosmologie du concept de viscosité. Celui-ci ne désigne pas seulement un état de la matière ordinaire (la viscosité d'un liquide, par exemple) mais la façon de mesurer la résistance d'un fluide en expansion ou en contraction. Sur Terre, la viscosité d'un liquide donné (qu'il s'agisse d'eau pure ou d'un sirop épais) ne change que très peu, car aux conditions habituelles, ce liquide ne peut être comprimé ou décomprimé que faiblement. Il n'en est pas de même au plan cosmologique.

Les théories aujourd'hui admises relativement à l'évolution de l'univers postulent que celui-ci a commencé sous une forme extrêmement dense, celle qu'il avait quelques instants après le Big Bang, et qu'il pourrait finir (dans l'hypothèse dite du Big Freeze), sous une forme extrémement peu dense ou diluée, les galaxies et les étoiles s'éloignant inexorablement les unes des autres et la matière s'étant trop dispersée pour pouvoir sous l'effet de la gravité donner naissance à de nouveaux nuages pré-galactiques ou pré-stellaires.

Aujourd'hui, une équipe de mathématiciens et de cosmologistes provenant entre autres de l'Université Vanderbilt, vient de publier dans le journal Physical Review un article (voir abstract ci-dessous) proposant une autre approche de la viscosité cosmologique. Pour cela, ils se sont efforcés de résoudre l'incompatibilité entre la Théorie de la relativité générale proposée par Einstein et les lois de la thermodynamique gouvernant l'évolution de la viscosité.

Leur nouveau modèle est mathématique. Il ne peut être soumis à vérification expérimentale, ce que certains d'autres chercheurs reprochent à ce travail. Mais les auteurs répondent qu'il en est de même des modèles cosmologiques évoqués ci-dessus, impliquant l'évolution de l'univers, comme de la plupart des autres modèles, sans mentionner les formulations plus contestées de la théorie des cordes.

Ce nouveau modèle trouve une application directe à ce que pourrait être la fin de l'univers, si celui-ci était soumis à une expansion accélérée et non à une expansion qui se ralentirait progressivement pour se transformer en contraction (le Big Crunch) ramenant l'univers à l'état qu'il avait lors du Big Bang. Le modèle propose le terme de Big Rip (dissolution) pour caractériser l'état final de l'univers – le terme d'état final supposant évidemment des mesures du temps telles que nous l'utilisons actuellement, c'est-à-dire un temps invariable, tel que décrit Lee Smolin dans son dernier livre (Voir référence ci-dessous)

Un des auteurs de l'étude, Marcelo Disconzi, est parti d'une réflexion sur l'état de la matière-énergie soumiseà des vitesses relativistes (extrêmement élevées), telle qu'elle est produite par des étoiles à neutrons ou lors de l'explosion des supernovas. Personne n'avait jusqu'ici réfléchi à ce que devenait la viscosité de tels fluides. Les modèles mathématiques actuels cherchant à décrire l'état de fluides accélérés à des vitesses proches de celle de la lumière aboutissent à des incohérences, telles que celles selon lesquelles ces fluides pourraient se déplacer à des vitesses supra-lumineuses

Lichnerowicz

Le mathématicien a donc ré-écrit les équations de la dynamique relativiste des fluides, en éliminant le postulat selon lequel ces fluides puissent se déplacer plus vite que la lumière. Il s'est appuyé au départ sur les travaux du mathématicien français André Lichnerowicz dans les années 1950. Il les a étendus sous la forme d'une théorie cosmologique plus large. Celle-ci l'a conduite à jeter un regard nouveau sur la mystérieuse énergie noire, souvent mentionnée sur ce site, et qui serait le facteur répulsif moteur de l'expansion accélérée de l'univers telle qu'observée aujourd'hui.

Les hypothèses concernant l'énergie noire ne prennent pas en compte, selon Disconzi, la viscosité cosmologique, en dépit du fait qu'elle aurait un effet répulsif très voisin de celui résultant de l'énergie noire. Il est possible qu'au moins une partie de l'énergie noire puisse s'expliquer, beaucoup plus simplement, dans le cadre de la viscosité cosmologique.

Nous renvoyons à l'article de la Physical Review ceux de nos lecteurs ayant les bases mathématiques nécessaires pour apprécier la validité des hypothèses formulées par l'équipe de Vanderbilt. Signalons seulement qu'une des conclusions qui en découlerait serait, dans l'hypothèse d'une expansion infinie de l'univers et non d'un Big Crunch, qu'un scénario possible serait celui qu'ils ont nommé le Big Rip.

Dans le cas d'une énergie noire accélérant d'une façon ininterrompue la vitesse d'expansion de l'univers, dans un temps approximatif de 22 milliards d'années (sans commentaires) les objets matériels pourraient se désassembler complètement, les atomes eux-mêmes se désagrégeant en particules élémentaires et radiation.

Les chercheurs pensent pouvoir proposer un paramètre d'état ou équation mesurant les différences de pression et de densité entre l'énergie noire et viscosité cosmologique, telle que calculée par eux. Si ce paramètre tombe en dessous de – 1, le Big Rip deviendrait possible. Pour approfondir ces perspectives, ils auront besoin de calculateurs plus puissants que ceux à leur disposition. Il n'est pas impossible, espèrent-ils, que dans ces conditions ils aboutissent à des hypothèses pouvant recevoir un début de preuves expérimentales.

L'étude ne situe pas le scénario du Big Rip résumé ici dans ceux concernant le multivers. Ils pourraient être incompatibles. Rappelons que beaucoup de théoriciens du multivers imaginent, comme Lee Smolin précité, que les univers se succèderaient de Big Crunch en Big Bang, dans un cadre temporel invariable. Pour d'autres au contraire, les univers pourraient être en très grand nombre, pour ne pas dire infiniment nombreux. En ce cas, chacun d'eux, issus de fluctations du vide quantique, pourrait disposer de lois fondamentales différentes, dans lesquelles les calculs concernant la viscosité cosmologique telle que proposée par l'équipe de Vanderbilt pourraient être inapplicables.


Abstract of New approach to cosmological bulk viscosity

We examine the cosmological consequences of an alternative to the standard expression for bulk viscosity, one which was proposed to avoid the propagation of superluminal signals without the necessity of extending the space of variables of the theory. The Friedmann equation is derived for this case, along with an expression for the effective pressure. We find solutions for the evolution of the density of a viscous component, which differs markedly from the case of conventional Eckart theory; our model evolves toward late-time phantomlike behavior with a future singularity. Entropy production is addressed, and some similarities and differences to approaches based on the Mueller-Israel-Stewart theory are discussed.

Reference

New approach to cosmological bulk viscosity
http://journals.aps.org/prd/abstract/10.1103/PhysRevD.91.043532

Pour en savoir plus

Sur la question des multivers et du temps, voire notre article recensant les 3 ouvrages de Aurélien Barrau, de Caelo Rovelli et de Roberto Mangabeira Unger/ Lee Smolin
http://www.automatesintelligents.com/biblionet/2014/oct/univers_est_il_unique.html

Partager cet article
Repost0

Articles RÉCents

Liens