Texte libre


Pourquoi ce blog ?

Cet ensemble de textes a été conçu à la demande de lecteurs de la revue en ligne Automates-Intelligents souhaitant disposer de quelques repères pour mieux appréhender le domaine de ce que l’on nomme de plus en plus souvent les "sciences de la complexité"... lire la suite

Recherche

19 novembre 2014 3 19 /11 /novembre /2014 22:14

Life on the Edge: The Coming of Age of Quantum Biology (

Pr. JohnJoe Mac Fadden

écrit avec le Pr. Jim Al-Khalili.

Bantam Press 2014

Présentation par Jean-Paul Baquiast
19/11/2014

Johnjoe McFadden, PhD, FSB
Professor of Molecular Genetics
Associate Dean (International)
Faculty of Health and Medical Sciences
University of Surrey
Guildford, Surrey
GU2 7XH
UK
http://www.surrey.ac.uk/microbial/People/john_joe_mcfadden/

Jim Al-Khalili OBE est un professeur britannique de physique théorique, un auteur et un présentateur d'actualités.

http://fr.wikipedia.org/wiki/Jim_Al-Khalili


Rouge-gorge du Lancashire (Erithacus rubecula)
Le livre s'ouvre par une réflexion concernant l'aptitude de cet oiseau à s'orienter lors de parcours migratoires annuels de plusieurs milliers de kilomètres.


Dès 2002, nous avions signalé l'intérêt à nos yeux exceptionnel du livre de JohnJoe MacFadden Quantum evolution. The new science of life", W.W.Norton and Cie, 2000 . Celui-ci faisait la synthèse de tous les travaux conduits dans les dernières décennies, notamment depuis l'ouvrage fondateur de Erwin Schrödinger, What is Life, écrit en 1944, pour montrer que les phénomènes quantiques (indétermination, superposition d'état, intrication...) se trouvent à la base de tous les mécanismes vitaux, dès lors que ceux-ci impliquent des actions reposant non sur des particules (protons, électrons) en grande quantité mais sur des particules (onde/particule) agissant à titre individuel, tel l'électron assurant un lien chimique entre deux molécules différentes.

Voir notre article http://www.automatesintelligents.com/edito/2002/avr/edito.html

Nous avions eu peu après l'opportunité de discuter de la question de la biologie quantique avec Johnjo Mac Fadden lui-même, dans le cadre d'un entretien publié par nous en mai 2002 sur le thème de l'évolution quantique.

Voir notre article http://www.automatesintelligents.com/interviews/2002/mai/mcfadden.html

Le nouveau livre de JohnJoe MacFadden, Life on the Edge, écrit en collaboration avec Jim Al-Khalili, qui partage son intérêt et ses recherches en matière de biologie quantique, devrait donner une nouvelle actualité à cette approche que nous jugeons pour notre part aussi fondamentale que mal comprise encore par le plus grand nombre des biologistes. Le livre vient combler une douzaine d'années de silence de la part de ces deux scientifiques, pouvant laisser croire qu'ils avaient fini par se désintéresser de la question, faute de pouvoir apporter suffisamment de preuves à leurs hypothèses.

En réalité, loin de se consacrer à d'autres études, ils avaient poursuivi un travail considérable. D'une part en procédant eux-mêmes à diverses études et expériences dans le cadre de l'Université de Surrey et de laboratoires associés, mais d'autre part en compilant et évaluant les très nombreux travaux menés dans le monde entier par des chercheurs s'intéressant à la biologie quantique.

Dans le cadre de notre revue Automates intelligents, nous avons plusieurs fois mentionné les résultats de telles recherches. Voir par exemple un article de 2011. http://automatesintelligent.blog.lemonde.fr/2011/11/02/avancees-de-la-recherche-en-biologie-quantique/
ou celui intitulé Le maintien de la cohérence quantique dans les cellules biologiques photosynthétiques http://www.automatesintelligents.com/echanges/2013/dec/cellules_maintien_coherence_quantique.html
Le livre de JohnJoe MacFadden cite ces diverses hypothèses et expériences ainsi qu'un grand nombre d'entre elles moins bien connues des non-spécialistes. Mais il fait plus que cela. Il revient en profondeur sur les questions qui demeureraient mal expliquées si l'on ne faisait pas appel à la physique quantique, le sens de la navigation des animaux migrateurs, le fonctionnement des organes sensoriels, notamment de la vision et de l'odorat, le rôle des enzymes, véritables moteurs de la vie, la fonction chlorophiliene, le rôle des gènes, l'évolution des organismes vivants sous l'influence du couple reproduction à l'identique/mutation, mise en lumière par Darwin...il aborde également, avec une louable prudence, la question du rôle des processus quantiques dans le fonctionnement des neurones et par conséquent, dans la génération du phénomène que nous nommons la conscience, conscience dont l'homme n'a évidemment pas le monopole. Il termine par une réflexion sur la façon dont la vie, au moins dans notre univers, a pu émerger de ce que l'on nomme le vide quantique, quasiment en même temps que les particules matérielles.

Ceux de nos lecteurs qui voudront approfondir une perspective scientifique que nous continuons à juger fondamentale, sur la vie, ses origines terrestres, voire ses origines, devraient absolument lire Life on the Edge. Cette lecture requiert un minimum de connaissances, tant en physique quantique qu'en biologie, mais écrit comme le précédent dans un style très clair et agréable, le livre devrait être à la portée du plus grand nombre – à condition bien sûr, en l'absence de traduction à ce jour, de pratiquer convenablement la langue anglaise. Un lecteur français ne peut que constater l'absence presque complète de travaux menés sur ces questions en France, si l'on en croit les publications scientifiques.

Il serait tentant, à la suite de ces diverses lectures, de revenir sur des questions plus profondes, voire philosophiques, concernant l'intrication semblant inévitable entre la physique et la cosmologie macroscopiques, et les différentes applications de la physique quantique. Mais pour le faire en ne se limitant pas à de simples bavardages, il faudrait attendre, comme le soulignent les auteurs eux-mêmes, des progrès décisifs dans le domaine de ce que l'on nomme encore la gravitation quantique. Or les recherches en ce domaine, après avoir soulevé beaucoup d'espoirs, semblent piétiner.

Mais le propre de la science est de progresser par bonds, et par bonds inattendus, en franchissant des barrières apparemment insurmontables, de la même façon qu'un électron dans l'effet tunnel constamment évoqué par le livre. Peut-être serons-nous surpris plus tôt qu'il ne semble prévisible aujourd'hui.

Nous reviendrons sans doute sur ces questions dans des articles ultérieurs.

Autres références

* On pourra lire en introduction au livre un article très éclairant que vient d'écrire JohnJoe Mac Fadden pour la revue Aeon http://aeon.co/magazine/science/quantum-biology-the-uncanny-order-of-life/
Mais cet article ne saurait en aucun cas remplacer la lecture du livre lui-même.
Bien évidemment, nous conseillons aussi à nos lecteurs, en introduction à ces questions, de revenir à nos propres articles référencés ci-dessus.. En les relisant nous constatons qu'ils demeurent pour l'essentiel d'actualité.

* Voir NewScientist, 15 novembre 2014, p. 48 Matthew Cobb. Q.Biology or not. L'auteur de cette recension serait tenté semble-til par la réponse « not » , beaucoup de phénomènes biologiques, comme l'expression du code génétique, lui paraissant de pas pouvoir relever de l'intervention d'un mécanisme quantique. Nous sommes pour notre part persuadés que JohnJoe Mac Fadden répondrait parfaitement à ces objections.

Partager cet article

4 novembre 2014 2 04 /11 /novembre /2014 22:46

04 novembre 2014 | Par Jean-Paul Baquiast

Article de Tariq Ali et Allyson Pollock CounterPunch 10/10/2014. Adaptation après traduction

http://www.counterpunch.org/2014/10/10/the-origins-of-the-ebola-crisis/

Ceux qui se nourrissent de vents(s), particulièrement nombreux sur internet, s'en sont donné à coeur joie avec la question des origines de l'actuelle épidémie d'Ebola. Les Etats-Unis, sous toutes les formes d'intervention qu'ils ont adoptées depuis 15 ans de par le monde, y sont violemment dénoncés. Pour notre part, même si nous ne prêtons pas que des qualités aux interventions de l'Amérique, cette hystérie nous a paru d'une sorte de délire collectif, fréquent il est vrai lors des grandes crises. D'où le souci de ne pas faire écho aux articles concernés, afin de ne pas contribuer à les relancer.

Par contre, un article de CounterPunch, en date du 12 octobre, qui nous avait échappé, paraît mériter, malgré sa relative ancienneté, d'être signalé. Le point intéressant, hors le fond de l'article, qui confirme beaucoup de nos propos concernant l'épidémie, est qu'il s'agit de l'interview par un certain Tariq Ali, (auteur deThe Obama Syndrome ) de Allyson Pollock, professeure en matière de santé publique à la Queen Mary University de Londres. Ni l'une ni l'autre ne font montre de complaisance avec le système politico-financier qu'incarne désormais Obama, mais leurs critiques demeurent mesurées et raisonnables.

NB. Le résumé que nous donnons ici de l'interview s'est efforcé d'en conserver les grandes lignes, mais beaucoup de points n'ont pas été abordés. De plus, nous l'avons écrit à la lumière du point de vue que nous avions déjà sur la question. Il faut espérer cependant que les deux auteurs ne s'estimeraient pas trahis si ce papier leur tombait sous les yeux. Par ailleurs, des approfondissements et discussions complémentaires s'imposeraient. Nous en feront peut-être un article ultérieur.

Allyson Pollock reconnaît que l'épidémie Ebola est due à un virus dont les origines précises sont inconnues. Après quelques apparitions dans les décennies précédentes où il était entré en sommeil de lui-même, il a pu exploser dans les premiers pays atteints, Sierra Leone, Libéria et Guinée, du faitde leur état de grande pauvreté. Celle-ci se manifeste par l'effondrement de leurs infrastructures, notamment en matière de systèmes de santé, alors que les conflits internes et une urbanisation de la misère ont accru considérablement la contagiosité, non seulement d'Ebola mais aussi de nombreuses maladies mieux connues, mais qui ne sont pas mieux endiguées.

Allyson Pollock admet que l'OMS et avec lui l'opinion dans les pays riches avaient initialement pensé que le virus s'éliminerait de lui-même, comme lors des épidémies précédentes. Aussi ils n'ont pas dès les origines de la présente épidémie mobilisé les moyens massifs qui auraient pu la contenir. Obama s'est contenté d'envoyer, pour relancer l'influence américaine dans cette partie de l'Afrique, quelques effectifs de l'US Army sans compétences médicales particulières. Il a par ailleurs annoncé qu'il allait relancer la recherche de vaccins. Mais cela ne pouvait remédier en aucune sorte à l'absence de médecins, d'infirmiers, d'hôpitaux ou de simples lieux où isoler les malades. Quant aux vaccins, il aurait du savoir que leur mise au point et leur fabrication en quantités suffisantes ne seraient pas prises en charge par les industries pharmaceutiques, en l'absence de budgets substantiels venant de l'extérieur.

Pour Tarik Ali comme pour Allyson Pollock, le vrai responsable de l'épidémie actuelle est le système financier international, dont en matière de santé publique le principal objectif est de mettre en place des solutions privées, coûteuses, réservées à une étroite minorité de personnes favorisées. Pour que ce solutions puissent s'implanter, il faut démanteler les équipements publics, décourager les médecins en dépendant, enlever toute efficacité aux solutions associatives reposant sur le bénévolat. Cette politique profondément inégalitaire est poursuivie partout dans le monde. Mais dans les pays développés disposant d'un secteur public de santé important, elle ne peut que marginalement s'imposer. Ce ne fut pas le cas en Afrique, et ce depuis des décennies.

La catastrophe qui avec Ebola frappe les pays africains aurait été parfaitement prévisible par ceux qui auraient voulu voir. Elle était d'ailleurs en germe, au vue du développement d'autres maladies, clairement identifiées mais contre lesquelles les moyens nécessaires ne sont toujours pas mis en place: choléra notamment. L'Afrique n'est pas la seule à souffrir de cette désorganisation des systèmes de santé sous l'influence des milieux d'affaires. L'Inde, le Pakistan, le Sri Lanka en manifestent aussi les signes.

La responsabilité majeure des organisations internationales néolibérales

Celles-ci, FMI, Banque Mondiale, Banque africaine de développement, ont été indirectement les responsables de la destruction des systèmes de santé dépendant du secteur public. Depuis des années, elles ont orchestré l'éviction des petits exploitants agricoles traditionnels au profit de grands groupes hautement mécanisés produisant de l'huile de palme, du cacao, du caoutchouc, en vue de la vente sur les marchés spéculatifs. Les petits cultivateurs chassés de leurs terres se sont réfugiés dans d'immenses bidonvilles urbains, dont certains éléments, comme on a pu le voir grâce à divers reportages, sont directement implantés sur des montagnes d'ordure. La même spoliation a été organisée concernant les autres ressources naturelles, notamment minières, souvent très importantes, dont disposaient ces pays.

Quant à l'OMS, et à sa décharge de l'OMS, il faut bien voir qu'elle a été depuis plus de vingt ans privée de ses financements et donc de ses moyens de prévention et d'intervention. Dans le même temps, des ONG n'ayant rien de désintéressé, comme les Fondations de Bill et Melinda Gates ou de Warren Buffet, ont prétendu gérer les questions de santé en court-court-circuitant les institutions publiques et sans aucun contrôle démocratique de la part des gouvernements concernés. A supposer qu'elles décident de s'attaquer à l'épidémie d'Ebola en ignorant – volontairement - ses autres causes, évoquées ci-dessus, elles ne pourront offrir aucune solution de long terme, puisqu'elles s'opposeront souvent ouvertement aux solutions publiques ou coopératives qui seules permettrait de traiter le problème à la base. Or, en profondeur, au delà des médicaments et des vaccins, ce sont de mesures redistributives radicales dont ces pays auraient besoin, touchant, au delà de la santé, l'éducation, le logement, la formation des femmes et des jeunes.

Allyson Pollock ne prétend pas que les vaccins soient inutiles. Mais là encore, selon elle, l'approche reste profondément capitalistique et donc inégalitaire. Il faut citer à cet égard laGlobal Alliance for Vaccine Initiative, en association avec les géant GSK et Merck, qui ne cherche pas à développer des investissements internes, mais à solliciter des financements des gouvernements occidentaux, sans exclure a priori de breveter leurs propres découvertes. Mais comme produire des vaccins ne suffirait pas, sans l'effort gigantesque permettant de les diffuser en les accompagnant de toute l'infrastructure de santé évoquée ci-dessus, et aujourd'hui pratiquement inexistante, il ne faudra pas attendre de miracles des vaccins, à supposer que les recherches en cours aboutissent.

Il faut mentionner aussi le fait que les pays occidentaux, s'apitoyant sur les décès provoqués par Ebola, ne veulent pas constater que l'attrait de la médecine libérale destinée aux plus riches dépossède massivement l'Afrique de ses professionnels de santé. Ceux-ci choisissent de s'expatrier pour bénéficier de meilleures rémunérations et conditions de travail. Seul Cuba, refusant de s'inscrire dans les normes du libéralisme, a envoyé en Afrique des centaines de médecins et professionnels de santé, qui payent d'ailleurs aujourd'hui un lourd tribut à la maladie.

Le mauvais exemple des pays européens

Ceci dit, au delà de la situation des pays africains, révélée par le crise de l'Ebola, les pays européens ne devraient pas s'estimer non menacés par la privatisation des équipements et la fuite des médecins hors du secteur public. Il s'agit des conséquence d'un néolibéralisme dont l'Europe a pris très largement le chemin. L'exemple le plus éclatant de cette dégradation est fourni par la Grande Bretagne. Le Service National de Santé (NHS), mis en place à la fin de la seconde guerre mondiale, n'est plus désormais que l'ombre de ce qu'il était, à la suite des vagues de privatisation qui l'ont frappé. Il fonctionnait sur la base de l'impôt progressif sur le revenu. Les cotisations des assurés s'élevaient en fonction de leurs revenus.Or aujourd'hui les principales dépenses de santé sont prises en charge par des assurances privée, inaccessibles aux plus pauvres.

Si une épidémie comme Ebola réussissait à s'implanter en Grande Bretagne, ce serait comme en Afrique les populations les plus démunies qui en feraient les frais. Alors, il sera trop tard pour compter sur un Service National de Santé exsangue en vue de répondre aux besoins collectifs.

Partager cet article

2 novembre 2014 7 02 /11 /novembre /2014 22:50

Jean-Paul Baquiast 02/11/2014

Dans un article publié par la Physical Review (référence ci-dessous), des chercheurs du Centre for Quantum Dynamics de l'Université Griffith (Australie) et de l'Université de Californie remettent en cause radicalement les bases de la mécanique quantique. Ils proposent pour ce faire une théorie basée sur l'existence d'un nombre fini d'univers parallèles et de leurs interactions. Si cette théorie s'avérait exacte, parce que vérifiée, elle introduirait une véritable révolution en physique fondamentale. Rien n'est encore fait, mais l'hypothèse mériterait d'être attentivement étudiée.

Disons pour simplifier que cette nouvelle hypothèse remplacerait les « bizarreries » de la mécanique quantique par l'appel à une cause certes tout aussi bizarre, celle des univers parallèles, mais en conservant dans ces univers la physique macroscopique à laquelle nous sommes habitués dans notre propre univers.

Les chercheurs postulent d'abord que les univers parallèles existent réellement et qu'ils interagissent. Dire qu'ils existent réellement suppose d'emblée que la réalité n'est pas relative, autrement dit définie par une relation entre un continuum sous-jacent et un observateur, comme le postule la mécanique quantique, mais qu'elle existe indépendamment de l'observateur, comme le postule la mécanique traditionnelle. Dans cette approche, il serait inutile de se demander si le multivers existe ou non. La réponse serait qu'il existe, tout comme existe, pour nous, notre univers lui-même.

Dire par ailleurs que les univers multiples interagissent signifie qu'au lieu d'évoluer indépendamment les uns des autres, les univers les plus rapprochés s'influencent réciproquement en exerçant sur les voisins une faible force de répulsion. L'interaction ainsi produite pourrait expliquer les bizarreries constatées par la mécanique quantique. L'hypothèse dite des "Many-Interacting Worlds" (Mondes multiples en interaction) proposée par l'équipe remet en cause celle, ayant cours depuis plus de 60 ans, dite "Many-Worlds Interpretation" (l'Interprétation des Mondes Multiples).

Selon cette dernière, chaque fois qu'une mesure quantique est réalisée dans un univers donné, elle divise cet univers en deux branches perdant définitive tout contact l'une avec l'autre. Ceci permet d'éviter le recours au principe d'indétermination, selon lequel il est impossible de connaître à la fois la position et la vitesse d'une particule.

L'Interprétation des Mondes multiples dit que, dans un univers, on peut connaître la position de la particule et dans un autre, sa position. Mais comme les deux univers ne communiquent pas, l'observateur d'un univers donné ne peut pas connaître à la fois la position et la vitesse de la particule. D'où l'indétermination que nous observons au sein de notre univers.

Les « Many-Interacting Worlds »

L'Interprétation des Mondes multiples est souvent critiquée. Comment pouvoir postuler ce qui se passe dans la branche d'univers créée à la suite de l'observation à laquelle l'observateur n'accède pas, puisq
ue précisément il n'y a pas accès?

L'équipe de Griffith, s'appuyant sur l'hypothèse des "Many-Interacting Worlds" propose une approche différente. Les chercheurs la résume de la façon suivante:

1.L'univers que nous connaissons n'est que l'un parmi un nombre gigantesque mais fini d'autres univers. Certains sont presque identiques au nôtre, d'autres sont très différents.

2.Tous ces univers sont identiquement réels, ils existent dans le temps et possèdent des propriétés définies avec précision.

3.Tous les phénomènes que nous qualifions de quantique proviennent d'une force universelle de répulsion entre univers similaires, laquelle tend à les rendre moins similaires.

Ainsi, si n'existait qu'un seul univers, nous serions ramenés à la mécanique de Newton. S'il existait un nombre gigantesque d'univers, nous retrouverions la mécanique quantique. En fait, l'hypothèse prédit quelque chose de nouveau qui n'est ni l'une ni l'autre.

De plus, en ouvrant une perspective originale sur le monde quantique, elle devrait selon ses auteurs suggérer des expériences permettant de comprendre et exploiter les phénomènes quantiques, tels que ceux des fentes dites de Young . De même, en faisant appel à un nombre fini d'univers, il serait possible d'envisager des applications concernant les dynamiques moléculaires utiles à la compréhension des réactions chimiques.

Nous ne pouvons que laisser aux physiciens et mathématiciens la responsabilité de juger de la pertinence de l'hypothèse résumée ci-dessus et développée dans l'article de Physical Review. Certains diront peut-être que ses auteurs ont imaginé une solution ad hoc pour répondre aux aspects incompréhensibles de la mécanique quantique.

Cette solution voudrait par ailleurs nous faire admettre une réalité (celle d'un nombre gigantesque mais fini d'univers) qui, bien que présentée comme réelle, au sens du réalisme, nous transporterait dans un réel parfaitement étranger au nôtre. Et d'où proviendrait la faible force de répulsion qui nous éloignerait des univers voisins?

Bornons nous pour notre part à remarquer que nous sommes depuis longtemps habitués aux hypothèses de la mécanique quantique, parfaitement étrangères à notre monde, même si leurs effets sont vérifiés tous les jours dans un grand nombre de dispositifs: superposition d'états, intrication, téléportation. Depuis le temps qu'elles nous sont enseignées, elles ne nous surprennent plus.

L'hypothèse de l'équipe de l'Université de Griffith, celle d'un grand nombre de mondes semblables au nôtre dont une faible force de répulsion nous éloignerait des plus proches, pourrait paraitre, avec un peu d'habitude, moins « invraisemblable que les hypothèses de la mécanique quantique. Ceci également si elle pouvait trouv
er des applications crédibles en cosmologie.

Le plus urgent, comme toujours lorsqu'il s'agit de science, serait donc de quitter la théorie pour aborder la pratique, en proposant des expériences testables.


Reférence
Dr Michael Hall et al. Quantum Phenomena Modeled by Interactions between Many Classical Worlds https://journals.aps.org/prx/abstract/10.1103/PhysRevX.4.0410
13

Abstract
We investigate whether quantum theory can be understood as the continuum limit of a mechanical theory, in which there is a huge, but finite, number of classical “worlds,” and quantum effects arise solely from a universal interaction between these worlds, without reference to any wave function. Here, a “world” means an entire universe with well-defined properties, determined by the classical configuration of its particles and fields. In our approach, each world evolves deterministically, probabilities arise due to ignorance as to which world a given observer occupies, and we argue that in the limit of infinitely many worlds the wave function can be recovered (as a secondary object) from the motion of these worlds. We introduce a simple model of such a “many interacting worlds” approach and show that it can reproduce some generic quantum phenomena—such as Ehrenfest’s theorem, wave packet spreading, barrier tunneling, and zero-point energy—as a direct consequence of mutual repulsion between worlds. Finally, we perform numerical simulations using our approach. We demonstrate, first, that it can be used to calculate quantum ground states, and second, that it is capable of reproducing, at least qualitatively, the double-slit interference phenomenon.

Partager cet article

29 octobre 2014 3 29 /10 /octobre /2014 19:04

NB. Nous ne défendons ici que les informations ou opinions données à la date de cet article, soit le 29/10. Dans un domaine aussi évolutif et sensible, il faut se tenir prêt à prendre en compte d'autres opinions et informations, si elles paraissent crédibles. L'article actualise et remplace un article précédent, à la date du 25/10, publié sous la même référence

Image. Crédit USAMRIID)

Le 18 octobre 2014, le secrétaire à la Défense américain Chuck Hagel a ordonné au commandant du Northern Command (zone militaire de défense à l'intérieur des Etats-Unis), de mettre en place un corps expéditionnaire d'assistance médicale composé de 30 personnes convenablement entraînées. Ce dispositif devra fournir sur demande une assistance d'urgence et de courte durée aux médecins civils exerçant sur le territoire de l'Union. Il sera composé de 20 soignants, entrainés à l'intervention dans les situations critiques, de 5 médecins habitués à combattre les épidémies et de 5 spécialistes dans la mise en oeuvre des protocoles anti-épidémiques. Une fois formés, ces personnels devront se tenir prêts à intervenir sur n'importe quel point des Etats-Unis, sur la base d'un statut de 30 jours renouvelables. Ils n'opéreront pas en dehors des Etats-Unis.

Mais pourquoi des militaires? Il serait tendancieux pensons-nous d'y voir comme cela a déjà été dit une volonté de militariser la société américaine. Faire appel à l'armée est une solution d'urgence pratiquée par tous les gouvernements quand il s'agit de renforcer au moins temporairement les moyens de défense civils.

Cette mesure est donc à distinguer de la récente décision de Barack Obama, destinée à doter l'Africa Command d'un contingents de 50 militaires (voire beaucoup plus aux dernières informations) susceptibles d'intervenir dans les pays africains touchés par l'épidémie, en priorité d'ailleurs au profit des moyens militaires américains basés dans ces pays. Cette annonce a fait non sans raisons l'objet de polémiques. Prise semble-t-il sans consultation sérieuse des autorités de santé, tant américaine qu'africaines ou internationale (OMS), elle a été présentée comme la volonté de réintroduire l'influence du Pentagone dans des pays qui avaient explicitement refusé d'héberger l'Africa Command, dont le siège s'est retrouvé faute de mieux en Allemagne.

La décision de Chuck Hagel pose par contre directement la question de savoir si, sur le territoire européen, des corps expéditionnaires de même nature ne devraient pas être mis en place par les ministères de la défense des pays de l'Union, tous également menacés tôt ou tard par l'épidémie. Beaucoup plus généralement, Il convient de se demander si les mesures actuellement prévues, y compris dans des pays comme la France qui s'estiment bien protégés, seraient satisfaisantes pour contenir un nombre de cas pouvant dans les prochains mois se multiplier.

Pour répondre à cette question, examinons les principaux points nouveaux récents à prendre en compte dans l'évaluation des risques.

Cas déclarés

Leur nombre ne cesse d'augmenter dans les 3 pays de l'ouest africains initialement touchés. On trouvera facilement les évaluations, évoluant tous les jours, sur divers sites crédibles. Les polémiques, qui ne manquent pas dans ce domaine particulièrement sensible, font valoir que quelques milliers de décès (à ce jour) sont sans gravité au regard des centaines de milliers imputables à la malaria, ou aux millions dus à la mal nutrition. Mais il faut comparer ce qui est comparable. Ni la malaria ni la malnutrition ne se développeront de façon épidémique. Dans le cas d'une épidémie, les risques de progression pourraient être très rapides, voire exponentiels, si aucune action de prévention ne se révélait efficace. Les morts s'ajouteront à ceux résultant d'autres fléaux.

Différentes autorités ont annoncé depuis plusieurs semaines que l'épidémie était devenue incontrôlable, au moins dans les pays touchés. Ces annonces, une fois de plus (nous y reviendrons) ont été présentées comme des manœuvres politiques ou économiques (venant des firmes pharmaceutiques). S'agirait-il d'enfermer l'Afrique dans un ghetto, ou de vendre davantage d'anti-virus? Toutes les mauvaises intentions sont possibles. Il reste que les morts sont les morts, et que ceux prétendant que l'ampleur de l'épidémie est très largement exagérée n'iront pas faire du tourisme, à l'heure qu'il est, en Afrique de l'Ouest.

Mais si l'on admet que l'épidémie soit dores et déjà incontrôlable, dans cette partie du monde, quelles conclusions en tirer? D'une façon générale, la fermeture totale des frontières ne serait, ni possible, ni éthiquement acceptable. Comme nous l'indiquons par ailleurs ci-dessous, aucun transfert massif de moyens de lutte venant des pays riches vers les pays pauvres contaminés n'est envisagé, à supposer que ce transfert soit envisageable dans les délais rapides nécessaires.

Inévitablement donc d'autres cas apparaitront – sans mentionner ceux qui ne seront pas déclarés. Ainsi, au Mali, un (ou plusieurs) patient souffrant d'Ebola vient d'être identifié. Une analyse des personnes susceptibles d'avoir été contaminées par lui est en cours. On imagine la difficulté de la tâche lorsque d'autres cas se feront jour. Par ailleurs, si l'épidémie se précisait au Mali, la France qui y entretient un grand nombre d'expatriés et de personnels militaires serait très rapidement concernée.

Les cas identifiés aux Etats-Unis ou dans d'autres régions du monde demeurent encore très peu nombreux. On pourrait donc penser que les mesures de détection et d'hospitalisation des malades, complétées d'isolement pour observation (quarantaine) des « contacts » qu'ils auraient pu avoir, devrait suffire. Mais tout dépend du nombre de cas qui se déclareraient dans les prochaines semaines. S'ils atteignaient quelques dizaines, ne fut-ce qu'au seul niveau européen, les moyens existants de détection, de soin et d'isolement seraient vite saturés. Que signifierait ainsi mettre en quarantaine des centaines de personnes, dans quels locaux, locaux qui pourraient vite se transformer en mouroirs.

Tests

Rappelons-le, il ne s'agit pas de vaccins ni de sérums, mais seulement de moyens permettant de vérifier si une personne est ou non porteuse du virus – à condition aussi, dans le premier cas, que sa charge virale soit suffisante. Plus ces tests pourront répondre rapidement, plus ils permettront d'isoler les personnes atteintes des autres, dits « cas contacts ». Sur ce point, des progrès décisifs paraissent en vue. Signalons par exemple que le petit laboratoire français Vedalab a élaboré un test qui permet de diagnostiquer la contamination au virus en 15 minutes au lieu de plusieurs heures. Il ne faut pas cependant se faire d'illusions. Pour produire et distribuer les millions (sinon bientôt centaines de millions) de dispositifs de test qui seront nécessaires, il faudra des moyens industriels qui n'existent pas aujourd'hui, et dont nul pays à ce jour n'entreprend la mise en place.

Vaccins

Les quelques filières annoncées dans divers pays n'ont pas encore été testées. Pour ce faire, il faudrait plusieurs semaines ou mois. On pourrait envisager d'utiliser des vaccins non testés, au moins compte tenu des risques, avec le consentement éclairé des personnes intéressées. Mais se posera la question précédente. Afin de lutter contre la contagion, il faudrait disposer de milliers de doses rapidement. Il en sera d'ailleurs de même si l'on obtient des vaccins s'étant avérés efficaces. Il faudrait pouvoir produire en quelques mois des millions de doses, puis les diffuser. Ceci demandera des moyens d'une toute autre ampleur que ceux nécessaires à la production de tests. Là encore, nul pays n'a encore décidé de mettre en place les équipements nécessaires. Le $milliard, d'ailleurs non encore débloqué, promis par l'ONU, n'y suffirait pas.

Il faut bien évidemment poursuivre les recherches, mais il serait vain d'en espérer des résultats rapides. On notera que GlaxoSmithKline, un des producteurs de vaccins actuellement en course, vient d'annoncer qu'à partir de décembre 2015, ils pourraient fabriquer 1 million de doses de vaccins par mois. Mais décembre 2015 est une date fort éloignée. Dans l'immédiat, des volontaires provenant de professionnels de santé envisageant de se rendre en Afrique se sont fait connaître, en Europe et notamment en Suisse, pour tester le vaccin.

Au sujet plus particulièrement des vaccins, nous ne pouvons pour notre part que condamner les manipulateurs d'opinion prétendant que le virus a été quasiment inventé, ou disséminé, par une conjuration des grandes firmes pharmaceutiques (big pharma). Avant que des profits éventuels puissent être recueillis par ces firmes, il se passera des années. En attendant, les personnes travaillant dans l'industrie pharmaceutiques auront beaucoup de chance elles-mêmes de succomber au virus. « Inventer » un virus sans avoir été capable d'en inventer préalablement le vaccin est une arme boomerang. Elle se retourne contre ses auteurs.

A ce sujet, il faut aussi répondre à des arguments qui ont dès le début circulé, et que notre article a lui-même suscité. Le virus Ebola serait le résultat de recherches financées par le Pentagone, au début des années 2000, soit pour protéger la population américaine d'une attaque bactériologique, soit pour produire des armes utilisable à titre offensif par l'armée américaine. Il est indéniable que des recherches ont eu lieu, plus ou moins discrètement. Mais de l'avis des spécialistes, elles se sont dispersées dans beaucoup de directions sans aboutir. Par ailleurs les premières souches d'Ebola sont apparues bien avant le 11 septembre 2001. De plus, l'argument du boomerang aurait, là encore, découragé d'emblée la mise au point et a fortiori l'utilisation d'armes virologiques ou bactériologiques. Elles ne manqueraient pas en ce cas de se retourner contre la population du pays ainsi agresseur. Vacciner celles-ci préventivement aurait évidemment donné l'alerte.

Cette raison explique que de telles armes, très difficiles à fabriquer, stocker et manipuler, contrairement aux gaz de combat, ont certes fait l'objet de recherches, un peu partout dans le monde, et le font encore. Mais elles n'ont jamais été développées sérieusement par aucun pays, y compris l'Allemagne nazie ni plus récemment les pays à la réputation militariste, par exemple la Corée du nord.

Sérums

Il n'existe pas encore semble-t-il de sérums efficaces permettant de traiter efficacement un malade déclaré. Des transfusions de sang provenant de malades guéris ont été envisagées, mais ceci n'est évidemment pas généralisable. L'utilisation d'antiviraux ou d'anti-rétroviraux est à l'étude, sans conclusions positives. L'OMS avait il y a quelques jours annoncé la mise au point expérimentale et non encore testée sur l'homme de plusieurs traitements, dont le Zmapp, un cocktail de 3 anticorps dits « monoclonaux ». Les anticorps monoclonaux sont issus d'une seule lignée de globules blancs, provenant d'une seule cellule. La difficulté de les obtenir est on le conçoit extrême.

Les seuls soins possibles aujourd'hui consistent à renforcer les défenses immunitaires des malades, et lutter contre leur déshydratation. La mortalité demeure d'environ 50%, plus élevée semble-t-il dans les pays pauvres. Avec des soins performants, selon l'OMS, elle pourrait tomber à 20%, ce qui restera considérable. Par ailleurs, les raisons pour lesquelles certaines personnes ne sont pas atteintes ou guérissent n'ont pas encore été élucidées. Elles pourraient donner des indices précieux pour la suite. Là encore, les moyens d'étude nécessaires, qui obligeraient à mobiliser de nombreux laboratoires, n'ont pas été rassemblés.

Inutile là encore de s'appesantir sur les arguments spécieux selon lesquels il vaudrait mieux lutter contre la pauvreté des pays touchés et les conditions déplorables de certains bidonvilles comme ceux de Monrovia, que lutter contre les agents épidémiques. Il est indéniable que si l'on pouvait en quelques mois remplacer ces bidonvilles par de coquettes banlieues à l'européenne, leur condition sanitaire s'améliorerait. Mais ce serait des centaines de milliards de dollars qui seraient nécessaires. Les dispensateurs de ces bons conseils sont-ils prêts à se saigner à blanc pour commencer à rassembler les moyens nécessaires?

Mutations génétiques au sein des différentes souches de virus Ebola, Marburg ou assimilés

Les virus mutent en permanence, mais de façon si l'on peut dire superficielle. Aucune mutation d'importance à ce jour n'a été observée, ni pour modifier sensiblement leur virulence, ni pour modifier leur contagiosité., que ce soit en plus ou en moins. Il est certain que plus la population de malades s'étendra, plus de telles mutations seront probables. En principe, si le nombre de personnes atteintes augmente, la virulence doit s'atténuer. Ceci pour la raison très simple qu'en bons darwiniens les microbes et virus finissent par comprendre qu'en tuant tout le monde, ils scient la branche sur laquelle ils prospèrent. Mais ils l'ont déjà compris dans le cas d'Ebola. Une mortalité à 50%, ou même à 20%, laisse aux virus suffisamment de terrain pour s'étendre sans risquer la disparition.

Equipement des centres de soins

Ceux-ci, qu'il s'agisse de bulles plastiques isolantes pour le transport, ou de salles de soins isolées, sont quasiment inexistants dans les pays africains touchés. On craint même partout des ruptures de stocks des vêtements spécialisés permettant aux soignants de se protéger.

En Amérique et en Europe, un certain nombre d'équipements ont été installés. Mais ils ne pourront faire face qu'à des cas isolés. La pauvreté des services de santé, même dans les pays riches, ne permettra pas d'espérer un renforcement sensible et rapide de tels équipements, sauf à désorganiser l'ensemble des dispositifs hospitaliers. Se posera par ailleurs la question de la formation à grande échelle des personnels de santé, comme le cas échéant de leur volontariat.

Signalons que la fermeture envisagée de l'hôpital militaire du Val de Grâce, à Paris, pour raisons d'économie, privera notre pays d'un équipement et de personnels qui seront indispensables lorsque l'épidémie d'Ebola se développera.

Conclusion

La conclusion que nous tirons de ce qui précède, à titre personnel et à la date de mise en ligne de cet article (soit le 29 octobre) sera peu différente de celle de notre article précédent référencé ci-dessous (Cf Ebola ou notre inconscience ).

Elle consiste à prévoir que l'épidémie d'Ebola, en dehors des pays où elle est dite incontrôlable, couvera dans le reste du monde pendant plusieurs semaines ou mois, sous une forme contrôlable. Mais le moindre accident pourrait la rendre exponentielle. Que se passerait-il en France, par exemple, si une dizaine de cas se déclaraient à quelques jours d'intervalle, non détectés aux frontières et se révélant quelques jours après, sans que les premiers symptômes à partir desquelles la contagiosité devient maximum n'aient été identifiés . Ce serait des centaines de contacts qu'il faudrait immédiatement mettre en isolement, voire le cas échéant soigner. L'effet de panique s'ajoutant à cela, la vie sociale aurait toutes les chances d'être paralysée.

Ce propos sera considéré comme pessimiste. Mais le pessimisme est, en matière de santé publique, préférable à l'optimisme. Il permet de mieux se préparer. En l'espèce, il devrait conduire à mobiliser préventivement et sans délais les milliards de dollars qui seraient nécessaires pour remédier aux problèmes non résolus évoqués dans cet article. On serait loin alors des préoccupations de lutte contre les déficits budgétaires qui pour le moment sont les seuls à mobiliser l'attention.

Articles précédents sur notre site:

* http://www.admiroutes.asso.fr/larevue/2014/149/ebola2.htm

* http://www.admiroutes.asso.fr/larevue/2014/149/ebola.htm

* http://www.admiroutes.asso.fr/larevue/2014/148/ebola.htm

Autres articles

*Newscientist
Concernant l'OMS voir une proposiition visant à le renforcer
Global agency needed for battling infectious diseases
Voir aussi
Future scenarios show how easily Ebola could explode

* Dans cet article Bloomberg, analyste financier, constate les réductions importantes dans les budgets de santé américains rendant la lutte contre les épidémies de plus en plus difficile http://www.bloomberg.com/news/2014-10-03/ebola-flew-to-dallas-as-budgets-to-fight-disease-waned.html

Addendum

Nous ne ferons pas ici un catalogue des articles, soit plus ou moins mal informés soit volontairement tendancieux, qui circulent désormais, à vitesse virale, sur le sujet. Certains, c'est assez surprenant, proviennent de personnes se disant médecins. Nous avons l'un de ceux-ci sous les yeux. L'auteur, virologue, n'hésite pas à affirmer que le virus ébola a été inventé, comme celui de la grippe. Cet éminent spécialiste semble oublier, entre autres, que la grippe espagnole a fait en Europe, dans les années 1918- 1920 ou 1925, plus de morts que la première guerre mondiale. Or elle n'a pu être inventé, faute à cette époque de connaissances médicales suffisantes.

D'autres arguments paraissent plus convaincants à première vue. Selon eux, l'OMS serait très largement sous contrôle de lobbies médicaux et pharmaceutiques. La chose est indéniable. Mais la communauté des scientifiques qui travaillent en relation avec cet organisme ou d'autres analogues, sans être financés par eux, savent comment se défendre contre d'éventuelles campagnes de désinformation provenant de membres de l'OMS éventuellement corrompus. Ceci ne veut pas dire qu'il faille rejeter l'organisme tout entier avec l'eau du bain. Une telle structure internationale manquerait en effet si elle n'existait pas. Elle offre une aide très appréciée, notamment des pays du tiers monde.

Partager cet article

28 octobre 2014 2 28 /10 /octobre /2014 10:41

The language myth

Why Language is not an instinct

par Vyvyan Evans

Cambridge University Press, Sept 2014

Présentation et commentaire par Jean-Paul Baquiast
26/10/201
4

Vyvyan Evans est professeur de linguistique à l'Université de Bangor (Royaume Uni)

Voir son site http://www.vyvevans.net/

Bangor University, Pays de Galles http://www.bangor.ac.uk/

Introduction

Nous avions très vite compris, sur ce site, que l'hypothèse de Noam Chomsky sur l'origine du langage n'avait pas de base scientifique sérieuse. Selon cette hypothèse, qui avait longtemps été admise par les linguistes, l'aptitude au langage, qu'il soit parlé ou écrit, reposait sur une propriété spécifique à l'homo sapiens, l'existence d'une aire cérébrale dédiée, dont les animaux ne disposaient pas. Cette aire cérébrale serait apparue chez les hominiens vers 2 à 1 millions d'années bp, à la suite d'une mutation génétique. Une fois admise cette hypothèse, le travail du linguiste dit évolutionnaire, s'intéressant à la façon dont les langages étaient apparu au sein de nombreuses espèces animales, en évoluant progressivement vers les propriétés qu'il manifeste aujourd'hui chez l'homme, perdait une partie de son intérêt.

On peut tout expliquer en effet à partir d'une mutation génétique, même si les études plus récentes et plus précises de la neurologie humaine ne permettent pas de localiser avec précision l'aire prétendument dédiée au langage. Certes, il existe des aires (dites de Broca et de Wernicke) dont une paralysie rend le sujet incapable de s'exprimer, mais on peut les considérer comme des portes d'entrée-sortie servant au cerveau pensant à communiquer par le langage. Ce n'est pas en leur sein que s'élabore la pensée ni même la façon dont celle-ci se traduit en modules de communications divers, dont le langage fait partie. C'est le cerveau global qui selon les hypothèses récentes, génère les contenus langagiers.

Pendant longtemps cependant, l'hypothèse de Chomsky a fait la loi dans les sciences linguistiques, tout au moins chez celles qui s'enfermaient dans une approche étroitement disciplinaire, relevant davantage de la philosophie que des études interdisciplinaires de biologie et anthropologie évolutionnaire devenues aujourd'hui indispensables pour commencer à comprendre les questions complexes liées à la communication au sein du vivant. Le philosophe Jerry Fodor l'a reprise avec enthousiasme, de même que le linguiste Steven Pinker, pourtant plus ouvert que d'autres à ce qui se passait dans d'autres sciences 1) .

Cependant, la plupart des « jeunes » linguistes avaient depuis déjà un certain rejeté Chomsky et son simplisme méthodologique. Il leur manquait cependant une voix non seulement parfaitement compétente mais dotée de suffisamment d'enthousiasme pour se faire entendre bien au delà des cercles linguistiques et même au delà des sciences humaines. Ce n'est plus le cas aujourd'hui. Les travaux de Vyvyan Evans, présenté dans son tout récent ouvrage « The Language Myth: Why language is not an instinct » remet en cause, à destination d'un public généraliste, l'hypothèse de ce qu'il appelle le langage-instinct, dont Chomsky s'était fait le héros.

Ce terme de langage-instinct correspond à l'hypothèse rappelée ci-dessus, selon laquelle les humains sont génétiquement câblés pour comprendre et utiliser le langage, ceci dès la naissance.Evans lui oppose l'hypothèse qu'il nomme "language-as-use", terme que l'on pourrait traduire de cette façon un peu compliquée : « langage comme processus construit interactivement tout au long de l'évolution biologique » Nous retiendrons ici le terme de Evans, en le traduisant par « langage-usage ».

Inutile de dire au terme de cette introduction que nous recommandons chaudement la lecture du livre de VyVyan Evans, auquel d'ailleurs il préparerait une suite à paraître dans quelques mois. Bien qu'écrit dans un anglais très fluide, il aurait intérêt à être traduit en français afin d'être mieux connu d'un public pour qui la linguistique demeure la science qui se borne à discourir sur l'origine des mots telle qu'elle est présentée dans les dictionnaires.

La déconstruction du concept de langage-instinct.

L'auteur considère, selon nous à juste titre lorsque l'on y regarde de près, que la thèse dite du langage-instinct popularisée par Chomsky n'est pas encore rangée au rayon des antiquités. Selon lui, elle fait encore de nombreux ravages, non seulement dans les sciences humaines mais dans les opinions du grand public relatives au langage et aux formes qu'il prend dans la société contemporaine. Dans sa critique, il ne s'embarrasse donc pas de précautions diplomatiques. Il attaque avec vivacité des concepts, ou plutôt des croyances qui selon lui paralysent encore les recherches, non seulement sur les langages humains, mais sur les différents formes de communication langagière propres aux êtres vivants en général.

Le mythe du langage-instinct se trouve confortée dans l'opinion par l'observation de la facilité avec laquelle un jeune enfant, voire un nouveau-né, communique avec sa mère et très vite avec son entourage, rien qu'en les entendant parler autour de lui. Comme il n'a encore rien appris en matière de règles grammaticales ou autres, il faut, pense-t-on, que son cerveau ait été câblé dès la naissance pour ce faire. Mais câblé où et comment? Chomsky pense qu'il existe dans le cerveau un « module du langage » ou plutôt un « module d'acquisition du langage », comme il existeraient bien d'autres modules, à en croire l'hypothèse aujourd'hui abandonnée du cerveau modulaire. Ce module, d'origine génétique, s'activerait progressivement, point à point, quand l'enfant se heurte aux complexités du langage.

Chomsky ne pense évidemment pas que chaque enfant dispose héréditairement d'une grammaire adaptée au langage maternel. Le module du langage contient une « grammaire universelle » capable de générer les règles de n'importe lequel des 7.000 langages recensés aujourd'hui. Mais l'hypothèse est contredite par les faits. On ne découvre aucune trace de grammaire universelle lorsque l'on étudie, non pas les 7000 langues mais seulement quelques unes d'entre elles. Plus on observe de langages, en dehors de ceux prédominant actuellement dans le monde moderne, plus leur diversité apparaît et plus l'hypothèse d'une grammaire sous-jacente perd de sa pertinence.

Par le terme de grammaire, sans entrer dans les détails, on peut désigner les règles simples utilisées dans nos propres langages modernes, par exemple l'existence de sujets, de verbes et de compléments, quel que soit l'ordre dans lequel ceux-ci sont exprimés. Or ces règles, que par ignorance nous considérons comme universelles, ne se retrouvent pas dans de nombreux langages, jadis florissants mais aujourd'hui quasiment disparus, ceux des aborigènes australiens ou des amérindiens du Canada, par exemple.

L'observation de la façon dont les communautés de « sourds » construisent spontanément des langages par signes, fournit d'autres éléments intéressants contredisant l'hypothèse d'une grammaire universelle. Ces langages ne surgissent pas du néant, mais s'enrichissent graduellement à l'usage. Il en est de même des observations, beaucoup plus faciles à conduire, concernant la façon dont les enfants construisent et complexifient progressivement leurs éléments de langage. Cette façon n'est pas liée à la mise en oeuvre progressive de ressources génétiquement codifiées, mais à ce que les enfants entendent et assimilent par l'usage. D'où d'ailleurs l'importance d'une immersion la plus rapide possible dans un environnement culturellement riche.

Une question plus difficile à appréhender concerne les relations entre les éléments de langage utilisés par un individu donné et les contenus ou sens que celui-ci leur attribue. Si les règles sont génétiquement définies, comment se fait-il qu'elles peuvent engendrer tant de variétés ou variantes dans les contenus cognitifs des individus? Des linguistes tels que Pinker, précité, s'étaient ralliés à l'hypothèse selon laquelle existait dans le cerveau un langage interne de pensée, ne donnant pas a priori de sens concrets aux contenus mentaux et que l'expérience de chacun permettrait de concrétiser. Ce langage avait été nommé le « mentalais » Nous l'utiliserions sans nous en rendre compte lorsque nous pensons, mais sans traduire cette pensée en langage précis.

La théorie du mentalais avait été principalement élaborée par Jerry Fodor, précité. Pour lui, le mentalais serait une sorte de langage mobilisant les processus mentaux, permettant d'élaborer des pensées complexes à partir de concepts plus simples. Fodor a présenté cette thèse en 1975 dans son ouvrage intitulé The Language of Thought. Selon Pinker, connaître un langage consiste à transformer le mentalais en mots et en phrases. Inutile de dire que cette hypothèse, impossible à démonter, est finalement tombée dans l'oubli. Il ne s'agit pas de nier que l'on puisse penser sans faire appel au langage.Tout le monde le fait et vraisemblablement aussi de nombreux animaux. Il s'agit seulement de proposer que cette pensée utilise des mécanismes mentaux pré-linguistiques ou même non linguistiques.

On peut observer que Jean Piaget, qui exerça longtemps une influence déterminante dans l'élaboration de ce qui a été appelé une théorie constructiviste du développement intellectuel, ne distingue pas clairement entre l'inné et l'acquis en matière d'acquisition du langage par l'enfant. Selon lui, l'origine de la pensée humaine ne naît pas de la simple sensation, elle n'est pas non plus un élément inné. Elle se construit progressivement, dans le cadre de phases successives ou périodes que traverse l'enfant en fonction de son âge, chacune conditionnant l'autre. Lorsque l'enfant entre en contacts répétés avec le monde, il développe des unités élémentaires de l'activité intellectuelle, appelés schèmes. Mais, en ce qui concerne le langage, et bien que refusant l'innéisme, Piaget semble admettre qu'en se développant, le cerveau mobilise des ressources génétiques disponibles mais non encore valorisées.

La construction du concept de « langage-usage »

Pour sortir de l'enfermement qu'impose au linguiste les théories du langage-instinct, Evans a fait appel aux multiples études qui depuis 15 ou 20 ans se sont attachées à comprendre comment les animaux et plus généralement les êtres vivant communiquent, quels types de langages ou proto-langages ils ont élaboré pour ce faire, comment leurs cerveaux et plus généralement leurs corps et leurs sociétés se sont construits, au cours de millions d'années, dans le cadre d'une co-évolution néo-darwinienne avec la communication.

A ces bases fournies par les sciences du vivant, il faut dorénavant ajouter les apports d'une robotique évolutionnaire de plus en plus créatrice, montrant comment des communautés de robots peuvent dorénavant élaborer des langages encore simples certes, mais donnant fort à réfléchir aux linguistes. Pour les lecteurs de notre site, tout ceci n'est guère original. Il est néanmoins intéressant d'observer comment un linguiste un peu révolutionnaire tel que Evans en tire parti.

Le premier travail à faire, pour qui veut cesser de considérer le langage humain comme une exception dans la nature, spécifique à une espèce humaine elle-même exceptionnelle, consiste à démontrer que des langages, ou tout au moins des proto-langages, peuvent être retrouvés dans un certain nombre d'espèces animales. Vyvyan Evans rappelle en détail les travaux en ce sens qui se sont multipliés depuis une trentaine d'années, portant sur les primates, mais aussi sur les baleines, d'autres mammifères, les oiseaux et même les poulpes. Ou bien ces animaux ont été observés au naturel, ou bien dans le cadre d'expériences conduites en interaction directe avec un humain.

Concernant les primates, chimpanzés notamment, quelques expériences devenues célèbres ont consisté à élever certains jeunes comme des enfants humains, ou à leur enseigner le langage des signes. En aucun cas, ces animaux n'ont pu acquérir des capacités langagières aussi diverses et constructrices que celles des humains, mais les performances qu'ils ont manifesté montraient clairement qu'il existe une continuité directe entre leurs langages et les nôtres.

Très vite cependant s'est posé la question de distinguer entre langage et communication. Pratiquement toutes les espèces, animales ou végétales, ont développé des techniques de communication, le plus souvent entre individus, mais parfois aussi d'une espèce à l'autre. Même les bactéries ou cellules (notamment cancéreuses) communiquent entre elles afin de constituer des réseaux et réaliser des actions collectives. On a nommé « quorum sensing » la propriété qu'ont certaines bactéries de passer à l'offensive dans un organisme infecté en s'informant les unes les autres de leur nombre ou de leur virulence.

Mais s'impose la nécessité de montre en quoi le langage ne se réduit pas à la seule communication. Evans cherche à le faire, mais d'une façon un peu superficielle. Ceci parce qu'il n'a pas sans doute les bases suffisantes pour relier en détail la linguistique et les sciences devenues aujourd'hui très nombreuses traitant non seulement de la communication mais de l'information. L'approche technologique est aujourd'hui nécessaire, car elle permet de mieux comprendre le biologique. Evans mentionne certes les célèbres danses des abeilles, utilisant des symboles, une intersubjectivité, des référentiels géographiques, certains disent une récursivité propres aux langages humains. Il se demande à juste titre s'il s'agit de langages. Nous avons cru comprendre qu'il répondrait par l'affirmative.

Au niveau de l'humain, il rappelle que les innombrables processus de communication non parlée entre individus, sont des langages ou tout au moins des précurseurs des langages. Certains anthropologues considèrent d'ailleurs que les hominiens, avant de développer des langages vocaux, utilisaient des langages par gestes tout à fait efficaces. Ces faits démontrent la continuité qui existe dans la nature entre la communication et le langage proprement, de la même façon qu'existe une continuité évolutionnaires entre tous les êtres vivants sur le plan corporel, notamment concernant l'évolution des organes sensoriels et des systèmes nerveux.

Les origines

Le livre, qui est très documenté (il comporte presque 1/5 de notes et références (difficiles à consulter faute d'accès à l'internet) aborde un certain nombre de questions s'inscrivant dans cette approche biologique plus générale. Il pose notamment l'inévitable question portant sur la façon dont les langages sont apparus dans le cadre de l'histoire de ce qu'il convient d'appeler en simplifiant l'espèce humaine. Il n'hésite pas, si nous l'avons bien compris, malgré les nombreux préjugés contraires, à postuler que des formes rudimentaires de langage se sont manifestées durant la longue période ayant permis aux australopithèques de diverger de l'ancêtre commun qu'ils avaient partagé avec d'autres primates.

Il mentionne une hypothèse que nous avions nous-mêmes présentée 2). Ce fut sans doute le développement d'un usage systématique d'outils naturels déjà employés par divers animaux mais de façon discontinue, avec le développement corrélé (co-développement) des signes ou vocables de nature prélangagière désignant ces outils et leurs usages, qui a permis l'émergence du langage. Ceci donc bien avant l'époque de l'homme du néanderthal généralement considéré comme le premier homo capable de parler.

Mais cette hypothèse ne suffit pas à éclairer la question de l'origine du couple outil-langage. Pourquoi et comment certains australopithèques se sont-ils différenciés sur ce point capital de leurs contemporains primates? Faut-il faire appel à l'explication un peu simpliste de la mutation génétique. S'est-il agit seulement de l'adaptation à un changement dans le milieu naturel s'étant imposé à ces australopithèques, changement n'ayant pas affecté les autres primates? Dans ce cas, ce fut probablement une co-évolution, là encore, entre les modifications imposées à l'organisme, et donc aux gènes de ces australopithèques par l'adaptation à ce milieu nouveau, et leurs capacités neurologiques à la « vision » symbolique, qui a rendu possible l'invention de l'outil et du langage. Mais aussi séduisante que soit cette explication, elle peut paraître un peu « ad hoc ». De nombreuses espèces ont du s'adapter à des changements de milieu sans acquérir la capacité d'utiliser systématiquement des outils et des langages.

Ce qui nous paraît presque certain par contre est le fait que la généralisation et la diversification des outils et de leurs usages fut un des principaux facteurs, sinon le principal, ayant permis l'enrichissement de la pensée symbolique à l'origine des capacités langagières. Les neurones-miroirs cités d'ailleurs par Evans ont joué un rôle en ce sens. Ils sont à la base de l'imitation. La vue d'un geste bien déterminé, comme celui consistant à utiliser une pierre pour casser une noix, active dans le cortex des neurones-miroirs qui se réactivant à leur tour hors de la vue du geste, permet la répétition de celui-ci. Or si cette vue a déjà été symbolisée dans le cerveau du premier utilisateur, on peut admettre que la transmission de ce symbole vers d'autres individus s'est faite parallèlement. Cependant, de nombreux animaux utilisent des instruments et outils de façon aléatoire. Ils disposent pourtant de neurones-miroirs. Mais leur cortex est moins développé que celui de l'homme. La question de l'origine reste donc posée.

Le lecture du livre de Vyvyan Evans suscite de nombreuses questions de cette nature. Il ne les approfondit pas ou ne les évoque pas. Ce jugement n'est pas une critique, mais au contraire un compliment. En 300 pages, il ne pouvait tout dire. Il est déjà plus que remarquable qu'il oblige le lecteur à se poser des points d'interrogations. Par exemple, le langage crée-t-il son objet? Autrement dit oblige-t-il l'interlocuteur à voir le monde de la même façon que le locuteur, tout au moins si l'un et l'autre partagent globalement la même culture. Qualifier quelqu'un de féminin l'enferme-t-il dans tous les symboles attribués à la féminité? Evans évoque la question, mais il ne fait pas appel aux discussions contemporaines pourtant très éclairantes concernant le langage scientifique et sa capacité à représenter de façon symbolique, sinon à créer proprement dit, un réel considéré comme extérieur à l'observateur – aussi bien d'ailleurs dans le domaine de la physique macroscopique que dans celui de la physique quantique ? Dans un autre domaine, le rire et les pleurs, considérés comme le propre de l'homme, sont-ils liés et comment au langage?

Une autre question doit être évoquée. Il s'agit de celle de l'imagination créatrice. Celle-ci est généralement considérée comme un des traits fondamentaux distinguant l'homo sapiens de ses prédécesseurs. Le langage y joue-t-il un rôle et comment? Les « visions » générées par le cerveau et pouvant modifier les comportements, dans la vie courante comme en matière d'invention scientifique, reposent-elles sur des images mentales préconscientes ou inconscientes, créées par l'imagination, notamment dans le sommeil? Ces images peuvent-elles être considérées comme des éléments de langage? Ceci qu'il s'agisse du langage courant ou du langage scientifique évoqué plus haut.

Conclusion

Il est bien évident qu'un professeur de linguistique, aussi ouvert et curieux qu'il puisse être, ne peut à lui seul, pour traiter du langage, aborder toutes les sciences qui s'imposeraient pour ce faire. Il faudra l'entreprendre cependant un jour, mais en se plaçant dans une approche interdisciplinaire sans exclusives. Comment un singe apparemment comparable aux autres a-t-il pu en quelques millions d'années, dites aujourd'hui de l'anthropocène, évoluer jusqu'à devenir capable de provoquer un bouleversement climatique profond et une nouvelle extinction généralisé des espèces vivantes? En quoi les capacités langagières ont-elles contribué à cette évolution? Les successeurs éventuels de l'homo sapiens, dits post-humains, seront-ils des entités biologiques « augmentées », des entités langagières ou même des entités numériques ou mathématico-numériques de type algorithmique? Que seront leurs langages?

Pour commencer à répondre à ces questions (sans pour autant espérer échapper aux enfermements imposés par les pratiques et langages scientifiques contemporains), il faut remonter aux origines, celles de la vie comme celles de l'espèce humaine. Concernant cette dernière il faut remonter aux origines de son génome spécifique, se répercutant sur les origines de son cerveau, de sa conscience et bien évidemment de ses cultures et civilisations.

Compte tenu de la réduction continue des crédits affectés à la recherche fondamentale, sauf dans le domaine militaire, il est à craindre que notre civilisation, celle à laquelle le signataire de cette recension s'honore d'appartenir, refusant les solutions simplistes imposées par les religions et la violence, ait disparu avant d'avoir proposé ne fut-ce que des débuts de réponses scientifiques.

Notes

1) Nous lui avions nous mêmes il y a plus de 10 ans fait écho en présentant les travaux de Pinker. Mais depuis, Dieu merci, nous l'avons abandonné, pour tenir compte des innombrables travaux survenus depuis et portant sur les différentes formes de langage et de communication (incluant le domaine des entités et réseaux numériques) . Voir:
*http://www.automatesintelligents.com/biblionet/2003/sep/pinker.html *http://www.automatesintelligents.com/biblionet/2001/jan/s_pinker.htm

2) J.P. Baquiast. Le paradoxe du sapiens 2010

Partager cet article

30 septembre 2014 2 30 /09 /septembre /2014 17:28

30 septembre 2014 |

The Island of Knowledge: The Limits of Science and the Search for Meaning
par Marcelo Gleiser
Basic Books (June 3, 2014)
Commentaires par Jean-Paul Baquiast 30/09/2014


Marcelo Gleiser (né en 1959) est un physicien et un astronome réputé, peu connu malheureusement en France. Né au Brésil où il a fait ses études universitaires, il est aujourd'hui professeur de physique et d'astronomie au Darmouth College, New Hampshire, fondation privée de recherche et d'enseignement scientifique.

Ses recherches ont porté sur la physique de l'univers primordial et les origines de la vie sur Terre ou éventuellement dans l'univers. Il a fait de nombreuses hypothèses d'intérêt reconnu sur les relations entre la physique des particules et la cosmologie, notamment dans ce que l'on appelle les transitions de phase et les brisures spontanées de symétrie, intéressant les passages d'un particule à une autre et l'apparition de nouvelles particules.

Il a publié avant « The Island of Knowledge », 3 ouvrages d'intérêt reconnu concernant l'évolution et la philosophie des sciences
* The Prophet and the Astronomer: Apocalyptic Science and the End of the World, 2003
* The Dancing Universe: From Creation Myths to the Big Bang, 1998
* A Tear at the Edge of Creation: A Radical New Vision for Life in an Imperfect Universe, 2010

Nous considérons que « The Island of Knowledge » est un ouvrage d'intérêt considérable. Toute personne s'intéressant aux sciences et à leur avenir devrait le lire et y réfléchi. On peut craindre qu'il ne soit pas traduit rapidement en français, mais écrit dans un style courant, il est accessible à tous ceux possédant quelques rudiments de langue anglaise.

Comment le définir? Disons qu'il s'agit d'un ouvrage de philosophie des sciences. Appelons ici philosophie des sciences une philosophie qui s'intéresse aux sciences, de leurs origines à leurs devenir, mais aussi une philosophie générale, portant sur l'humain et sur le monde, qui s'appuie sur les connaissances scientifiques. Pour prétendre philosopher sur les sciences, il faut d'abord bien les connaître, tant dans leur passé que dans leur état actuel et les perspectives sur le futur qu'elles proposent. C'est bien là le grand talent de l'auteur. « The Island of Knowledge » réalise en ce sens un travail, non pas de vulgarisation, terme qui serait un peu réducteur, mais de présentation et de discussion de l'histoire et du contenu des connaissances scientifiques, que nous jugeons, avec ce que nous connaissons de ces sujets, absolument remarquable.

Il ne cherche évidemment pas à balayer l'ensemble des connaissances, mais il présente les trois principaux domaines qu'il faut absolument connaître aujourd'hui car autour d'eux s'organisent tous les savoirs scientifiques: les origines et le futur de l'univers, la nature de la matière telle qu'analysée par les physiciens, depuis les alchimistes jusqu'aux physiciens quantiques, la nature de l'esprit humain et des interprétations du monde qu'il propose, incluant les perspectives ouvertes par l'intelligence générale artificielle . Il ne traite pas à proprement parler de la biologie, mais en permanence la question de la vie est évoquée, dans un sens large.

Nous disons qu'il faut absolument connaître, an moins l'essentiel, de ces domaines car il est bien évident que discourir sur la science sans posséder ces bases n'a aucun intérêt philosophique. Mais acquérir ces bases suppose évidemment un long travail, que tous, fussent-ils bien intentionnés, ne peuvent faire. Rien n'interdit à ceux qui n'ont pu de faire de s'exprimer, mais ceci devrait leur imposer une modestie dont ils manquent généralement (comme le montrent par exemple les commentaires aux articles scientifiques faits sur les réseaux sociaux).

« The Island of Knowledge » présente le grand intérêt, dans chacun des trois domaines proposés, de rappeler les origines des théories évoquées, en remontant si nécessaire à l'Antiquité grecque, de résumer sommairement mais clairement l'état actuel des connaissances et, surtout de souligner les éléments qui demeurent, dans chacune d'entre elles, soit encore mal connus, soit (vraisemblablement) à jamais inconnaissables. Ce travail est à lui seul une performance, car il suppose que l'auteur ait pu se livrer à un inventaire quasiment encyclopédique de l'évolution des connaissances évoquées. Le lecteur, en le lisant, pourra en tous cas rafraichir et actualiser ses propres notions concernant le monde et les regards portés sur lui par les sciences.

La pratique expérimentale

Le livre rappelle par ailleurs dans pratiquement toutes ses pages que la science est une activité humaine absolument originale, apparue au 6e siècle avant JC, qui s'est pleinement développée en Europe à partir de l'ère dite des Lumières, et qui s'est propagée, non sans obstacles et résistances, au sein d'autres réalisations. Comme le savent ceux que l'on nomme en France les matérialistes scientifiques (naturalists en anglais), elle repose sur un postulat incontournable. Il s'agit de ne retenir que les hypothèses vérifiables expérimentalement.

Certes, l'extension naturelle des champs de l'hypothèse, comme le perfectionnement continu des instruments d'observation, font que ce que l'auteur appelle l' « Ile des connaissances » ne cesse de s'étendre, mais la nécessité d'exclure de la science, sauf exceptions sur lesquelles nous reviendrons, tout ce qui n'est pas vérifiable expérimentalement distingue radicalement la science de l'art, de la religion mais aussi de la philosophie dite métaphysique.

La science étant ainsi bordée, rien n'interdit, comme nous venons de le rappeler, les discours philosophiques commentant ses résultats ou anticipant sur des résultats futurs. De même, il est très important d'autoriser les scientifiques, dans leurs disciplines, à faire des hypothèses qui ne soient pas immédiatement vérifiables. Le cas est fréquent, en cosmologie ou en mécanique quantique. Mais il faut pour ce faire être déjà très qualifié dans les disciplines correspondantes, et ne pas évidemment renoncer à rechercher des preuves expérimentales à ces hypothèses. Ceci n'autorise évidemment pas n'importe qui à dire n'importe quoi et à tenter de le propager avec un entêtement mal placé.
Il faut donc absolument rappeler les fondements expérimentaux de la science, face à l'avalanche, qui a toujours été mais qui ne s'est pas ralentie, des jugements se disant scientifiques mais qui n'ont pas de bases vérifiables. On parlera alors de fausses sciences ou pseudo-sciences. 1)

Un tour d'horizon interdisciplinaire.

Il s'agit à première vue d'évidences, tout au moins aux yeux des philosophes de la science et des scientifiques. Est-il nécessaire de consacrer tout un ouvrage à les rappeler? Notre réponse sera évidemment affirmative. D'une part le tour d'horizon des domaines scientifiques étudiés par le livre s'impose, dans un esprit que l'on qualifie généralement d'interdisciplinaire. Nombre de chercheurs éminents, tout au moins dans leurs premières années de recherche, ignorent faute de temps les travaux de collègues portant sur des questions apparemment très éloignées mais qui à plus ample informé se révèlent très liées.

D'autre part et surtout, c'est à l'intention des lecteurs généralistes que s'impose cette remise en perspective. Ceux-ci ne connaissent l'évolution des connaissances qu'à partir d'articles nécessairement spécialisés. Ils risquent donc ne ne pas faire les rapprochements nécessaires. Ainsi un article sur le phénomène qualifié de trou noir ne rappellera pas nécessairement les bases de la physique quantique s'appliquant à cet état particulier de la matière.

Mais, dira-t-on, n'existe-t-il pas suffisamment d'encyclopédies des sciences fort bien faites qui auraient pu éviter à l'auteur l'écriture d'une bonne moitié des pages de son livre ? Disons ici que si fréquenter ces encyclopédies, dont Wikipedia est l'équivalent sur le web, s'impose, ceci ne donnera pas nécessairement le dernier état d'une question évoluant vite. Dans certains des chapitres de son livre, c'est au contraire ce à quoi s'est attaché Marcelo Gleiser. Ces propos perdront vite de leur actualité, mais pendant quelques mois de 2014-2015 – en attendant une nouvelle édition? - les questions qu'il aborde ne seront pas traitées ailleurs – sauf évidemment dans des blogs spécialisés inabordables pour le tout venant.

Le mur de l'inconnaissable

Plus fondamentalement Gleiser met l'accent dans son livre sur des aspects de la science rarement évoqués par les chercheurs ou les vulgarisateur écrivant sur telle ou telle question scientifique: les murs de la connaissance dans ces domaines. Chacun sait qu'en permanence, toute recherche se heurte à un mur d'inconnu. Mais qui dit mur d'inconnu ne dit pas nécessairement mur d'inconnaissable, le terme inconnaissable pris au pied de la lettre, signifiant que jamais l'humanité ne pourra s'aventurer avec succès au delà de ce mur. Ce sera du soit à l'impossibilité d'espérer disposer d'instruments permettant d'expérimenter certaines hypothèses, soit à la nature profonde de tel ou tel aspect de la réalité relevant de ce que l'on nomme l'indécidable, soit à l'incapacité de nos cerveaux, même renforcés de prothèses artificielles, à embrasser des questions trop complexes pour eux.

L'originalité du livre est de postuler, sans pouvoir évidemment le démontrer, que toute une série de grands problèmes posés par le développement des sciences ne pourront jamais être résolus. Il en est ainsi de tout ce qui concerne non pas l'univers observable, mais l'univers en général. Jamais nous n'aurons par exemple les instruments permettant de nous projeter à des millions ou milliards d'années-lumière dans l'espace temps, jamais nous ne pourrons conceptualiser et a fortiori modéliser avec la précision suffisante ce que pourrait être un univers composé d'un nombre infini d'univers-bulles comme le nôtre. Certes il ne faut pas poser d'emblée l'inconnaissabilité de telle ou telle hypothèse, ce qui éviterait de rechercher les preuves expérimentales permettant de la confirmer. Mais au delà de certains niveaux de difficultés, il apparaît raisonnable d'envisager son inconnaissabilité fondamentale.

Ainsi, en matière de multivers, Gleiser nous rappelle que dans les prochains mois, les cosmologistes rechercheront, à partir des observations du fond de radiation micro-ondes cosmologique (CMB) attendues du satellite européen Planck, d'éventuelles traces d'une collision passée de notre univers avec un autre univers. Mais il s'agira d'un cas particulier, très peu discernable, qui donnera d'ailleurs lieu à d'innombrables interprétations. Aller au delà, c'est-dire nous représenter de façon quelque peu réaliste, autrement dite opérationnelle, ce que pourrait être un multivers, ne parait pas scientifique. Ne vaut-il pas mieux postuler que l'humanité, non plus d'ailleurs qu'aucune autre espèce vivante, équipée de corps et de cerveaux aux capacités limitées, même avec le renfort de l'intelligence artificielle, disparaîtra de la surface de la Terre sans avoir jamais pu répondre à ces questions?

L'auteur ne nous dit pas, comme certains savants en leur temps (Lord Kelvin en 1900), qu'il n'y a plus rien à découvrir, mais au contraire qu'il y a un océan de choses que nous ne pourrons jamais découvrir. Il conseille d'en prendre son parti. Certes les frontières de la science reculeront sans cesse pendant encore de longues années, sinon indéfiniment. Sans cesse de nouvelles hypothèses se trouveront vérifiés, ou ce que préfèrent d'ailleurs les théoriciens, falsifiées selon le terme de Carl Popper, obligeant à bâtir des hypothèses plus ambitieuses. Aujourd'hui cette question a été évoquée, au vu des récents résultats du grand collisionnneur à hadrons du CERN, qui semblent avoir confirmé la pertinence du modèle standard des particules, alors que certains physiciens auraient préféré une invalidation qui les aurait obligés à réviser en profondeur leurs conceptions concernant la physique des hautes énergies.

Mais pourquoi, tout au moins dans un certain nombre de domaines pourtant essentiels, ne se heurterait-on pas au mur d'inconnaissable évoqué par le livre. On a déjà objecté à l'auteur que ce disant, il procède à un acte de croyance que devrait s'interdire la démarche scientifique. Depuis l'origine des sciences, les lois de la nature présentées comme les plus établies ont toujours été revues et complétées, ce qui a constamment ouvert de nouveaux domaines de recherche. C'est sans doute d'ailleurs déjà le cas en ce moment. Certains scientifiques pensent que les lois dites fondamentales de l'univers, parmi lesquelles notamment la vitesse de la lumière, pourraient être modifiées à l'avenir, ou pourraient être différentes dans d'autres univers, si ceux-ci s'étaient organisés d'une autre façon que le nôtre à la suite d'une « fluctuation du vide quantique » différente de celle ayant généré notre propre univers.

La réponse de Gleiser, à cette objection, si nous l'avons bien comprise, est que ces perspectives ne sont pas à exclure dans le cadre d'une vision métaphysique de l'univers, mais que pour le moment, sauf fait nouveau imprévisible, elles ne présentent pas d'intérêt pour la pratique scientifique. Dans le même esprit, il rejette toute tentative visant à élaborer une « Théorie du tout », qui non seulement ne reposerait sur rien de vérifiable, mais qui pourrait décourager l'élaboration d'autres théories particulières concernant tel ou tel aspect de ce mythique « Tout ». Du fait que nous ne pourrons jamais connaître l'étendue de ce que nous ne savons pas, nous ne pourrons jamais prouver qu'une Théorie du Tout englobe bien la totalité dudit Tout.

La vie et la conscience

Il faut préciser que, contrairement aux préconisations des religions, les scientifiques d'aujourd'hui n'ont pas placé dans le domaine de l'inconnaissable les deux questions pourtant encore considérées comme très difficiles, celle des origines de la vie et celle des mécanismes de la conscience. Même si les circonstances précises ayant permis l'apparition de la vie sur Terre il y a plus de 4 milliards d'années ne seront sans doute jamais connues, ils espèrent dans des délais relativement court pouvoir créer un ou plusieurs organismes vivants artificiels suffisamment proches des organismes vivants biologiques pour que les questions que ceux-ci posent encore à la biologie évolutionnaire se trouvent résolues.

Il en sera de même de la conscience artificielle, dont nous avons souvent ici entretenus nos lecteurs. Pour reprendre l'expression empruntée au test dit de Turing, si une conscience artificielle pense comme une conscience, communique comme une conscience, alors ce sera une conscience. On ne peut évidemment en dire autant des phénomènes cosmologiques hypothétiques complexes. Même s'il est possible de simuler certains d'entre eux sur ordinateur, rien ne permettra jamais d'affirmer que quelque chose d'analogue existe dans l'univers.

La mécanique quantique constitue un cas un peu particulier. Même si aujourd'hui les différents phénomènes caractérisant le monde quantique, tels l'intrication ou la superposition d'états, peuvent être constatés et utilisés par la technique, ils restent inexpliquées en termes de physique ou de cosmologie ordinaire. Il en est de même des questions intéressant ce que l'on nomme le vide quantique. Il est possible de recréer des états de la matière suffisamment denses et chauds pour permettre l'équivalant de fluctuations quantiques voisines de celles supposées avoir donné naissance à notre univers, mais on peut penser que créer, aujourd'hui ou plus tard, des bulles d'univers en laboratoire ne sera jamais possible.

Cependant les physiciens quantiques, dans le cadre d'une encore hypothétique gravitation quantique, ne renoncent pas à modéliser de tels phénomènes, à les expérimenter à de très petites échelles et donc à commencer à comprendre en quoi consiste exactement l'univers profond que l'on pourrait qualifier d'infra-quantique. Prudemment cependant, ils se préparent à affronter de nouveaux domaines de non connaissance révélés par ces progrès futures de la connaissance. Ils ne peuvent garantir qu'ils ne se heurteront pas ainsi au mur d'inconnaissable évoqué par Marcello Gleiser.

Questions philosophiques

Nous avons indiqué en introduction qu'il ne fallait pas confondre la philosophie des sciences, mettant en perspective l'évolution des différentes connaissances, et la philosophie proprement dite, qui discute d'un très grand nombre de questions qui ne seront jamais abordables en terme scientifique, par exemple qu'est-ce que le bien, le mal, l'amour, qu'est ce qu'il y avait « avant », qu'est ce qu'il y aura « après », les dieux existent-ils? ...toutes questions que les humains se sont posés bien avant l'apparition de la science, et qu'ils continueront à se poser, tout en sachant qu'elles ne recevront jamais de réponses scientifiques. Elles sont néanmoins fondamentales car la façon dont une personne, un groupe, un pays traitent de telles questions définit le type de civilisation auquel ils se rattachent.

Mais à côté de ces questions se posent d'autres questions philosophiques suggérées par le développement des sciences. Ce sont précisément celles que Gleiser définit comme se trouvant au delà du mur du scientifiquement connaissable mais qui demeurent importantes aux yeux d'un questionnement philosophique suscité par le progrès des connaissances. Ainsi peut-on se demander, en observant la vie d'un insecte généralement inconscient de son passé et de son futur, si notre vie est ou non différente, à d'autres échelles. De même, observant ce même insecte à l'insu de celui-ci, nous pouvons très légitimement nous demander si d'autres entités, beaucoup plus complexes que nous, ne nous observeraient pas au même moment à notre insu. C'est d'ailleurs sur la base d'une quasi infinité de faits aujourd'hui évoqués par la science que les auteurs de scénarios de science-fiction nous passionnent en éveillant notre imagination et notre réflexion philosophique bien au delà des circonstances de la vie ordinaire.

L'étude de la cosmologie entraine inévitablement d'autres débats philosophiques. A quoi bon se préoccuper de ce que deviendra l'univers, ne fut-ce que dans quelques milliers d'années, alors que nous ne seront pas là, non plus que nos descendants, pour le constater ? Pourquoi s'attrister, comme le font beaucoup de gens, du fait que le système solaires disparaitra inévitablement dans quelques 5 milliards d'années?

D'autres questions, tout à fait différentes, sont posées par la cosmologie. L'humanité, dès ses origines, a eu l'intuition qu'à côté du monde réel, soumis aux contraintes de temps et d'espace, existait un autre monde, intemporel et infini. Mais ne peut-on pas se demander, sans faire référence à de quelconques divinités, si les humains, comme peut-être l'ensemble des créatures vivants, n'ont pas d'une façon intuitive et pour des raisons qu'il faudrait expliquer, conscience d'une « réalité » sous-jacente à toutes les réalités que nous ne connaissons pas explicitement.

Pour sa part, Marcelo Gleiser, ayant pris ses distances à l'égard de l'éducation chrétienne qu'il a reçue, ne nous incite jamais à penser que telle ou telle question relevant de l'inconnaissable scientifique puisse faire l'objet d'un appel à des considérations religieuses, mais il comprend très bien que ces mêmes questions puissent faire l'objet de méditations philosophiques. 2)

Notes

1) Sur le matérialisme scientifique, voir Baquiast, « Pour un principe matérialiste fort »
Editions Jean-Paul Bayol. 2007

2) Sur un thème analogue, voir notre présentation du livre de Caleb Scharf, The Copernicus Complex.

Partager cet article

22 septembre 2014 1 22 /09 /septembre /2014 18:35

The Copernicus Complex: Our Cosmic Significance in a Universe of Planets and Probabilities – Septembre 2014

Caleb Scharf

Scientific American, Farrar, Straus and Siroux

Présentation par Jean-Paul Baquiast
21 septembre 2014

Nous reviendrons dans un article ultérieur sur certains des thèmes de ce livre. JPB


Caleb Scharf dirige le centre d'astrobiologie de l'université de Columbia.
Les recherches de cet astrophysicien font autorité ; elles concernent notamment l'interprétation satellitaire des émissions radio attribuées aux trous noirs.

Dans son dernier livre, il s'intéresse particulièrement aux modélisations informatiques les plus récentes portant sur les dynamiques gravitationnelles, c'est-à-dire sur la façon dont différents types de systèmes solaires peuvent résulter de l'interaction gravitationnelle entre un astre de type solaire et ses satellites, ainsi que sur les conséquences pouvant en décoouler dans le domaine de l'astrobiologie.

L'astrobiologie étudie les types de biologies pouvant apparaître dans l'univers au sein des astres présentant - ou non - des caractères proches de ceux de la Terre.

Par ailleurs, Caleb Scharf est un excellent formateur et vulgarisateur. Il fait découvrir à un large public les problématiques les plus récentes de sa discipline, malgré leurs aspects apparemment les plus ésotériques. Ce dernier ouvrage en est un excellent exemple. Bien qu'abordant des questions éminemment difficiles, il les met à portée tous ceux s'intéressant à la cosmologie et à la question de la vie extraterrestre.


* Voir notre présentation de l'ouvrage précédent de l'auteur Gravity's Engines
How Bubble-blowing Black Holes rule Galaxies, Stars and Life in the Cosm
os
* Sur le chaos, voir notre présentation de Simplicité profonde : Le chaos, la complexité et l'émergence de la vie de John Gribbin
* Voir aussi La théorie du Chaos par James Gleick
* Voir aussi notre article consacré à Ilya Prigogine

Le « Copernicus Complex » recense et critique les plus récentes hypothèses scientifiques concernant les origines de la vie sur Terre et la question de savoir s'il s'agit d'un phénomène rare dans l'Univers, voire unique, ou au contraire très fréquent. Le livre commence par un rappel de l'affirmation de Copernic au 16e siècle, selon laquelle contrairement aux affirmations de l'Eglise catholique et de nombreux philosophes antiques, la Terre n'était pas le centre de l'univers visible, autour duquel graviterait le soleil et les autres astres, mais seulement l'un de ces astres gravitant autour du soleil.

Ceci avait été nommé le « Principe de Copernic » ou « Principe de Médiocrité ». Ce principe refuse d'une façon générale de considérer l'homme comme le centre de toutes choses, en dehors du Dieu créateur lui ayant conféré ce statut. Plus les lunettes astronomiques se perfectionnèrent, après la généralisation de l'invention de Galilée, plus ces hypothèses se trouvèrent confirmées.

Le Principe de Médiocrité appliqué à l'astronomie

Caleb Scharf rappelle à cet égard les découvertes les plus récentes des astronomes. Ce sont maintenant plusieurs centaines de planètes extrasolaires qui ont été identifiées, gravitant autour des astres les plus proches de nous, c'est-à-dire les plus faciles à observer. Le catalogue s'enrichit tous les jours. Ces planètes ne sont pas encore observables directement, mais en fonction des perturbations gravitationnelle qu'elles imposent à leur astre, il est désormais possible de préciser s'il s'agit de « géantes gazeuses », sembles à Jupiter ou Saturne, ou de planètes de type rocheux, semblables à la Terre. Un grand nombre de celles-ci se trouvent situées dans ce que l'on nomme la zone habitable, suffisamment loin et cependant suffisamment près de leur soleil pour que de l'eau liquide et des températures clémentes jugées encore indispensables à la vie puissent s'y trouver.

On sait que si par ailleurs, au lieu de dépenser des budgets considérables à se faire la guerre, les humains affectaient les ressources suffisantes à la réalisation des télescopes géants optiques ou radio d'ores et déjà dans les cartons, il pourrait être possible, dans quelques années seulement, d'observer directement les plus proches de ces planètes, y compris la composition de leur atmosphère, révélatrice de la présence de la vie, voire même leurs éventuelles couvertures végétales.

Le Principe de Médiocrité appliqué à la biologie

Peu de temps après Copernic et Galilée, les découvertes des inventeurs des premiers microscopes avaient confirmé le Principe de Médiocrité. Le monde des créatures macroscopiques multicellulaires (eucaryotes) auxquelles l'homme appartient, est très largement dépassé en complexité par celui des créatures microscopiques, bactéries et archéa monocellulaires (procaryotes) sans mentionner les virus que l'on considère généralement aujourd'hui comme des organismes vivants plus simples, mais cependant dotés de gènes.

L'on découvre dorénavant de telles bactéries dans tous les milieux terrestres, y compris dans ceux jusqu'ici considérés comme impropres à la vie. Si bien que l'on considère généralement que les premières d'entre elles ont commencé à peupler la jeune Terre alors même que celle-ci état soumise à d'intenses bombardement météoritiques (dont celui supposé avoir donné naissance à la Lune).

Caleb Scharf mentionne par ailleurs les récentes découvertes de ce que l'on pourrait appeler l'astrophysique prébiotique. Très vite, dès le Big Bang, se seraient formés, à partir des molécules H2 et H3 originelles, des composés chimiques, notamment à base de carbone, constituant ce que l'on a nommé les briques de base indispensables à la vie. Ces composés se sont retrouvés dans les nuages interstellaires à l'origine des premiers systèmes solaires. Dès sa formation, notre propre système solaire a donc baigné dans une telle atmosphère prébiotique.

Celle-ci ne suffisait pas pour donner naissance aux molécules géantes indispensables à la constitution et à la reproduction des premiers organismes considérés comme vivants (dont le fameux LUCA et ses prédécesseurs) mais elle avait considérablement facilité l'action des mécanismes géophysiques terrestres ou sous-marins ayant servi de berceau à l'émergence de la vie.

Quant à ce que l'on nomme la vie intelligente, le Principe de Médiocrité explique aujourd'hui son émergence, que ce soit chez les animaux et même chez l'homme, par un enchainement de mécanismes qui en font une conséquence quasi obligée de l'apparition de la vie monocellulaire.

Nous n'entrerons pas ici dans cette discussion. Indiquons seulement que, comme le rappelle d'ailleurs Caleb Scharf, l'homme, composé de milliards de cellules et hébergeant un nombre encore plus grand de bactéries indispensables à sa vie, pourrait être considéré, au même titre que les autres organismes multicellulaires, comme l'instrument par lequel le monde des bactéries s'est organisé spontanément en réseaux capables de faire émerger de l'intelligence à son profit. Cette intelligence permet, via la production de nouveaux milieux riches en nutriments résultant de l'activité des humains, aux bactéries de se multiplier encore davantage. Ceci se dit aujourd'hui, rappelons-le, du développement des systèmes intelligents plus ou moins autonomes commençant à apparaître au sein des réseaux numériques connectant des humains, à l'insu de ces mêmes humains.

Toutes les recherches scientifiques récentes pourraient donc justifier – sans évidemment pouvoir encore le démontrer, que la vie cellulaire voire la vie intelligente, pourraient se trouver sous des formes voisines dans les centaines de milliards de galaxies, composées elles-mêmes de centaines de milliards d'étoile et d'au moins mille milliards de planètes, composant l'univers visible.

Une relative spécificité.

Cependant, comme Caleb Scharf le rappelle, les évolutions géophysiques et biologiques ayant permis l'apparition de la vie terrestre et de l'homo sapiens, ne se retrouvent pas de façon uniforme à l'échelle de l'univers observable. Les simulations permises par les ordinateurs modernes appliquée à ce que l'on appelle la dynamique gravitationnelle montrent que, à l'intérieur des lois simples de la gravitation, une très grande diversité de systèmes galactiques et de systèmes solaires peut apparaître. Ce ce que confirme d'ailleurs les observations précitées de l'astronomie moderne.

Non seulement aucune galaxie n'est vraiment semblable à une autre, mais aucun système associant un ou plusieurs soleils à un plus ou moins grand nombre de planètes et de planètésimaux tous différents, ne reproduit l'image régulière de notre propre système solaire. Ceci ne veut pas dire que, dans un grand nombre d'entre eux, la vie ne puisse apparaître, ceci veut seulement dire que les mécanismes susceptibles d'y générer la vie seraient très différents de l'un à l'autre, et que par conséquent les formes adoptées par de telles vies pourraient être également très différentes.

Par ailleurs l'histoire détaillée de l'apparition et du développement de la vie terrestre, incluant dans certains cas des formes plus ou moins marquées d'intelligence voire de conscience, paraît bien montrer qu'il a fallu un enchainement continu de circonstances favorables pour aboutir aux résultats que nous connaissons. Ceci pourrait justifier un retour à l'hypothèse selon laquelle l'homme, sans être nécessairement unique dans l'univers, pourrait au moins être assez exceptionnel. On retrouverait là une forme atténuée, faible, du principe anthropique, selon lequel l'homme n'a pu apparaître que dans des environnements très spécifiques. De là à prétendre, comme ne manquent pas de le faire les religions monothéistes, qu'il a fallu la main de Dieu pour que s'organise l'enchainement de circonstances favorables à l'apparition de l'humanité, il n'y a qu'un pas.

Le cosmo-chaos

Caleb Scharf ne cède pas à cette tentation. Il nous invite par contre à faire appel aux théories des probabilités bayésiennes et à celles du chaos pour nous expliquer l'apparition de formes de vie semblables à celles que nous connaissons, aussi improbables puissent-elles être. Il propose le terme de cosmo-chaos pour caractériser la multiplicité et l'enchevêtrement des différents facteurs ayant abouti à l'univers tel que nous le connaissons.

Ce cosmo-chaos caractérise l'univers en son état actuel (tel du moins qu'il est visible à des instruments demeurant très imparfaits) mais aussi l'univers tel qu'il évoluera et, rétroactivement, l'univers tel qu'il s'est développé à partir du Big Bang. Celui-ci peut être considéré comme ayant surgi, d'une façon elle-même chaotique (non descriptible,) du vide quantique fondamental. Comme nous l'avons rappelé, les premiers atomes lui ayant succédé ont donné naissance à des mécanismes de plus en plus chaotiques, c'est-à-dire, en d'autres termes, de plus en plus diversifiés et imprévisibles, à l'intérieur de certaines limites apparues dès le départ.

Il faut en effet concilier les deux types de réalités telles qu'elles apparaissent à la science moderne. D'une part, les mécanismes dont nous provenons n'ont rien de spécifique. D'autre part nous occupons un temps très spécial au sein d'un univers âgé de 14 milliards d'années et appelé à s'étendre sans doute indéfiniment, sans doute aussi au sein d'un multivers dont il se diffférenciera de plus en plus jusqu'à sa mort. Nous nous situons dans un système solaire très spécifique, noyé dans un océan de diversité n'ayant que de lointains traits communs avec notre système solaire: Jupiters « chauds » orbitant très près de leurs soleils en moins d'un jour terrestre (on imagine à quelles vitesses) , planètes rocheuses autour d'étoiles en fin de vie, milliards de « Terres » et de « Super-Terres ».

De plus, la vie terrestre, si elle s'est construite à partir de briques de bases et d'une chimie présentes partout dans l'univers, l'a fait au terme de 4,4 milliards d'années de processus évolutifs improbables en termes déterministes. De même, pour reprendre un exemple proposé par l'auteur, que le spectateur d'une partie de base ball recevant une balle en plein visage n'avait aucune raison de le prévoir - sauf en termes stratistiques, et avec une probabilité infime.

Compte tenu de ces données en apparence contradictoires, Caleb Scharf nous invite à considérer que la situation de l'homme dans l'univers résulte d'une suite de hasards dont l'enchainement est de type chaotique. Ils peuvent paraître exceptionnels à notre échelle mais ils ne le seraient pas à l'échelle de l'univers entier. En d'autres termes, il recommande une vois moyenne entre le principe de Copernic et le principe anthropique.

Cela devrait donc nous encourager à rechercher d'autres formes de vies et d'intelligences susceptibles d'être présentes dans l'univers, voire de se manifester à nous. Non seulement dans le cadre de l'astrobiologie, qui constitue une science indiscutable, dont les applications pourront être précieuses à l'avenir, mais aussi dans le cadre de projets comme ceux du SETI (Search for Extraterrestrial Intelligence), beaucoup plus problématiques, mais néanmoins importants, pour aujourd'hui comme pour plus tard.

Partager cet article

25 août 2014 1 25 /08 /août /2014 12:55

25 août 2014 | Par Jean-Paul Baquiast


Image PLOSBiology

Le 12 mars 2010, nous avions consacré un très long article à la présentation de l'ouvrage remarquable du biochimiste et biologiste Nick Lane, « Life ascending. The Ten Great Inventions of Evolution » Nous conseillons vivement à nos lecteurs de se reporter à cet article, sinon du livre lui-même.

Celui-ci présente les 10 grandes inventions qui selon l'auteur, ont permis aux organismes vivants, lors d'une évolution de plus de 4 milliards d'années, commençant aux ensembles moléculaires prébiotiques d'atteindre la complexité des écosystèmes d'aujourd'hui, parmi lesquels se trouvent les sociétés humaines et les hommes dotés d'un cerveau de 100 milliards de neurones. Cette évolution vers un accroissement continu de complexité a résulté, non de l'accomplissement d'un dessein préétabli mais, explique Nick Lane, du simple jeu du hasard et de la nécessité, pour reprendre les termes de Jacques Monod.

A l'origine de ces inventions, sans laquelle rien ne se serait produit, fut la synthèse des premiers composés biologiques à partir de matériaux purement géologiques ou géothermiques. Le livre détaille les hypothèses et les expériences qui lui permettent de situer ces évènements majeurs au coeur des océans primitifs, à l'occasion d'éruptions magmatiques sous-marines réagissant avec l'eau de mer. Une telle explication, généralement admise aujourd'hui, rend obsolète l'hypothèse de Darwin selon laquelle les premiers composants organiques se seraient formés dans de petites mares d'eau chauffées par le soleil et riches en matières minérales. Darwin n'avait évidemment pas pu, compte tenu des connaissances scientifiques de son époque, apporter de preuves biochimiques à son hypothèse.

Or dans un article du 12 août 2014 publié par PLOS Biology, A Bioenergetic Basis for Membrane Divergence in Archaea and Bacteria , Nick Lane,Víctor Sojo et Andrew Pomiankowski, poursuivant leurs recherches sur les origines de la vie, sont conduits à préciser les conditions selon lesquelles les premiers ensembles moléculaires prébiotiques se sont assemblées pour donner naissance à un organisme dit LUCA (Last Universal Common Ancestor) ou dernier ancêtre universel commun . On parle de dernier et non de premier ancêtre commun, car après lui ses descendants ont divergés, à la suite de mutations différentes, en espèces elles-mêmes différentes dont sont issues les premières bactéries et les premiers archeae, les seules formes de vie monocellulaire ayant jamais été produites sur Terre, ou tout au moins ayant survécu aux premières synthèses biochimiques qui ne s'étaient pas révélées viables 1)

Lane, comme l'indique son livre précité, avait fait la supposition que la vie a émergé autour des évents géothermiques alcalins résultant de l'activité volcanique sous marine. Ces évents se distinguent d'une autre catégorie d'évents, plus connus, dits fumeurs noirs, qui produisent des flux acides, propices à la vie de bactéries primitives, dites bactéries sulfureuses. Celles-ci ne peuvent survivre dans un milieu salin. Elles sont liées aux fumeurs volcaniques noirs, dont elles ne peuvent s'éloigner.

Les fumeurs alcalins, au contraire, se caractérisent par l'émission de flux alcalins (ou basiques) à des températures se situant entre 40° et 90°. Au contact de l'eau de mer, les minéraux alcalins précipitent et forment graduellement des cheminées de 50 à 60 mètres, comportant des fissures et des pores. Selon Lane et ses collègues Russell et Martin, les premiers éléments de la vie s'y sont formés spontanément. Les pores existant au sein des fumeurs étaient riches en fer et sulfures lesquels peuvent catalyser des réactions organiques complexes. De plus, les gradients de température régnant au sein des pores ont permis la formation de fortes concentrations de ces composés organiques, favorisant à leur tour la constitution de grosses molécules, telles que des lipides et de l'ARN.

Les lipides ont la propriété de pouvoir d'organiser en forme de membranes. L'ARN évoqué ici n'est pas l' ARN biologique tel que celui se trouvant aujourd'hui dans les cellules vivantes. Il s'agissait seulement de molécules chimiques ayant la structure d'un nucléotide tel que l'acide nucléique, lequel s'est, par la suite seulement, révélé propice à la fabrication par les premières cellules biologiques de molécules nécessaires à leur constitution puis à leur reproduction.

Quant à l'énergie nécessaire à toutes les transformations moléculaires, elle existait potentiellement en abondance à la frontière entre l'eau de mer acide et les effluents volcaniques alcalins, du fait de la différence en concentration de protons (gradient) propre à ces deux milieux. L'énergie provient de la transformation des ions sodium du fumeur en protons acides de l'eau de mer. Les échanges se font continuellement à la frontière entre ces deux milieux. Mais il n'existe aucune « turbine », pour reprendre le terme de Nick Lane, permettant de la capter avant qu'elle ne se disperse.

On voit donc que les éléments nécessaires à la fabrication des premières molécules prébiotiques puis des premières cellules biologiques existaient dans le milieu terrestre. Il fallait cependant qu'apparaisse un processus capable de les assembler.

Le rôle de membranes semi-perméables

La formation d'une première cellule biologique sur les parois des fumeurs alcalins a été initialisée par la constitution spontanée de membranes lipides fermées séparant un milieu cellulaire du reste de l'environnement. Selon un premier article de Dick Lane en date du 21 décembre 2012 , publié par le revue Cell The Origin of Membrane Bioenergetics repris et développés par l'article de PLOSbiology précité, la différence de concentration de protons entre milieux marins et milieux magmatiques permettait à des protocellules de fabriquer des composés carbonés et de l'énergie, mais seulement si ces cellules étaient dotées de membranes isolant leur milieu interne de leur milieu externe, sans pourtant être imperméables aux échanges de protons.

Or les vésicules d'acides gras formées spontanément sur les parois des fumeurs, comme indiqué plus haut, avaient l'imperméabilité suffisante pour conserver dans le milieu interne une concentration suffisante de protons, sans pour autant être entièrement imperméables. Pour expliquer cet apparent paradoxe, Nick Lane fait l'hypothèse que ces membranes se sont trouvées dotées par l'évolution d'une porte tournante ou « turbine protéinique » pouvant pomper vers l'extérieur les ions sodium intérieurs du milieu cellulaire, tout en laissant entrer les protons extérieurs. Les auteurs ont nommé cette turbine SPAP ou « sodium-proton antiporter » .3 )

La molécule SPAP a été le premier pas vers les membranes cellulaires modernes. Elle a permis aux précellules en étant dotées de se séparer de la paroi du fumeur alcalin et de se répandre dans le milieu marin tout en disposant d'un moteur énergétique suffisant pour une vie indépendante. La pompe à proton ainsi mise au point s'est ensuite perfectionnée, permettant l'apparition de membranes de plus en plus imperméables, indispensables à la conservation au sein de la cellule des métabolites indispensables à la vie qu'elles fabriquent.

LUCA et sa descendance

Ce serait ainsi que ce serait formé LUCA. LUCA fut la première cellule biologique capable, grâce à la molécule SPAP, de pomper de l'énergie pour fabriquer les protéines nécessaires à sa structure lui permettant de se reproduire en utilisant l'ARN présente dans le milieu. Si l'on considère que LUCA fut le précurseur des cellules biologiques actuelles, on admettra que la plupart des protéines indispensables à la vie de la cellule moderne proviennent de celles composant LUCA. De plus, pour fabriquer ces protéines, LUCA devait disposer d'une molécule riche en énergie, l'ATP ( Adénosine triphosphate) qui constitue dans toutes les cellules d'aujourd'hui le moteur en énergie universel nécessaire à alimenter la synthèse des protéines 4).

Aujourd'hui, les cellules fabriquent leur ATP en utilisant l'énergie solaire ou celle qu'elles trouvent dans leur nourriture. LUCA a donc du se doter d'une mécanisme générant de l'ATP. Ce processus a été rendu possible par la molécule SPAP. Cette pompe, comme nous venons de le voir, extrait les ions hydrogène ou protons se trouvant dans la cellule pour les rejeter à l'extérieur. Ceci crée un différentiel dans la concentration de protons de part et d'autre de la membrane cellulaire. Mais les protons, comme ce différentiel ne peut être que passager, rentrent dans la cellule, à travers une autre protéine incluse dans la membrane. Cette protéine utilise l'énergie ainsi obtenue pour fabriquer de l'ATP.

Pour procéder de la sorte, la cellule doit disposer d'une membrane qui soit imperméable aux protons. C'est le cas aujourd'hui, mais qu'en était-il concernant LUCA? Il se trouve que les deux grandes catégories de cellules descendant de LUCA, les bactéries et les archeae, sont dotées de membranes à la perméabilité . différente. Cette différenciation s'est faire une fois et ne s'est pas reproduite ensuite, sans doute du fait des gains de compétitivité acquis par ces formes de lignées biologiques monocellulaires, ayant éliminé toutes autres formes apparues ensuite.

Il reste à prouver la pertinence des modèles proposés par Dick Lane et ses collègues. Lane en est bien conscient. Son équipe s'attaque actuellement à la réalisation d'un réacteur à haute pression simulant les conditions propres aux évents géothermiques alcalins océaniques profonds tels qu'ils existaient il y a quatre milliards d'années. Si ces recherches étaient financées, elles permettraient de résoudre bien des points encore obscurs des hypothèses relatives à l'apparition de la vie. Elles permettraient aussi d'élargir les hypothèses relatives à l'apparition d'éventuelles vies planétaires.

Sources

*PLOS Biology A Bioenergetic Basis for Membrane Divergence in Archaea and Bacteria

* CellThe Origin of Membrane Bioenergetics

* NewScientist , 16 août 2014, Article de Michaêl LePage, Meet your Maker

Notes

1) Les bactéries et les archeae, comme l'ont montré les travaux du microbiologistes Carl Woese dans les années 1970, sont des espèces différentes et par conséquent, non interfécondes. Mais bien entendu, le dernier LUCA a été nécessairement précédé par des ancêtres plus primitifs, eux aussi communs parce que toutes les générations de LUCA en ont découlé. Autrement dit, les mutations s'inscrivant dans ce que l'on pourrait appeler le modèle LUCA et favorisant son adaptation ont conduit au dernier des LUCA. D'autres formes primitives antérieures à LUCA et incompatibles avec lui étaient certainement apparues dans le même temps, mais s'étant révélées moins aptes à la survie, elles ont disparues.

3) Cette constatation à elle seule est très intéressante, au regard des réflexions sur la possibilité de vies extraterrestres. Le nombre de planètes située dans la zone dite habitable est considérable. On peut penser que l'est aussi le nombre de planètes disposant d'eau acide au contact de magmas basiques. Cela rend en principe très probable l'émergence de processus vitaux analogues à ceux apparus sur Terre. Encore faudra-t-il le démontrer par l'identification sur ces autres planètes de formes de vie semblables à la vie terrestre.

3) PLOSBiology. Extrait du sommaire de l'article référencé ci-dessus:

"We develop a mathematical model based on the premise that LUCA depended on natural proton gradients. Our analysis shows that such gradients can power carbon and energy metabolism, but only in leaky cells with a proton permeability equivalent to fatty acid vesicles. Membranes with lower permeability (equivalent to modern phospholipids) collapse free-energy availability, precluding exploitation of natural gradients. Pumping protons across leaky membranes offers no advantage, even when permeability is decreased 1,000-fold. We hypothesize that a sodium-proton antiporter (SPAP) provided the first step towards modern membranes. SPAP increases the free energy available from natural proton gradients by ~60%, enabling survival in 50-fold lower gradients, thereby facilitating ecological spread and divergence."

4) Wikipedia: Le rôle principal de l'adénosine triphosphate est de fournir l’énergie nécessaire aux réactions chimiques des cellules. C’est un nucléotide servant à stocker et transporter l’énergie.
Du fait de la présence de liaisons riches en énergie (celles liant les groupements phosphate sont des liaisons anhydride phosphorique), cette molécule ATP est utilisée chez les êtres vivants pour fournir de l'énergie aux réactions chimiques qui en consomment. L'ATP est la réserve d'énergie de la cellule.

Partager cet article

23 août 2014 6 23 /08 /août /2014 19:31

Entretien. A propos du livre "Intelligence unbound"
Alain Cardon et Jean-Paul Baquiast, le 22/08/2014

J.P. Baquiast (JPB): Cher Alain, que penses du livre que nous venons de présenter, soit Intelligence unbound, de Blackford et Broderick?

Alain Cardon AC) : Je pense qu'il y a deux façons de réaliser un cerveau humain artificiel, puisque telle semble être l'ambition des auteurs cités dans ce livre.

La première consiste à procéder comme la nature, en partant du petit système cellulaire initial, soit un tout très fortement maillé où toute partie identifiable est coactive avec le reste, un système qui se développe par ses multiples parties de façon toujours localement et globalement cohérente, jusqu'à former un organisme qui possède un cerveau opérationnel dans son corps, et qui va à partir d'un moment pouvoir naître et explorer la nature

Disons que c'est une approche descendante, qui part du haut, de la loi de cohérence de l'ensemble, pour aller vers le bas, le développement cohérent et organisé des parties, comprenant le cerveau qui se développe sans cesse et en lien étroit avec tout le corps par les sens. Inutile de dire, comme tu le soulignes toi-même dans ta critique du livre, qu'une telle démarche serait aujourd'hui hautement irréaliste.

Toute la question en ce cas, que les biologistes ne posent plus en la considérant comme résolue, est de savoir si le génome, par sa très petite taille, constitue un « programme » suffisant pour assurer un tel déploiement fortement cohérent, en assurant aussi l'évolution d'organismes vivants viables. MP. Schutzenberger de l'Académie des Sciences, un de mes anciens maîtres, avait répondu négativement à cette question. Il en serait de même d'opérations visant à simuler de telles évolutions sur ordinateurs.

JPB.: Et que serait la seconde façon de procéder?

AC. : Elle consisterait, sans aucune référence au biologique, à rassembler des morceaux électroniques artificiels , soit en pratique des programmes, puis les connecter un par un jusqu'à former un corps. Cette corporéité sera le moyen d'appréhension et d'expression permettant l'apparition d'un système unificateur très spécial lequel jouera le rôle d'un cerveau, le tout formant un organisme artificiel unifié qui puisse appréhender le réel, penser, agir.

Le cerveau artificiel pensera au sein de ce corps artificiel en ressentant le monde par l'intermédiaire des organes sensoriels de celui-ci. Il utilisera la mémoire dont se dotera cette corporéité artificielle à partir de son vécu artificiel partiel, et ce faisant il générera des intentions. Il ne se comportera certainement pas comme un gros résolveur de problèmes cherchant, tel un simple ingénieur, la solution à la question posée dans une énorme base de données.

JPB.: Autrement dit, cette seconde façon, qui manifestement a ta préférence, est préférable à celle visant à faire un cerveau artificiel simulant le cerveau humain en téléchargeant ce que l'on croit être un cerveau humain (auquel on n'aura pas compris grand chose encore) dans un superordinateur, aussi puissant qu'il puisse être.

AC.: Oui. Il faudra vraiment vraiment résoudre le problème central : comment unifier des parties multiples, distribuées qui vont former les organes artificiels. Comment à partir de cela générer une pensée sensible utilisant les entrées sensorielles pour appréhender en profondeur le réel environnant et pour évoluer sans cesse en augmentant organisationnellement et continuellement sa mémoire par les traces des pensées qu'il ne cessera de générer ? Comment lier les organes moteurs et les organes représentant les sens, pour obtenir un organisme dont toutes les parties seront en permanence et totalement unifiées dans le cadre d'une conscience artificielle?

JPB.: Comment donc selon toi concevoir un organisme artificiel conscient, éventuellement un système avec une conscience liée à de multiples composants distribués sur une surface de plusieurs mètres, plusieurs kilomètres ou plusieurs milliers de kilomètres ?

AC. : J'ajouterai: et comment concevoir le système-cerveau utilisant sa corporéité pour générer des intentions, des envies, des désirs, des contraintes, pour qu'il éprouve l'équivalent de
sentiments, pour qu'il ait des tendances dont certaines pourront ressembler aux très nombreuses et banales névroses humaines, à savoir la névrose de pouvoir, la névrose de contrainte, la névrose de réductionnisme, la névrose d'évitement ?

Et comment concevoir conceptuellement cette approche montante, en sachant que la vie prénatale de l'humain au sein de laquelle se forme son cerveau conditionne sa façon de penser et ce à quoi il sera capable de penser et de méditer, y compris sur des contenus fortement abstraits tels que le Temps, le Tout, le Moi?

Comment développer la génération naturelle, spontanée, de ces idées dans un cerveau artificiel qui doit obligatoirement être un système peu déterministe, sans être pour autant purement aléatoire, afin de produire sans cesse de nouvelles idées capables de modifier en permanence sa mémoire organisationnelle ?

Comment concevoir tout cela en sachant aussi que le système doit non seulement acquérir l'aptitude à abstraire à partir de ce qu'il appréhende par les sens, mais aussi manipuler de façon abstraite ces mêmes abstractions mémorisées afin de générer des signifiés très évolutifs.

JPB. : Oui, comment?

AC. : Selon moi, la voie pour résoudre ces problèmes sera d'abord de bien les poser, dans leurs espaces conceptuels, puis de les modéliser dans le calculable. Celui-ci concerne la création et l'usage à de multiples échelles, d'une information globale où le parallélisme joue avec le séquentiel. Le calculable mêle l'électronique, l'automatisme, l'informatique, la linguistique, la psychologie. J'ai très longuement développé tout cela dans mes publications. Je considère, avec quelques rares collègues, que le système est faisable. Malheureusement pour aborder un tel problème, l'Université française n'investit pas, la pluridisciplinarité n'y existe plus et la pauvreté matérielle et intellectuelle s'installe.

Le développement d'une conscience artificielle n'a strictement rien à voir avec une approche basée sur la reproduction informatique par similarité au niveau cellulaire du cerveau d'un rat, avec de gros ordinateurs gérant le parallélisme, en espérant voir surgir d'un tel imbroglio le miracle de la pensée qui se déploie. L'humain pense parce qu'il vit de manière intersubjective avec sa mère qui le forme puis par communication sensible et intersubjective avec tous les autres individus qui constituent la société humaine.

La conscience artificielle se devra donc d'être hyper-communicante. L'approche par un robot isolé doté d'un cerveau local formant une unité isolée est une grave erreur, d'autant plus que tout système informatisé actuel peut être lié par Wifi avec tous les autres existants. Une conscience artificielle utilisant une ou des corporéités artificielles pourra être déployée sur l'étendue de la planète en communiquant avec tous les systèmes semblables, et avec tous les composants électroniques accessibles. Ceci pose un problème d'éthique absolument majeur, que les naïfs mal informés ne veulent pas voir.

JPB.: Nous avons souvent signalé en effet ici que de tels systèmes artificiels, même s'ils sont encore dans l'enfance, s'élaborent aujourd'hui dans des lieux confidentiels, en visant des objectifs de contrôle militaire ou de contrôle économique. Nous en subissons déjà les prémisses, (d'ailleurs à une large échelle) sans nous en apercevoir.

AC.: J'ajoute que des lois identiques, encore mal aperçues par la science, fut-elle financée par la Darpa (NDLR Agence de recherche du département américain de la défense) ou par Google, doivent commander trois types de développement liées:

- Celui d'un Homme qui a pensé son monde et l'a complexifié à partir de Sumer en Mésopotamie, avec la création de l'écriture, des villes organisées, des lois sociales, et aussi des guerres pouvant avoir pour résultat de tout faire disparaître, telle cette troisième guerre que certains pouvoirs dominants semblent prêts aujourd'hui à déclencher.

- Celui des premières cellules prébiologiques qui ont trouvé, par des voies encore inconnues, le moyen de s'organiser de façon complexe et de se reproduire de telle sorte qu'elles ont généré l'immense complexité du monde vivant actuel.

- Celui des premiers atomes qui ne se sont pas limités à reproduire indéfiniment l'atome initial d'hydrogène, mais ont donné naissance à une complexité atomique et moléculaire sans laquelle, bien avant l'apparition de la vie, la nébuleuse primordiale formant ce qui est devenu la Terre et les autres planètes du Système solaire serait restée ce qu'elle était peu après le Big bang, c'est-à-dire un nuage de gaz peu différenciés.

On peut penser aujourd'hui que ce sont des lois identiques qui expliquent cette évolution, depuis le cerveau d'organismes tels que celui de l'homme au niveau des sociétés humaines, celui de l'embryon reproductif générant la complexité biologique au niveau de la Terre et finalement l'immense complexité du cosmos tout entier.

JPB.: Tu évoques là des domaines de recherche qui nous mettraient au coeur des lois fondamentales (si lois il y avait) ayant présidé à la naissance de notre univers local, voire à l'organisation du multivers. Je note qu'au départ il y aurait une réflexion sur le monde quantique, qui ne comporte ni temps ni espace, mais dont tout vraisemblablement serait sorti. Pour Seth Lloyd, dans l'ouvrage qui a été présenté ici (Programing the Universe) la relation s'impose. Mais elle reste à étudier en détail.

AC.: Oui. Mais il n'est certainement pas assuré que la science humaine, enfermée dans ses contraintes matérielles et aussi ses préjugés, puisse commencer à découvrir de telles lois. Surtout si sa seule ambition se traduit, selon ton expression précédente, par le téléchargement d'un cerveau auquel elle n'a pas compris grand chose sur un superordinateur qui ne sera jamais assez puissant. Je ne mentionne même pas les quelques 90% des sociétés actuelles qui sont complètement paralysées par des croyances en des monothéismes inventés depuis 2000 ans, monothéismes pour qui le concept même de conscience artificielle relève du blasphème.

JPB.: Disons seulement que ceux qui commenceraient à découvrir ces lois, même partiellement, se donneraient des clefs pour comprendre, sinon reconstruire, l'univers tout entier. Il n'est pas interdit d'y réfléchir.

Partager cet article

5 août 2014 2 05 /08 /août /2014 19:27


Francis Crick et Kristof Koch avaient-ils découvert le siège de la conscience?
Jean-Paul Baquiast 24/07/2014

Coupe horizontale d'un hémisphère cérébral montrant l'emplacement du claustrum. (wikipedia)

Ce fut longtemps le rêve des philosophes (la glande pinéale de Descartes), comme plus récemment celui des physiologistes et des neurologistes: découvrir dans le cerveau humain une aire ou une zone qui serait spécifiquement en charge de générer ce que l'on nomme les processus de conscience chez les personnes éveillées.

Récemment, il avait été suggéré qu'il s'agissait d'un faux problème. La production de la conscience pourrait résulter d'une collaboration d'un grand nombres de zones corticales reliées par les neurones de liaison. Dire cela ne permettait cependant pas de clarifier la question. Comment ces aires et ces neurones collaboraient-ils pour générer des faits de conscience sans produire une cacophonie assourdissante, compte tenu notamment du fait que la conscience est généralement considérée comme, à chaque moment, le produit unique d'un processus générateur. La présence d'un « chef d'orchestre » paraît indispensable.

Les nombreuses observations menées ces dernières années, tant sur le plan clinique qu'avec les moyens modernes d'imagerie cérébrale, n'étaient pas parvenu à résoudre ce mystère, pas plus d'ailleurs chez l'homme que chez les animaux, lorsque certains d'entre sont soupçonnés d'héberger des formes de conscience épisodique. Il se trouvait cependant que les neurologues Francis Crick (découvreur de l'ADN) et Christof Koch avaient publié en 2005, dans un Bulletin de la Royal Society, un article faisant l'hypothèse qu'il existe dans le cerveau une zone qui pourrait effectivement jouer le rôle du chef d'orchestre recherché 1). Pour eux, il s'agissait du Claustrum ou Avant-mur., dont on trouvera la localisation dans le texte de Wikipédia ci-dessous 2)

Dans le sommaire de cet article (adapté ici), on trouve les précisions suivantes :
« La fonction du claustrum est énigmatique. Son anatomie est tout à fait remarquable en ce sens qu'il reçoit des entrées (input) de toutes les régions du cortex et peut en retour projeter vers elles des retours d'information ". Les auteurs, dans la suite de l'article, formulaient des hypothèses relative aux rapports que pouvait avoir cette structure avec les processus générateurs des perceptions conscientes intégrées. Ils proposaient des expériences susceptibles de vérifier ces hypothèses.

Assez curieusement, aucune de ces expériences ne fut tentée à l'époque. D'une part parce qu'explorer cette partie du cerveau chez un sujet humain vivant était éthiquement très difficile sinon impossible compte tenu des moyens alors disponibles. Mais d'autre part aussi sans doute du fait que Francis Crick ne s'était tourné vers les neurosciences qu'à la fin de sa carrière et n'était pas nécessairement considéré par la communauté comme un chercheur très pertinent. De plus, le rôle qu'avec son collègue il attribuait au claustrum contredisait la majorité des opinions relatives à la conscience, qui étaient et sont restées holistiques, faisant de la conscience comme nous venons de le rappeler un produit émergent de la complexité corticale.

Francis Crick, par ailleurs, avait aussi proposé des hypothèses jugées alors fantaisistes ou du moins intestables, concernant le rôle pour la production d'états de conscience de phénomènes quantiques au niveau des microtubules neuronales. Ces hypothèses sont aujourd'hui étudiées très sérieusement, comme nous l'avions indiqué dans un article précédent. En fait, il aurait été plutôt justifié de considérer Crick comme un neuroscientifiques de génie, ce qui aurait embelli la fin de sa vie.

Enfin une preuve expérimentale?

Les réflexions sur le rôle du claustrum comme générateur premier de la conscience ont reçu ces derniers jours une publicité considérable, à la suite de la publication par le neurologue américain Mohammed Koubeissi de l'Université de Washington, des résultats d'une expérience qui pourrait se révéler décisive, si du moins elle pouvait être reprise à plus grande échelle 3) . Un nombre important d'articles sont apparues depuis sur le web à ce sujet et peuvent être facilement consultés.

La encore, résumons en l'adaptant le sommaire publié par Mohammed Koubeissi et son équipe. Il s'agit d'une observation faite sur une patiente de 64 ans soumise à des implantations d'électrodes profondes destinées à identifier les zones soumises à des accès épileptiques sévères, puis à des stimulations électriques par ce moyen, destinées à réduire les crises. On observera une fois de plus que les implantations d'électrodes dans les cerveaux de personnes épileptiques ont joué ces dernières années un rôle important dans la connaissance du cerveau, ce que l'on ne s'est pas encore décidé à faire concernant des personnes saines.

Or l'une des électrodes avait été placée à proximité du claustrum, ce qui n'avait jamais été fait auparavant. Les chercheurs observèrent alors que des impulsions électriques à haute fréquence produisait une perte de conscience chez la patiente, sans pour autant induire un coma ou simplement un accès de sommeil, non plus que de nouvelles décharges épileptiques. Au plan comportemental, elle cessait de lire ou parler, et sa respiration se ralentissait. Dès que la stimulation cessait, elle reprenait conscience, sans garder souvenir de l'épisode.

L'opération fut répétée plusieurs fois en deux jours et produisit toujours le même résultat. Pour l'équipe, il est évident que le claustrum joue le rôle d'une clef permettant, selon l'image d'une automobile utilisée en l'espèce, de faire démarrer ou arrêter le moteur bien plus complexe du cerveau, afin de produire la conscience.

Différentes hypothèses susceptibles d'expliquer le phénomène observé ayant été éliminées, il resterait à approfondir les explorations électriques et surtout à répéter l'expérience chez un nombre suffisant de patients. Au delà, il faudrait expliquer en détail ce qui se passe au niveau des neurones du claustrum et des influx nerveux émis ou reçus. Bien que le claustrum soit d'une taille bien plus réduite que celle du cerveau, il n'y a pas de raisons pour que les processus neurologiques y soient différents.

Or, l'on retrouve la la grande difficulté des neurosciences. Comment traduire des observations portant sur des phénomènes visibles en modèles expliquant en profondeur ce que sont les pensées, les décisions et toutes autres opérations relatives à l'état de conscience. Nous avons plusieurs fois signalé que sur ce sujet, pratiquement encore inexploré de façon sérieuse, notre ami Alain Cardon a proposé des hypothèses informatiques, reprises dans ses ouvrages en libre accès sur notre site, qui n'ont pu encore malheureusement être programmées dans le détail afin d'être démontrées.

Les réseaux de neurones artificiels

Pour ce qui nous concerne, nous pouvons observer que, venant d'une toute autre direction, des hypothèses intéressantes sont actuellement formulées par des chercheurs s'intéressant aux capacités des neurones artificiels (notamment Emmett Redd et Steven Younger de la Missouri State University) .Certaines architectures de tels neurones pourraient selon eux permettre de créer de super-ordinateurs, capables de tâches actuellement impossible à tous les ordinateurs existants, fussent-ils quantiques. Il s'agirait de fonctions qui échapperaient aux traitements logiques, et ne seraient pas limitées par le mur du principe d'incomplétude de Gödel. 4)

Pourquoi en ce cas ne pas imaginer que l'évolution ait pu doter les claustrums d'architectures neuronales de cette nature. Ce qui pourrait expliquer les propriétés absolument spécifiques de la conscience dans la génération des idées créatrices. 5)

Références

1) Crick et Koch http://rstb.royalsocietypublishing.org/content/360/1458/1271

2) Claustrum, Wikipedia http://fr.wikipedia.org/wiki/Claustrum

3) Koubeissi et al.
http://www.sciencedirect.com/science/article/pii/S1525505014002017

4) Michael Brooks « Turing's oracle: The computer that goes beyond logic » Newscientist, 19 juillet 2014 http://www.newscientist.com/article/mg22329780.400-turings-oracle-the-computer-that-goes-beyond-logic.html

5) Voir aussi ici le commentaire du Pr F. Bartolomei, co-auteur de l'étude et chef du service de neurophysiologie à l'hôpital de La Timone (Marseille)
http://www.sciencesetavenir.fr/sante/20140708.OBS3088/claustrum-un-interrupteur-de-la-conscience-experience.html

Partager cet article

Articles Récents

Liens

Partager cette page Facebook Twitter Google+ Pinterest
Suivre ce blog